Intel présente son arme fatale contre les deepfakes

17 novembre 2022 à 16h21
14
© Intel
© Intel

Avec cette technologie baptisée FakeCatcher, Intel est en mesure d’identifier en quelques millisecondes les vidéos truquées, avec une précision de 96 %.

Alors que les montages qui imitent les visages humains représentent une menace croissante, Intel a mis à profit ses recherches en intelligence artificielle pour faire un grand pas dans la lutte contre les fausses informations.

Une technologie fondée sur des détails physiques

Pour atteindre sa précision record, FakeCatcher se différencie des solutions existantes en s’attardant sur des détails physiques et non pas des données brutes, explique Intel dans un communiqué.

© Intel
© Intel

Dans les deepfakes, la technologie d'Intel recherche alors des incohérences dans l’éclat des yeux, ou dans la façon dont le flux sanguin change de couleur sur l’ensemble du visage. De son côté, un moteur dopé au Deep Learning analyse l’authenticité de ces comportements par rapport à de vraies vidéos. Ces « indices authentiques », qui « font de nous des êtres humains » ne trompent pas, selon Intel.

Une rapidité d’exécution inédite

Le moteur de détection repose sur un ensemble de couches logicielles et matérielles d’Intel. Pour la partie software, FakeCatcher utilise, entre autres, OpenVINO, OpenVC et la technologie Deep Learning Boost pour la détection de visages et le traitement des images. Côté hardware, l’outil s’appuie sur des processeurs « maison » Intel Xeon de troisième génération, permettant de faire tourner jusqu’à 72 analyses en même temps. Enfin, le géant américain met son outil à disposition via une simple interface web pour l’utilisateur final.

Ce traitement quasi instantané des vidéos est une grande première. Jusqu’alors, il était impossible de les analyser en temps réel. Il fallait les uploader sur des plateformes complexes et attendre les résultats pendant plusieurs heures. Selon Intel, les perspectives offertes par cette technologie surpuissante sont désormais nombreuses. La firme envisage de compter des réseaux sociaux, des médias ou des ONG parmi ses futurs clients, pour détecter les deepfakes à grande échelle.

Et la manne est colossale : selon une analyse du cabinet Gartner, les dépenses en cybersécurité devraient atteindre 188 milliards de dollars en 2023.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (14)

dredd
Paraît que lors des tests, une vidéo authentique de Kim Kardashian à provoqué un blue screen sur la machine de test. Incapable de comprendre comment une vidéo pouvait à la fois être aussi réelle que Fake. Ils ont dû la whitelister.
Wifi93
Cette info est un fake à elle seule. Qui est assez naïf pour croire qu’une machine et un logiciel si puissant soit-il puisse faire la différence entre le vrai et le faux. Même un détecteur de mensonge peut être tromper. Seule une intelligence artificielle serait à même de pouvoir faire la différence et ce n’est pas encore pour demain.
crush56
???<br /> Qu’est ce que racontes ?<br /> 1 - la technologie Intel utilise l’IA, c’est dans l’article.<br /> 2- tu crois qu’une IA est capable de produire un fake mais pas de le détecter ? (Alors que la production est probablement infiniment plus complexe à réaliser)
Martin_Penwald
96% de détection, c’est pas tant que ça, mais c’est déjà pas mal si c’est fait en temps réel. Après, j’imagine que les logiciels de trucage vont évoluer également.
Martin_Penwald
Attention, toutefois …<br /> Tu réponds à quelqu’un qui pense que la NASA n’a jamais envoyé d’hommes sur la lune et que les vidéos tournées sur place l’ont été dans le Nevada.
MattS32
Martin_Penwald:<br /> Après, j’imagine que les logiciels de trucage vont évoluer également.<br /> Assurément. Surtout qu’il « suffit » justement de soumettre automatiquement le production de l’IA fabriquant les fake à une IA détectant les fakes pour que la première apprenne toute seule à produire des fake que la seconde ne saura pas détecter. Ce n’est ensuite essentiellement qu’une question de puissance de traitement disponible.<br /> C’est d’autant plus facile si l’IA de détection indique un indice de confiance et pas juste un oui/non, puisque l’indice de confiance donne à l’IA productrice une indication sur le sens dans lequel elle progresse.<br /> Martin_Penwald:<br /> Tu réponds à quelqu’un qui pense que la NASA n’a jamais envoyé d’hommes sur la lune et que les vidéos tournées sur place l’ont été dans le Nevada.<br /> C’est donc ça une intelligence « artificielle » ?
SPH
Faut voir comment réagirait la AI sur un visage bronzé, ou barbu, ou avec des lunettes de soleil. Ou bien d’autres cas : un clown par exemple
gemini7
Si ce système de détection de fake fonctionne bien, c’est une bonne chose, mais ça n’empêchera jamais les théoriciens du complot, de pondre des bouquins farfelus sur des théories biaisées et se faire du fric sur le dos des pigeons.
gemini7
« Il faut voir comment réagirait la AI sur un visage bronzé ou barbu »<br /> Le mot terroriste va apparaître en rouge.
ypapanoel
compliqué non? On se dit que la qualité des deepfake va augmenter et donc que la détection ne sera peut-être pas toujours aussi bonne (mais elle va aussi s’améliorer à n’en pas douter…) et surtout 4% d’erreur : si on parle de dizaines de milliers de contrôles, ça laisse encore une bonne quantité de fakes en utilisation
FlavienS
Pour les complot-théoriciens. Il suffira de trouver une vidéo qui tombe dans les 4% de faux négatif pour déchainer le groupuscule
MattS32
Bof, même pas : si elle tombe dans les 96%, ils diront que c’est parce que l’IA de détection se trompe. Voire même parce que l’IA a été faite exprès pour discréditer leurs preuves.
Cmoi
Le hic c’est que cela ne changera rien car le mal sera fait pour les personnes victimes d’un deepfake.
arnaques_tutoriels_aide_informatique_tests
Mdr ^^
Voir tous les messages sur le forum