Des chercheurs ont découvert comment mieux détecter des deepfakes (et c’est une bonne nouvelle)

19 septembre 2021 à 09h15
10
© Hui Guo, Shu Hu, Xin Wang, Ming-Ching Chang et Siwei Lyu
© Hui Guo, Shu Hu, Xin Wang, Ming-Ching Chang et Siwei Lyu

Un groupe de chercheurs de différentes universités américaines a trouvé comment identifier des images produites par des algorithmes. La clé : les yeux.

Ces dernières années ont vu naître de nombreux algorithmes de falsification de photos et de vidéos. Ces deepfakes sont dangereux à bien des égards et de nombreux chercheurs et experts s'évertuent à trouver des moyens d'identifier les médias générés à l'aide du machine learning.

Reconnaître un deepfake « en un clin d'oeil »

D'après ces chercheurs, les visages générés par des intelligences artificielles auraient des imperfections au niveau des pupilles. Ce n'est pas la première fois que les yeux trahissent les deepfakes puisque plus tôt dans l'année, les reflets oculaires imparfaits produits par cette technologie permettaient d'identifier la contrefaçon.

Cette fois, ce sont donc les pupilles qui présentent des formes irrégulières. Habituellement circulaire, cette partie des yeux s'avère difficile à reproduire pour un algorithme. Avec leur technique de reconnaissance concentrée sur ce défaut, les chercheurs clament pouvoir détecter les faux avec une efficacité de 80 %.

Tout comme dans la lutte contre les virus, les chercheurs et les développeurs jouent au jeu du chat et de la souris. En effet, les algorithmes de deepfakes sont constamment modifiés pour corriger ce type de défaut une fois ceux-ci identifiés. Les techniques de détection, aussi ingénieuses soient-elles, n'ont donc qu'une durée de vie limitée.

Source : Arxiv.org

Naïm Bada

Éclectique vidéoludique, je me passionne aussi pour les nouvelles technologies et plus particulièrement la cybersecurité et l'applicatif, autant de sujets sur lesquels j'ai l'occasion d'écrire ici....

Lire d'autres articles

Éclectique vidéoludique, je me passionne aussi pour les nouvelles technologies et plus particulièrement la cybersecurité et l'applicatif, autant de sujets sur lesquels j'ai l'occasion d'écrire ici. Aux petits soins avec la logithèque, je m'assure presque tous les jours de proposer la meilleure expérience à nos utilisateurs avides de nouvelles apps. À une lettre près d'être naïf.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (10)

bennukem
Donc les IA deepfake vont corriger cette anomalie prochainement.<br /> Il semblerait que macfries et carloto étaient en deepfake avec makron.
Aristote76
En soi c’est une bonne nouvelle mais nul doute qu’ils mettrons un patch pour corriger cette erreur. Il y aura toujours un programmeur pour corriger une erreur logiciel.
Pronimo
Cela me semble tellement évidement, comment c’est possible que personne ne l’a remarqué?
stratos
en gros dans 1 semaine ca ne sera plus utilisable comme technique de vérification, parfois il est préférable de rien dire
MisterDams
Vu que la plupart des deep learning sont majoritairement basés sur un créateur et un vérificateur, il suffit d’ajouter cette vérification pour qu’elle soit rejetée aux tests et que le créateur s’y adapte…
GRITI
Ca ne dépend pas de la résolution/qualité du deepfake? Si la vidéo n’est pas top, réussir à distinguer et pouvour comparer la pupille risque d’être coton…
benben99
Drôle de voir les types qui ne comprennent rien commenter sur les deepfakes et comment les détecter LOL.<br /> Comme dit plus haut un generative adversarial network utilise deux réseaux de neurones: vérificateur et créateur. Le créateur génère des données et le vérificateur tente de les distinguer comme vraies ou faux. C’est ce processus qui vient à générer des images/vidéos de très haut réalisme.<br /> Pas compliqué de déjouer la technique dans cet article:<br /> il faut mettre plus de resources pour générer des deepfake de qualité.<br /> on peut juste intégrer ce type de détection dans le vérificateur<br />
xryl
Il y a une asymétrie dans le visage de droite (joue gauche complètement différente de celle de droite). Bref, on va voir une panoplie d’article qui vont successivement relever les problèmes fondamentaux des deepfakes: ils ne comprennent pas les règles de la nature et donc des symétries (axiales, radiales, etc…).
odyssseus
Peu de visages sont vraiment parfaitement symétriques …
Peutch
Je dirais même plus, aucun visage n’est symétrique; en plus il faudrait tenir compte de l’angle du visage par rapport «&nbsp;à la prise de vue&nbsp;».
Voir tous les messages sur le forum
Haut de page

Sur le même sujet