Des chercheurs affirment pouvoir tromper simplement la détection des deepfakes

09 mars 2020 à 11h15
3
Iron Man Deep Fake Cruise
Le deepfake qui a remplacé Robert Downey Jr par Tom Cruise dans le rôle d'Iron Man © Collider Video

Une équipe de chercheurs de l'université de San Diego dit être parvenue à tromper, de manière relativement simple, les systèmes de détection des deepfakes, ces vidéos « truquées » par une intelligence artificielle.

Le projet sonne comme un avertissement alors que ce type de contenus s'est considérablement développé ces dernières années.


Perturbations vidéo

Les résultats ont été publiés sur le site de l'université de Cornell. L'équipe parle de « deepfakes perturbatoires », qu'elle définit comme des vidéos « intentionnellement perturbées pour tromper un modèle de classification ». La publication précise : « Dans ce projet, nous démontrons qu'il est possible de contourner (les) détecteurs en modifiant de fausses vidéos utilisant des méthodes déjà existantes de création de deepfakes ». Elle ajoute : « Nous démontrons en outre que nos perturbations sont robustes aux codecs de compression d'image et de vidéo, ce qui en fait une menace réelle ».

Les universitaires ont utilisé des vidéos de deepfakes et leur ont ajouté des « perturbations » (comme du bruit gaussien), si l'on en croit l'infographie issue de l'étude ci-dessous. Si cet ajout doit être réalisé selon une certaine méthode de calcul, une fois celui-ci terminé, l'image semble identique pour un être humain, mais pas pour les logiciels de détection, qui estiment désormais que la vidéo est authentique.

Deepfake San Diego
© UC San Diego


Soulever le problème

Les chercheurs précisent que leur méthode a réussi à tromper deux logiciels de détection baptisés XceptionNet et MesoNet, tous deux basés sur le modèle « CNN » (Convolutional Neural Networks). Ils déclarent : « Ces détecteurs [...] fonctionnent par image et classent chaque image indépendamment en tant que réel ou fausse ». Bien que simple, le procédé a permis de tromper des intelligences artificielles dont le fonctionnement était connu publiquement (IA de type white-box), et d'autres dont le fonctionnement était inconnu (type black-box).

Les résultats de l'étude sont fournis en exemples. L'infographie ci-dessus a montré le résultat obtenu sur une interview de l'ancien Président américain Barack Obama. Ci-dessous, les chercheurs fournissent les résultats obtenus pour d'autres images, choisies aléatoirement. Les auteurs précisent qu'à chaque fois, la colonne de gauche montre le deepfake d'origine, qui a été reconnu comme tel par le logiciel de détection. Les autres colonnes montrent des images qui, a priori, semblent identiques, mais auxquelles des perturbations ont été ajoutées et ont été reconnues comme « authentiques » par les logiciels.

Deepfake San Diego
© UC San Diego

Pour ses auteurs, l'étude prouve que la méthode actuellement utilisée pour la détection de deepfakes doit encore être améliorée. Les scientifiques ont déclaré : « Nous voulons soulever explicitement ce problème qui a été ignoré par les travaux existants sur la détection de deepfakes [...]. Étant donné que la génération de fausses vidéos peut potentiellement être utilisée à des fins malveillantes, il est essentiel de remédier à la vulnérabilité des détecteurs de deepfakes aux entrées perturbatoires ».

Source : Medium

Benoît Théry

Je veux tout savoir, et même le reste. Je me passionne pour le digital painting, la 3D, la plongée, l'artisanat, les fêtes médiévales... Du coup, j'ai toujours des apprentissages sur le feu. Actuellem...

Lire d'autres articles

Je veux tout savoir, et même le reste. Je me passionne pour le digital painting, la 3D, la plongée, l'artisanat, les fêtes médiévales... Du coup, j'ai toujours des apprentissages sur le feu. Actuellement, j'apprends à sourire sur mes photos de profil.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (3)

cirdan
Le jeu du chat et de la souris version numérique. L’intérêt est surtout de savoir combien de temps la souris va garder son avance
ABC
C’est un truc vieux comme l’image numérique, jouer avec les flous gaussiens et le bruit, entre autres, pour apporter de l’imperfection et de l’homogénéité à une image. Ça estompe les différences de rendu au sein d’une image ayant plusieurs sources. Bien fait, si le photomontage de base n’est pas trop dégueulasse, on y voit que du feu.<br /> Mais bon, comme dit plus haut, au jeu du chat et de la souris, il y en aura toujours un pour dépasser l’autre. L’idéal serait de former et d’éduquer les utilisateurs à l’esprit critique et d’analyse (plutôt que de voir des fakes news un peu partout). Mais quand on lit nos contemporains sur les réseaux, on se dit que c’est pas gagné.
St_uf
Comme le fait remarquer ABC, d’ajouter du grain sur une image pour cacher la misère ça n’a rien de magique comparé au deepfake en lui même. C’est comme les vidéos complotistes avec des résolutions super low.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet