Fawkes, un programme qui modifie légèrement vos photos pour empêcher la reconnaissance faciale

19 août 2020 à 10h35
8

De nombreuses personnes s'inquiètent de l'usage de plus en plus répandu de la reconnaissance faciale. Certaines se défendent contre son utilisation devant les instances nationales et internationales, alors que d'autres recherchent des parades.

Fawkes fait partie de la seconde catégorie. Le logiciel propose de modifier légèrement les photos afin de tromper la reconnaissance faciale.

À visage masqué

Le principe de Fawkes, qui est également le nom du projet qui a fait naître le logiciel, est assez simple. Si celui-ci propose une fonctionnalité appelée « cloaking », il ne vous rendra pas invisible à proprement parler. En réalité, Fawkes se contente de faire de très légères modifications, de l'ordre de quelques pixels, sur les images qui lui sont proposées.

Pour un être humain, cette image « masquée » ne semble pas différente de l'image d'origine. Mais pour l'ordinateur, ce changement de quelques pixels bien choisis implique une distorsion importante, l'empêchant d'identifier la personne.

Fawkes © U. Chicago
© Université de Chicago

Selon le SAND Lab, le laboratoire de recherche de l'université de Chicago à l'origine du logiciel, « si et quand quelqu'un essaie d'utiliser ces photos pour créer un modèle de reconnaissance faciale, les images "masquées" enseigneront au modèle une version très déformée de ce qui vous ressemble ». Ceci poussera le logiciel à classer l'individu détecté comme une nouvelle personne à chaque fois.

Aucune incidence sur les logiciels légitimes

Fawkes est ainsi présenté comme une réponse aux logiciels de reconnaissance faciale, certains ayant été entrainés sur la base de portraits collectés sans le consentement des personnes concernées. Les auteurs du projet mentionnent Clearview.AI, un service suspecté d'avoir été bâti sur une base de 3 milliards de photos de personnes téléchargées sans l'accord de ces dernières.

Le programme s'adresse d'abord à ces modèles : selon le média Futurity, l'outil n'aurait aucune incidence sur les logiciels de reconnaissance faciale dont les images ont été légitimement obtenues, notamment ceux utilisés par les forces de l'ordre. En revanche, il serait, selon le SAND Lab, « efficace à 100% » contre l'Amazon Rekognition, le Face API de Microsoft API et Face++.

Pour Emily Wenger, étudiante à l'université de Chicago et co-responsable du projet, il s'agit d'abord de donner du pouvoir aux individus. Elle déclare : « Nous n'avons aucune illusion sur le fait que cela résoudra toutes les violations de la vie privée, et il existe probablement des solutions techniques et juridiques pour aider à repousser les abus de cette technologie. Mais le but de Fawkes est de donner aux individus le pouvoir de se défendre, car pour le moment, rien de tel n'existe ».

Le logiciel a été présenté au Symposium USENIX 2020. Il est également disponible en téléchargement et a déjà dépassé la barre des 175 000 installations.

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
8
9
Voir tous les messages sur le forum

Lectures liées

La Défenseure des droits s'oppose aux caméras de reconnaissance des individus dans l'espace public
Voici CAPS, la capsule volante française autonome, passe-partout et monoplace (Vidéo)
Végétaliser les villes ? Google veut cartographier les quartiers prioritaires
Les chasseurs d’ondes de l’ANFR à la recherche des fréquences suspectes (Vidéo)
Après le supersonique, United Airlines veut des avions à propulsion électrique
Elon Musk réserve chez Virgin Galatics quand Bezos dézingue son concurrent
Une IA appréhende les politiciens qui passent trop de temps sur leur smartphone durant les sessions au parlement
Les robots font-ils l’amour ? Votre chronique SF explore le futur de l’humanité
Ok, la voiture volante existe et elle vient de faire son premier vol
Haut de page