Reconnaissance faciale : un taux d'erreur de 81% pour le système de la police britannique

Alexandre Boero
Chargé de l'actualité de Clubic
06 juillet 2019 à 09h00
6
IA Reconnaissance Faciale
(Crédits : Shutterstock)

Un rapport universitaire égratigne la technologie de reconnaissance faciale de la police métropolitaine anglaise, dont la vue est encore un peu floue.

Dans un rapport publié cette semaine par une poignée de médias britanniques, les chercheurs de l'Université d'Essex ont fait état de leurs résultats concernant la technologie de reconnaissance faciale de la police locale. Et ces derniers ne sont clairement pas reluisants, puisque dans 81 % des cas, soit quatre fois sur cinq, le système a signalé à la police des personnes innocentes, alors qu'il était censé rechercher des criminels.

Les chercheurs appellent Scotland Yard à cesser le programme

L'étude universitaire fait part de ses « préoccupations importantes » au sujet de la reconnaissance faciale et appelle Scotland Yard à cesser d'exploiter son programme, fonctionnel depuis août 2016 et installé à l'occasion du Carnaval de Notting Hill. Pour les chercheurs, l'utilisation de la technologie par la police pourrait être contestée par la justice. Depuis 2016, le Metropolitan Police Service (Met) a utilisé sa technologie de reconnaissance faciale à dix reprises.

Pour étoffer leur rapport, les chercheurs Pete Fussey et Daragh Murray ont évalué l'utilisation de l'IA sur six des dix manifestations durant lesquelles elle fut utilisée. Ils ont noté que sur les 42 correspondances étudiées, seules huit furent vérifiées, justifiant ainsi le monumental taux d'erreur de 81 %.

Outre les défauts techniques, le rapport pointe du doigt une question éthique : celle du consentement. La technologie ayant été utilisée lors de manifestations publiques, la police se devait d'en informer les participants. Si des panneaux ont bien été affichés, les chercheurs considèrent que le consentement significatif était très compliqué à obtenir.



Le Met contredit le rapport universitaire

De son côté, le Met se défend en indiquant établir des mesures différentes de celles du rapport. La police préfère se baser sur les chiffres totaux des visages traités, plutôt que sur le taux de réussite entre correspondances réussies et non réussies. Ainsi, la police britannique indique que sa technologie ne commet qu'une seule erreur pour 1 000 cas, soit un taux d'erreur de 0,1 %.

« Nous sommes extrêmement déçus du ton négatif et déséquilibré de ce rapport. Nous disposons d'un fondement juridique pour cette période test et nous avons suivi les conseils juridiques tout au long de celle-ci. Nous pensons que le public s'attend définitivement à ce que nous essayons des méthodes innovantes de lutte contre la criminalité afin de rendre Londres plus sûre », a réagi le Met par l'intermédiaire de son sous-commissaire, Duncan Ball.

Source : Sky News
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (6)

Niverolle
Donc si je comprend bien cette technologie est fiable tant que l’on ne lui demande rien ? Quelque part, c’est assez cohérent…
Feunoir
ils s’améliorent avec le temps, 100% d’erreurs au départ, 96% d’erreurs et là 81%, va encore falloir y travailler pas contre <br /> Après je me dis qu’il doit y avoir confirmation visuelle humaine avant verif sur le terrain et que ceux qui vérifient doivent aussi se planter s’ils vont jusqu’à demander les papiers de ces personnes, et donc que cela fait aussi bien qu’un humain (mais ca manque d’info sur la méthode employée donc je vais peut être un peu vite)<br /> (commentaire sur la technique et non sur l’aspect surveillance/liberté de ce système)
Nmut
Le seul vrai problème, c’est effectivement le consentement “tacite” un peu limite.<br /> Pour le taux d’erreur, je n’ai pas lu le rapport mais si l’article ne déforme pas, les scientifiques sont un biaisés à la Facebook: ils donnent une information sensationnelle . Le 81% d’“erreurs” sont des faux positifs (personnes identifiées alors que ce n’est pas la bonne) alors que le système est conçu pour éviter les faux négatifs (personne non identifiée alors qu’il le faudrait), seul chose importante bien sur, l’identification finale formelle étant effectuée par des humains.
Niverolle
Il faut effectivement faire la distinction, mais les faux positifs ont forcement des conséquences (à minima, ils génèrent une perte de temps).
Nmut
Je n’ai pas dit qu’il ne fallait pas les minimiser (même si il est déjà correct je trouve avec 0.1% de faux négatifs) mais que le critère principal est le pré-tri pour automatiser une partie du travail.
Niverolle
“avec 0.1% de faux négatifs” ==&gt; probablement moins (enfin je le comprends comme toutes erreurs confondues).
Voir tous les messages sur le forum