Reconnaissance faciale : un taux d'erreur de 81% pour le système de la police britannique

06 juillet 2019 à 09h00
6
IA Reconnaissance Faciale
(Crédits : Shutterstock)

Un rapport universitaire égratigne la technologie de reconnaissance faciale de la police métropolitaine anglaise, dont la vue est encore un peu floue.

Dans un rapport publié cette semaine par une poignée de médias britanniques, les chercheurs de l'Université d'Essex ont fait état de leurs résultats concernant la technologie de reconnaissance faciale de la police locale. Et ces derniers ne sont clairement pas reluisants, puisque dans 81 % des cas, soit quatre fois sur cinq, le système a signalé à la police des personnes innocentes, alors qu'il était censé rechercher des criminels.

Les chercheurs appellent Scotland Yard à cesser le programme

L'étude universitaire fait part de ses « préoccupations importantes » au sujet de la reconnaissance faciale et appelle Scotland Yard à cesser d'exploiter son programme, fonctionnel depuis août 2016 et installé à l'occasion du Carnaval de Notting Hill. Pour les chercheurs, l'utilisation de la technologie par la police pourrait être contestée par la justice. Depuis 2016, le Metropolitan Police Service (Met) a utilisé sa technologie de reconnaissance faciale à dix reprises.

Pour étoffer leur rapport, les chercheurs Pete Fussey et Daragh Murray ont évalué l'utilisation de l'IA sur six des dix manifestations durant lesquelles elle fut utilisée. Ils ont noté que sur les 42 correspondances étudiées, seules huit furent vérifiées, justifiant ainsi le monumental taux d'erreur de 81 %.

Outre les défauts techniques, le rapport pointe du doigt une question éthique : celle du consentement. La technologie ayant été utilisée lors de manifestations publiques, la police se devait d'en informer les participants. Si des panneaux ont bien été affichés, les chercheurs considèrent que le consentement significatif était très compliqué à obtenir.



Le Met contredit le rapport universitaire

De son côté, le Met se défend en indiquant établir des mesures différentes de celles du rapport. La police préfère se baser sur les chiffres totaux des visages traités, plutôt que sur le taux de réussite entre correspondances réussies et non réussies. Ainsi, la police britannique indique que sa technologie ne commet qu'une seule erreur pour 1 000 cas, soit un taux d'erreur de 0,1 %.

« Nous sommes extrêmement déçus du ton négatif et déséquilibré de ce rapport. Nous disposons d'un fondement juridique pour cette période test et nous avons suivi les conseils juridiques tout au long de celle-ci. Nous pensons que le public s'attend définitivement à ce que nous essayons des méthodes innovantes de lutte contre la criminalité afin de rendre Londres plus sûre », a réagi le Met par l'intermédiaire de son sous-commissaire, Duncan Ball.

Source : Sky News
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
6
0
Niverolle
Donc si je comprend bien cette technologie est fiable tant que l’on ne lui demande rien ? Quelque part, c’est assez cohérent…
Feunoir
ils s’améliorent avec le temps, 100% d’erreurs au départ, 96% d’erreurs et là 81%, va encore falloir y travailler pas contre <br /> Après je me dis qu’il doit y avoir confirmation visuelle humaine avant verif sur le terrain et que ceux qui vérifient doivent aussi se planter s’ils vont jusqu’à demander les papiers de ces personnes, et donc que cela fait aussi bien qu’un humain (mais ca manque d’info sur la méthode employée donc je vais peut être un peu vite)<br /> (commentaire sur la technique et non sur l’aspect surveillance/liberté de ce système)
Nmut
Le seul vrai problème, c’est effectivement le consentement “tacite” un peu limite.<br /> Pour le taux d’erreur, je n’ai pas lu le rapport mais si l’article ne déforme pas, les scientifiques sont un biaisés à la Facebook: ils donnent une information sensationnelle . Le 81% d’“erreurs” sont des faux positifs (personnes identifiées alors que ce n’est pas la bonne) alors que le système est conçu pour éviter les faux négatifs (personne non identifiée alors qu’il le faudrait), seul chose importante bien sur, l’identification finale formelle étant effectuée par des humains.
Niverolle
Il faut effectivement faire la distinction, mais les faux positifs ont forcement des conséquences (à minima, ils génèrent une perte de temps).
Nmut
Je n’ai pas dit qu’il ne fallait pas les minimiser (même si il est déjà correct je trouve avec 0.1% de faux négatifs) mais que le critère principal est le pré-tri pour automatiser une partie du travail.
Niverolle
“avec 0.1% de faux négatifs” ==&gt; probablement moins (enfin je le comprends comme toutes erreurs confondues).
Voir tous les messages sur le forum

Derniers actualités

Économisez pas moins de 400€ sur le PC portable HP Envy 17,3
Avec ce coupon, votre nouveau casque gaming HyperX Cloud est à prix cassé !
Un mystérieux wafer Raptor Lake 34 cœurs aperçu au cours de l'Intel Innovation
Profitez d'un abonnement à prix mini avec cette offre sur la Freebox mini 4K
Malgré les polémiques, le Bitcoin a toutes les peines du monde à passer à l'énergie verte
Avec cette ODR, le Smart Monitor M7 de Samsung est 50€ moins cher !
Chute de prix sur ce pack contenant un Echo Show 8 et une ampoule Philps Hue
Apple envisage de prélever un (trop) gros pourcentage sur les NFT
Fake news et réseaux sociaux s'invitent encore dans les élections brésiliennes
Intel annonce le Core i9-13900KS pour début 2023 : un processeur à 6 GHz !
Haut de page