Reconnaissance faciale : un taux d'erreur de 81% pour le système de la police britannique

06 juillet 2019 à 09h00
0
IA Reconnaissance Faciale
(Crédits : Shutterstock)

Un rapport universitaire égratigne la technologie de reconnaissance faciale de la police métropolitaine anglaise, dont la vue est encore un peu floue.

Dans un rapport publié cette semaine par une poignée de médias britanniques, les chercheurs de l'Université d'Essex ont fait état de leurs résultats concernant la technologie de reconnaissance faciale de la police locale. Et ces derniers ne sont clairement pas reluisants, puisque dans 81 % des cas, soit quatre fois sur cinq, le système a signalé à la police des personnes innocentes, alors qu'il était censé rechercher des criminels.

Les chercheurs appellent Scotland Yard à cesser le programme

L'étude universitaire fait part de ses « préoccupations importantes » au sujet de la reconnaissance faciale et appelle Scotland Yard à cesser d'exploiter son programme, fonctionnel depuis août 2016 et installé à l'occasion du Carnaval de Notting Hill. Pour les chercheurs, l'utilisation de la technologie par la police pourrait être contestée par la justice. Depuis 2016, le Metropolitan Police Service (Met) a utilisé sa technologie de reconnaissance faciale à dix reprises.

Pour étoffer leur rapport, les chercheurs Pete Fussey et Daragh Murray ont évalué l'utilisation de l'IA sur six des dix manifestations durant lesquelles elle fut utilisée. Ils ont noté que sur les 42 correspondances étudiées, seules huit furent vérifiées, justifiant ainsi le monumental taux d'erreur de 81 %.

Outre les défauts techniques, le rapport pointe du doigt une question éthique : celle du consentement. La technologie ayant été utilisée lors de manifestations publiques, la police se devait d'en informer les participants. Si des panneaux ont bien été affichés, les chercheurs considèrent que le consentement significatif était très compliqué à obtenir.



Le Met contredit le rapport universitaire

De son côté, le Met se défend en indiquant établir des mesures différentes de celles du rapport. La police préfère se baser sur les chiffres totaux des visages traités, plutôt que sur le taux de réussite entre correspondances réussies et non réussies. Ainsi, la police britannique indique que sa technologie ne commet qu'une seule erreur pour 1 000 cas, soit un taux d'erreur de 0,1 %.

« Nous sommes extrêmement déçus du ton négatif et déséquilibré de ce rapport. Nous disposons d'un fondement juridique pour cette période test et nous avons suivi les conseils juridiques tout au long de celle-ci. Nous pensons que le public s'attend définitivement à ce que nous essayons des méthodes innovantes de lutte contre la criminalité afin de rendre Londres plus sûre », a réagi le Met par l'intermédiaire de son sous-commissaire, Duncan Ball.

Source : Sky News
6
0
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

Twitter signale le billet de Trump menaçant de tirer sur les émeutiers
Microsoft bloque la mise à jour de Windows 10 (mai 2020) sur de nombreux appareils
Trump signe un décret sur les réseaux sociaux, mais que contient-il ?
Le plus gros avion électrique de la planète a réussi son premier vol
Microsoft licencie des dizaines de journalistes, remplacés par des robots
Davantage d'animaux sauvages : la solution pour réconcilier éleveurs et loups ?
5G : le Royaume-Uni veut une alliance de 10 pays pour contrer les équipementiers chinois comme Huawei
Le vaisseau Starship de SpaceX est homologué par la FAA
Sony reporte son événement dédié à la PS5 et soutient le mouvement de contestation en cours aux USA
Les employés de Facebook s'insurgent contre le refus de Zuckerberg de censurer les posts de Donald Trump
scroll top