Reconnaissance faciale : un taux d'erreur de 81% pour le système de la police britannique

Alexandre Boero Contributeur
06 juillet 2019 à 09h00
0
IA Reconnaissance Faciale
(Crédits : Shutterstock)

Un rapport universitaire égratigne la technologie de reconnaissance faciale de la police métropolitaine anglaise, dont la vue est encore un peu floue.

Dans un rapport publié cette semaine par une poignée de médias britanniques, les chercheurs de l'Université d'Essex ont fait état de leurs résultats concernant la technologie de reconnaissance faciale de la police locale. Et ces derniers ne sont clairement pas reluisants, puisque dans 81 % des cas, soit quatre fois sur cinq, le système a signalé à la police des personnes innocentes, alors qu'il était censé rechercher des criminels.

Les chercheurs appellent Scotland Yard à cesser le programme


L'étude universitaire fait part de ses « préoccupations importantes » au sujet de la reconnaissance faciale et appelle Scotland Yard à cesser d'exploiter son programme, fonctionnel depuis août 2016 et installé à l'occasion du Carnaval de Notting Hill. Pour les chercheurs, l'utilisation de la technologie par la police pourrait être contestée par la justice. Depuis 2016, le Metropolitan Police Service (Met) a utilisé sa technologie de reconnaissance faciale à dix reprises.

Pour étoffer leur rapport, les chercheurs Pete Fussey et Daragh Murray ont évalué l'utilisation de l'IA sur six des dix manifestations durant lesquelles elle fut utilisée. Ils ont noté que sur les 42 correspondances étudiées, seules huit furent vérifiées, justifiant ainsi le monumental taux d'erreur de 81 %.

Outre les défauts techniques, le rapport pointe du doigt une question éthique : celle du consentement. La technologie ayant été utilisée lors de manifestations publiques, la police se devait d'en informer les participants. Si des panneaux ont bien été affichés, les chercheurs considèrent que le consentement significatif était très compliqué à obtenir.



Le Met contredit le rapport universitaire


De son côté, le Met se défend en indiquant établir des mesures différentes de celles du rapport. La police préfère se baser sur les chiffres totaux des visages traités, plutôt que sur le taux de réussite entre correspondances réussies et non réussies. Ainsi, la police britannique indique que sa technologie ne commet qu'une seule erreur pour 1 000 cas, soit un taux d'erreur de 0,1 %.

« Nous sommes extrêmement déçus du ton négatif et déséquilibré de ce rapport. Nous disposons d'un fondement juridique pour cette période test et nous avons suivi les conseils juridiques tout au long de celle-ci. Nous pensons que le public s'attend définitivement à ce que nous essayons des méthodes innovantes de lutte contre la criminalité afin de rendre Londres plus sûre », a réagi le Met par l'intermédiaire de son sous-commissaire, Duncan Ball.

Source : Sky News
6 réponses
0 utilisateurs
Suivre la discussion

Les actualités récentes les plus commentées

Linky : pour l'ANFR, les Equipements Radio des compteurs sont sans danger pour la santé
DeepNude : les copies de l'app aussi se font bannir de Github
Windows 10 bientôt libéré de tout mot de passe ? C'est l'objectif de Microsoft
La NASA détecte un trou noir très inhabituel qui vient contredire nos théories sur l’univers
Voiture autonome : PSA franchit une étape supplémentaire dans la conduite
La France va créer son commandement militaire de l'espace
Une
Contre-nature ou nécessité absolue ? Un ventirad pour Raspberry Pi fait son apparition
La taxe GAFA tout juste adoptée ne plait pas du tout à Trump
La Russie veut armer ses mini-drones de terrain... et ça ne fait pas vraiment rêver
scroll top