Des experts en IA condamnent fermement un logiciel censé prévenir les crimes

24 juin 2020 à 12h34
0

Ils sont plus de 1 000 chercheurs, experts et académiciens à s’inquiéter de la publication d’une étude sur un système de reconnaissance faciale capable de prédire si une personne va commettre un crime. Ils lui reprochent notamment des biais racistes à cause de méthodes d’apprentissage douteuses. 

La recherche est censée figurer dans une prochaine série de livres de la société d’édition Springer, éditeur de la revue scientifique Nature

Un outil censé prédire un crime grâce à une simple photo d’un visage

Dans un communiqué de presse, les auteurs affirment avoir développé un logiciel de reconnaissance faciale capable de « prédire si quelqu’un est un criminel en se basant uniquement sur une photo de son visage », et capable d'assister et d'aider les forces de l'ordre dans leur travail. Toujours selon le communiqué, le système a « une précision de 80 % sans aucun préjugé racial » et n’est pas « affecté par des préjugés implicites et des réactions émotionnelles ». 

Or, les signataires d’une lettre parue sur Medium, dont certains travaillent chez Google, Facebook ou encore Microsoft, dénoncent la parution prochaine de l’étude et appellent toutes les maisons d’édition à ne pas la publier. D’après eux, certaines intelligences artificielles, notamment celles basées sur le machine learning (comme c’est le cas ici), ne sont pas impartiales : 

« Les recherches de cette nature - et les prétentions à l'exactitude qui les accompagnent - reposent sur l'hypothèse que les données relatives aux arrestations et aux condamnations pénales peuvent servir d'indicateurs fiables et neutres de l'activité criminelle sous-jacente. Pourtant, ces données sont loin d'être neutres. Comme l'ont démontré de nombreux chercheurs, les données historiques relatives aux tribunaux et aux arrestations reflètent les politiques et les pratiques du système de justice pénale. Ces données reflètent qui la police choisit d'arrêter, comment les juges appliquent les peines et quelles personnes se voient accorder des peines plus longues ou plus clémentes ». 

Or, il est désormais avéré, notamment aux États-Unis, que les personnes de couleur sont traitées beaucoup plus durement que les autres par le système judiciaire. Un tel outil viendrait alors fragiliser davantage des communautés déjà mises à mal, en les ciblant plus encore. 

La reconnaissance faciale hérite des croyances culturelles

Vivement critiqués et controversés depuis des années, les systèmes de reconnaissance faciale ont fait preuve à plusieurs reprises de biais racistes. Dans leur lettre, les experts déclarent que « les programmes de recherche et les ensembles de données exploités par ces outils héritent souvent des croyances culturelles dominantes dans le monde ». 

D’ailleurs, IBM a récemment décidé d’abandonner le marché de la reconnaissance faciale pour raisons éthiques. L’entreprise, qui avait pourtant tenté de combattre les travers de cette technologie, a finalement baissé les bras. 

Source : TechCrunch

Modifié le 24/06/2020 à 12h34
43
23
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

La capitalisation boursière d'Apple dépasse celle de toutes les entreprises du CAC40 réunies
Découvrez la 2CV R-Fit 100% électrique, conçue en rétrofit
Une usine de production de cellule de batteries pour véhicules électriques bientôt en France ?
La Lucid Air surpasse la Tesla Model S avec une autonomie annoncée supérieure à 800 km
Des experts en sécurité inquiets à l'approche de la présentation du premier prototype Neuralink d'Elon Musk
Le processeur Kunpeng 920 d'Huawei rattraperait le Core i9-9900K d'Intel
Horizon Zero Dawn : le portage PC critiqué pour ses nombreux bugs
Xiaomi Mi 10 Ultra : une édition anniversaire qui veut
Delage dévoile un hypercar hybride à 2,3 millions de dollars
Elon Musk envisage la construction d'un Cybertruck plus petit pour l'Europe
scroll top