Des experts en IA condamnent fermement un logiciel censé prévenir les crimes

24 juin 2020 à 12h34
43

Ils sont plus de 1 000 chercheurs, experts et académiciens à s’inquiéter de la publication d’une étude sur un système de reconnaissance faciale capable de prédire si une personne va commettre un crime. Ils lui reprochent notamment des biais racistes à cause de méthodes d’apprentissage douteuses. 

La recherche est censée figurer dans une prochaine série de livres de la société d’édition Springer, éditeur de la revue scientifique Nature

Un outil censé prédire un crime grâce à une simple photo d’un visage

Dans un communiqué de presse , les auteurs affirment avoir développé un logiciel de reconnaissance faciale capable de « prédire si quelqu’un est un criminel en se basant uniquement sur une photo de son visage », et capable d'assister et d'aider les forces de l'ordre dans leur travail. Toujours selon le communiqué, le système a « une précision de 80 % sans aucun préjugé racial » et n’est pas « affecté par des préjugés implicites et des réactions émotionnelles ». 

Or, les signataires d’une lettre parue sur Medium , dont certains travaillent chez Google, Facebook ou encore Microsoft, dénoncent la parution prochaine de l’étude et appellent toutes les maisons d’édition à ne pas la publier. D’après eux, certaines intelligences artificielles, notamment celles basées sur le machine learning (comme c’est le cas ici), ne sont pas impartiales : 

« Les recherches de cette nature - et les prétentions à l'exactitude qui les accompagnent - reposent sur l'hypothèse que les données relatives aux arrestations et aux condamnations pénales peuvent servir d'indicateurs fiables et neutres de l'activité criminelle sous-jacente. Pourtant, ces données sont loin d'être neutres. Comme l'ont démontré de nombreux chercheurs, les données historiques relatives aux tribunaux et aux arrestations reflètent les politiques et les pratiques du système de justice pénale. Ces données reflètent qui la police choisit d'arrêter, comment les juges appliquent les peines et quelles personnes se voient accorder des peines plus longues ou plus clémentes ». 

Or, il est désormais avéré, notamment aux États-Unis, que les personnes de couleur sont traitées beaucoup plus durement que les autres par le système judiciaire. Un tel outil viendrait alors fragiliser davantage des communautés déjà mises à mal, en les ciblant plus encore. 

La reconnaissance faciale hérite des croyances culturelles

Vivement critiqués et controversés depuis des années, les systèmes de reconnaissance faciale ont fait preuve à plusieurs reprises de biais racistes. Dans leur lettre, les experts déclarent que « les programmes de recherche et les ensembles de données exploités par ces outils héritent souvent des croyances culturelles dominantes dans le monde ». 

D’ailleurs, IBM a récemment décidé d’abandonner le marché de la reconnaissance faciale pour raisons éthiques. L’entreprise, qui avait pourtant tenté de combattre les travers de cette technologie, a finalement baissé les bras. 

Source : TechCrunch

Modifié le 24/06/2020 à 12h34
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
43
23
Voir tous les messages sur le forum

Actualités du moment

Avec iOS 14, l'iPhone va écouter notre environnement, pour notre sécurité
Attention, 47 applications Android abritent un cheval de Troie
Tesla Battery Day : Elon Musk évoque une nouvelle date fixée à septembre
Deezer domine le marché français du streaming musical sur un an, Spotify roi du monde
Microsoft veut des déploiements de pilotes plus stables (et a un plan pour ça)
Apex Legends arrivera sur smartphones (iOS et Android) cette année
Forfait Cdiscount Mobile 200 Go à 9,99€/mois pendant 1 an
Windows 10 : le client de messagerie Courrier a des problèmes avec Gmail
Le super-ordinateur le plus puissant du monde est japonais et mû par ARM
Bloodstained: Curse of the Moon 2, un nouveau Castlevania 2D
Haut de page