La reconnaissance faciale coupable de biais racistes ?

0
C'est en tout cas la conclusion d'une étude menée par une chercheuse du prestigieux MIT de Boston. La plupart des logiciels du marché identifient beaucoup plus facilement les visages d'hommes à la peau blanche que ceux de personnes de couleur noire.

Les IA rencontrent aussi des difficultés à reconnaître les visages de femmes. La faute aux bases de données de photos exploitées pour éduquer les programmes.

1.270 photos pour tester les IA

Une créature peut-elle échapper aux faiblesses de son créateur ? Vaste question, qui se pose lorsque l'on étudie les performances des principaux logiciels de reconnaissance faciale actuellement sur le marché. Une chercheuse du Massachussetts Institute of Technology à Boston, Joy Buolamwini, a poussé dans leurs retranchements les programmes d'IA de trois sociétés : IBM, Microsoft, et Face ++.

Les résultats sont édifiants : en présentant 1.270 portraits officiels de personnalités politiques du monde entier aux trois programmes, elle est arrivée à la conclusion qu'ils étaient en grande difficulté quand il s'agit d'identifier le visage d'une personne de couleur noire, mais aussi à reconnaître des femmes.

Emotient reconnaissance faciale Apple


Des noirs pris pour des gorilles

En apparence, les trois IA obtiennent des résultats satisfaisants : celle de Microsoft parvient à 93,7% à reconnaître le genre des personnes dont on lui présente la photo. Face ++ obtient 90% au même exercice, et IBM 87,9%. Mais dans le détail, les écarts selon la couleur de peau sont énormes : la moyenne de réussite des trois IA pour les blancs atteint au moins 95%, mais tombe à seulement 77,6% chez IBM pour les noirs.

Chez Face ++, la faiblesse est du côté des femmes, avec un taux de reconnaissance de seulement 78,7%. La faute, estime Joy Buolamwini aux bases de données d'images avec lesquelles les trois programmes sont entraînés : elle constate que « les hommes à la peau claire y sont surreprésentés, et aussi les personnes à la peau claire de manière générale », regrette-t-elle. Le problème n'est pas nouveau. Déjà en 2015, Google avait dû corriger en urgence Google Photos, qui confondait par moment des personnes noires avec des gorilles...

Modifié le 01/06/2018 à 15h36
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités du moment

Mystère chez Amazon : mais qui envoie des sextoys à des inconnus ?
Le successeur du LG G6 s’appellera Judy
GTA Online : un bonus de 250 000 dollars offert aux joueurs
Google développe une IA capable de rédiger des articles de Wikipedia
Pirater à distance un ordinateur placé dans une cage Faraday est désormais possible
Sur Tinder, bientôt les femmes d’abord
Camsoda relie la webcameuse et votre sexdoll en Réalité Virtuelle
En Russie, des scientifiques minaient des bitcoins sur des installations nucléaires militaires
Avec Hot Wheels, jouez à Rocket League... en vrai (ou presque) !
Au MIT, on apprend aux drones à contourner les obstacles
Haut de page