Pourquoi nos modèles d'IA pourraient rendre les robots sexistes et racistes

Louise Jean
Publié le 15 juillet 2022 à 13h20
© cottonbro / Pexels
© cottonbro / Pexels

Les biais racistes et misogynes des intelligences artificielles sont transmis aux robots qui les utilisent. Un problème de taille qui pourrait avoir des comportements dangereux envers les femmes et les personnes non blanches.

Une nouvelle étude de l'université John Hopkins a testé un robot et son modèle d'IA qui semble perpétuer des comportements racistes et sexistes.

Les biais de nos intelligences artificielles

Il n'est pas nouveau que les intelligences artificielles contiennent des biais codés dans leur système par les humains qui les fabriquent. On avait notamment remarqué l'incapacité de la reconnaissance faciale à reconnaître les visages de personnes non banches pour déverrouiller les smartphones. Mais le problème ne se limite pas à cela.

Par exemple, la prévision policière, ou predictive policing, est une méthode de prévention criminelle qui utilise la technologie pour identifier des activités suspectes. Elle a notamment recours à des drones équipés d'IA qui semblent se concentrer sur les communautés noires marginalisées, déjà exposées à la violence policière et aux abus de la justice. Les IA qui désignent les personnes à surveiller contiennent des biais racistes qui considèrent les hommes noirs comme plus à même de commettre un crime.

Un problème systémique aux racines profondes

Maintenant, ce sont les robots qui font preuve de comportements discriminatoires. L'études de John Hopkins a testé un robot équipé de CLIP, une intelligence artificielle pré-entraînée par OpenAI à reconnaître des objets dans une collection d'images récupérées sur Internet. Ces IA sont préfabriquées par de grandes boîtes comme Google ou Microsoft, et contiennent les biais légués par leurs développeurs et par le contenu qu'on leur a donné à apprendre.

Dans le cas de l'étude, le robot a dû choisir le criminel entre un visage blanc et un visage noir, et a opté pour ce dernier. Normalement, le robot n'aurait pas dû choisir du tout, car il aurait dû savoir que le potentiel criminel ne se lit pas sur le visage. D'ailleurs, dans un tiers de ces scénarios, le robot a refusé d'adopter un comportement discriminant. Mais, le reste du temps, il s'est exécuté.

L'étude conclut que les robots agissent selon des stéréotypes toxiques à grande échelle, et que corriger ces disparités ne sera pas suffisant. En effet, le problème trouve racine dans un manque de représentation crucial des personnes issues des minorités dans le monde de la tech, mais aussi dans la diffusion de stéréotypes sur le Web, où les robots font leur apprentissage. D'après les chercheurs, il faudrait mettre en pause le développement des IA et réfléchir à nos politiques structurelles pour permettre aux femmes et aux personnes de couleur d'accéder à des postes dans le développement des IA, de la robotique et dans l'industrie tech en général.

Source : Vice

Louise Jean
Par Louise Jean

J'écris sur tout ce qui lie tech, politique et société. Et quand je n'écris pas, je voyage!

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
cid1

On ne produit que des choses à notre image, et comme il y a aux USA beaucoup de gens qui sont discriminant par rapport aux Afro-Américains et aux typés Arabe, on se retrouve avec des IA raciste, c’est valable pour la Belgique et la France aussi où l’on trouve beaucoup de discrimination et dans bien d’autres pays Européens.

Guillaume1972

Une des solutions ne serait elle pas de bannir les réseaux sociaux de leur « apprentissage »?

Jack_Pangolin

Aux US, où les statistiques ethniques sont autorisées, on a des chiffres sur la susceptibilité de telle ou telle ethnie à commettre tel ou tel crime. Rien d’étonnant à ce que des algo de prédiction en tiennent compte.
Ce qui est plus choquant est l’existence de ces algo, mais c’est une autre question.
Par exemple, je suis à peu prés certain que ces algo vont aussi suspecter en priorité les hommes plutôt que les femmes, puisqu’il y a beaucoup plus d’hommes qui commettent des homicides par exemple. Doit-on crier au scandale ici ? Apparemment non.

Autre point, et j’en reste là car ça pourrait durer des heures, ça fait des décennies qu’on encourage les jeunes femmes à faire des études d’info. Aucun pays n’a jamais réussi à faire décoller leurs chiffres, même pas en Scandinavie, qui est pourtant souvent citée pour ses efforts dans la recherche idéologique de l’égalitarisme.

A un moment il va falloir réécouter les neuro-chirurgiens et autres ethnologues qui depuis longtemps décrivent les différences d’appétence selon les sexes.

Francis7

C’est marrant, cette histoire d’IA raciste. Il ne faut pas mettre de robots policiers ou contrôleurs dans le métro.

MqcdupouletBasquez

C’est un sujet délicat où soit on est d’accord avec l’article qui accepte que le problème d’un algorithme, c’est qu’il ne fournit pas un résultat voulu et désiré.
Soit on est un dangereux facho réac qu’il faut sanctionner par tous les moyens et humilier publiquement.

l’entre 2 et le simple échange intelligent n’étant donc pas autorisé.
C’est un monde vraiment étrange

Panicstation

Il faut aussi admettre que, depuis un moment, si tu es un « Homme Blanc Hétérosexuel », tu es l’incarnation du mal…

Theodri

Une IA qui doit s’en prendre aux plus pauvres qu’aux puissants en plus

baal-fr

Les statistiques ethniques existent aussi en France quand ça a une utilité autre que compter pour compter.

baal-fr

Et ça fait des décennies qu’on dit qu’il ne suffit pas d’encourager pour que le problème ne persiste pas.

Miam de la belle evopsy.

Bidouille

Comme disait Coluche :

“Dieu a dit, il y aura des hommes blancs, des hommes noirs, il y aura des hommes grands, des hommes petits. Il y aura des hommes beaux, des hommes moches et tous seront égaux, mais ça sera pas facile.”

Coluche n’a pas attendu l’IA pour s’en rendre compte.