🔴 French Days en direct 🔴 French Days en direct

Utilisée pour des portraits-robots, l'IA fait preuve de racisme

08 février 2023 à 14h20
15
© Shutterstock
© Shutterstock

L'idée de deux développeurs américains de confier la réalisation de portraits-robots à une intelligence artificielle ne plaît pas aux experts du domaine.

L'objectif de ces développeurs est de réduire considérablement le temps nécessaire à la réalisation d'un portrait-robot tout en proposant une version plus réussie et réaliste. Mais des experts en enquête scientifique et des observateurs de l'éthique de l'IA assurent de leur côté qu'une telle innovation peut aggraver les biais racistes ou fondés sur le genre déjà existants.

L'usage du portrait-robot déjà largement imprécis et critiquable

Des universitaires qui étudient la question ont déjà démontré que la mémoire humaine était largement défaillante lorsqu'il fallait décrire un visage détail par détail plutôt que de façon générale. La pratique du portrait-robot est donc une aide très peu fiable pour des enquêteurs de police, surtout que le résultat a tendance à remplacer le visage du véritable suspect dans la mémoire des témoins si ces derniers ne l'ont pas bien vu, ou pas pendant longtemps
.

La conséquence est logique, des innocents dont le visage ressemble de près ou de loin au portrait-robot sont ainsi arrêtés. Une enquête de l'ONG Innocence Project a ainsi révélé que 69 % des condamnations d'innocents étaient dues à des témoignages de témoins qui s'étaient trompés. Et surtout, un tel procédé a tendance à désigner de façon disproportionnée les personnes déjà marginalisées et à aller dans le sens des biais des témoins. Cela peut être un gros problème en ce qui concerne la police, a fortiori la police américaine.

Concrètement, le seul problème que règle réellement ce projet, c'est le temps nécessaire à la réalisation d'un tel portrait.

Évidemment que l'IA est raciste, elle copie les humains

Nombreux sont les inventeurs, pas uniquement dans le domaine de l'intelligence artificielle, qui pensent être neutres, ou au minimum qu'une machine dépourvue de sentiments ne peut être biaisée. C'est complètement faux. Sans remettre en cause la sincérité de ceux qui l'affirment, une nouvelle technologie souffre des mêmes biais que ses créateurs. Ici, le biais est de partir du principe que la police ne se trompe jamais, et qu'elle est toujours sincère et honnête. En effet, puisque l'IA est entraînée sur des bases de données de condamnés, elle reprend leurs résultats sans hésiter. Ces deux hypothèses ont pourtant été largement démontées, tant par des journalistes que par des chercheurs en statistiques.

Ce biais, appliqué à une machine soi-disant neutre, est particulièrement injuste pour les personnes noires et hispaniques, beaucoup plus souvent arrêtées et condamnées que le reste de la population (jusqu'à 5 fois plus que les personnes blanches). Pour une IA, qui n'est certes pas raciste de base, une telle différence statistique risque tout simplement de lui faire considérer qu'être non blanc est un facteur de risque en soi, transformant de fait la couleur de peau en argument pour désigner un coupable potentiel. Plusieurs exemples ont déjà démontré que ces risques étaient bien plus qu'une hypothèse, comme lorsqu'un homme afro-américain a été arrêté et enfermé pour un vol commis dans un État qu'il n'avait jamais visité. C'est la reconnaissance faciale « intelligente » qui l'avait désigné aux policiers.

Faites le test, et demandez à DALL-E une photo d'un P.-D.G., et une autre d'un braqueur de banque ou d'un dealer de drogue. La neutralité de l'intelligence artificielle, si elle a un jour existé, a vécu.

Sources : Vice, Innocence Project

Vincent Mannessier

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et...

Lire d'autres articles

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et des GAFAM, mais les jeux vidéos et l'innovation numérique en général me passionnent aussi.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (15)

trollkien
« On est pas sortis des ronces… »<br /> #Kaamelott
Nmut
Le problème n’est pas là!<br /> Le problème c’est qu’à la base, l’IA va éliminer ou proposer des cas qui ne devraient pas l’être. Il faut considérer les taux de faux positifs et de faux négatifs. L’IA, aura moins de probabilité de te désigner un blanc qu’un noir tout deux innocents (faux positif) ou éliminer un blanc plus qu’un noir tout deux coupables (faux négatif), c’est là le biais et il est VRAIMENT grave. Il ne FAUT aucune dérive de faux positifs / faux négatifs suivant des catégories, quelqu’elle soit.<br /> Je sais que ce n’est pas évident au premier abord, le « bon sens » est à la ramasse sur ce coup là. Cela fait partie des gros problèmes des IA, la sélection des données d’entrainement est une tannée! Ce ne sont pas forcément des biais des concepteurs, mais des données disponibles, surtout que ce n’est souvent pas aussi évident que pour le cas des criminels hommes non blancs…
juju251
Bon :<br /> Visiblement certains n’ont pas lu l’article et d’autres en profite pour balancer des commentaires racistes.<br /> Les propos ou sous entendus racistes n’ont pas leur place ici.
lepef32
« Mal nommer les choses, c’est ajouter au malheur de ce monde », Camus 1944.
Pronimo
Sauf si intervention humaine fournissant a l’IA des données faussés / biaisés, l’IA n’a pas vraiment d’intelligence hormis le brassage de données!
kroman
Mais est elle plus ou moins raciste que la police américaine ?
Blackalf
@gemini7 on a déjà un obsédé d’Israël sur Clubic, pas besoin d’un second.
SPH
Ho le massacre !<br /> A chaque fois, on a les mêmes discours. Et on a viré mon commentaire. Je me demande pourquoi !
Blackalf
Ce n’est pas moi qui l’ait fait, mais peu importe, c’est parce qu’il était une réponse à un message supprimé.
juju251
SPH:<br /> Ho le massacre !<br /> A chaque fois, on a les mêmes discours. Et on a viré mon commentaire. Je me demande pourquoi ! <br /> Parce que ton commentaire est ignoble et n’a RIEN à faire là. RIEN.
bennukem
Une IA fonctionne en terme de probabilité et donne une résultat selon le plus probable. De 0 à 1 (0 à 100%). A ma connaissance l’IA n’atteint jamais les 100%.<br /> Les faux positifs, tout le monde en fait. Je pense que l’histoire est pleine de mecs condamnés à mort par erreur basée sur un jugement « éthique » car rendu par des hommes ?<br /> Ce qu’il faudrait savoir, est ce que l’IA fait mieux ou pire que l’homme et non pas occulter ses réponses car elles ne sont pas politiquement correct.<br /> Statiquement, les prisons sont remplies par qu’elles profiles ? Normal que l’IA essaye de se baser dessus.
StephaneGotcha
« Ce biais, appliqué à une machine soi-disant neutre, est particulièrement injuste pour les personnes noires et hispaniques, beaucoup plus souvent arrêtées et condamnées que le reste de la population (jusqu’à 5 fois plus que les personnes blanches) »<br /> Si l’IA est raciste alors cette phrase du dessus est raciste. Et plus globalement, les statistiques sont racistes.<br /> PS: Je me demande si je vais être ban pour avoir fait un copier-coller de l’article …
Than
Ahah, littéralement, je vais copier/coller mon dernier commentaire sur un autre article parlant d’IA ! x)<br /> "<br /> On peut arrêter de personnaliser les IA ?<br /> Ce n’est pas l’IA qui dérape, ce sont ses algo’, et/ou les gens qui les ont codées, et/ou le corpus de données sur lequel l’IA se base pour réaliser son apprentissage.<br /> A trop personnifier une technologie (le fantasme absolu du Terminator… ce film fait du mal à ces technologies depuis si longtemps), on s’empêche d’en comprendre le fonctionnement.<br /> "<br /> Ici, c’est plutôt le corpus de données qui donnent ces mauvais résultats.<br /> Après, en tant qu’humains, on les qualifie de racistes (ils le sont, les résultats). Mais l’IA, foutez-lui la paix. Elle fait ce qu’on lui demande de faire avec les bases utilisées pour son apprentissage… Elle n’a pas d’état d’âme, ou d’idéologie en son nom. Elle donne en résultat ce qu’on lui a donné à manger pour apprendre.<br /> De là, malheureusement, pas de surprise.<br /> Pour faire un trait d’humour sarcastique, elle accélère les mauvais résultats… !<br /> Reste plus qu’à accélérer aussi la correction de ces mauvais résultats… Avec une autre IA ?
gemini7
Than:<br /> Reste plus qu’à accélérer aussi la correction de ces mauvais résultats… Avec une autre IA ? <br /> Une IA vraiment intelligente, de préférence…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet