🔴 French Days en direct 🔴 French Days en direct

Aux USA, la communauté noire reste la première victime des erreurs de la reconnaissance faciale

08 août 2023 à 08h00
11
© Shutterstock
© Shutterstock

Toutes les arrestations par erreur dues à la reconnaissance faciale par la police américaine concernent des personnes noires.

Si la perspective de l'utilisation de la reconnaissance faciale par la police peut déjà paraître dystopique en elle-même, cette dernière est de plus tout sauf infaillible. Et les statistiques ne laissent pas vraiment de place à l'interprétation : en matière d'erreurs de police dues à la reconnaissance faciale, les victimes sont toujours noires.

La reconnaissance faciale utilisée quotidiennement dans plusieurs villes du pays

En février dernier, Porcha Woodruff, une femme noire vivant à Detroit, est en train de préparer ses enfants pour les emmener à l'école quand six policiers se présentent chez elle, l'accusant d'un vol de voiture. Finalement relâchée, elle a décidé de porter plainte, devenant la sixième personne (au moins) à avoir été accusée à tort, uniquement sur la base des conclusions de la technologie de reconnaissance faciale utilisée par la police pour procéder à son arrestation. Comme elle, les cinq autres personnes ayant été victimes de ce type d'erreurs étaient toutes noires.

Contacté, le chef de la police de Detroit a reconnu que le problème était très grave, et que son département conduirait une enquête interne. Le simple fait que la technologie soit utilisée pose question, pas seulement sur un plan philosophique, mais du seul point de vue de l'efficacité. Car en 2020, ce même chef de police avait reconnu que la reconnaissance faciale, quand utilisée seule, se trompait 96 % du temps. Ce qui n'a pas empêché la police de Detroit d'utiliser la technologie à 125 reprises en 2022. Mais dans le domaine, c'est celle de Baltimore qui fait la course en tête, avec pas moins de 800 recherches utilisant la reconnaissance faciale cette même année.

pixinoo / Shutterstock
pixinoo / Shutterstock

Pour les activistes et les experts, c'est tout sauf une surprise

Mais pour des associations de défense des libertés publiques, tout comme pour des chercheurs en IA, ce type de dérive est tout sauf une surprise, et ils alertent sur la question depuis des années déjà. Pour eux, si la technologie n'est pas raciste en elle-même, elle est en revanche développée par des ingénieurs majoritairement blancs, et donc construite avec les mêmes biais que ces derniers. Cela se manifeste notamment par la quasi-absence de personnes noires dans les bases de données utilisées pour entraîner les intelligences artificielles, augmentant significativement le risque d'erreur quand elles sont l'objet de la recherche utilisant ces technologies.

Mais pour ces chercheurs, la perception de ces technologies comme utiles par les policiers, qui s'ajoute à leurs propres biais racistes, amplifie encore d'autant un système profondément injuste qui rend toute contestation par les victimes de ces erreurs presque impossible.

Rappelons que la reconnaissance faciale sera utilisée au cours des Jeux olympiques de Paris et au moins jusqu'en 2025 en France.

Source : Insider, Wired

Vincent Mannessier

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et...

Lire d'autres articles

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et des GAFAM, mais les jeux vidéos et l'innovation numérique en général me passionnent aussi.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (11)

Kergariou
Non, cela n’a rien à voir avec la couleur des développeurs. A vous lire, cela viendrait du fait que les développeurs ne veulent utiliser que des photos de blancs pour leurs tests.<br /> Le problème est connu depuis des années, renseignez-vous.<br /> telecom-paris.fr<br /> Pourquoi les algorithmes de reconnaissance faciale ne peuvent pas être...<br /> Certains algorithmes de reconnaissance faciale sont moins précis pour les visages noirs que pour les blancs. Mais pourquoi est-ce le cas et que peut-on faire contre cela ?<br />
TotO
Pendant un instant, titre compris, on se serait cru sur 20 minutes…<br /> Le fait est que l’IA se trompe d’une personne noire à une autre. Que doit-on conclure ? L’IA est raciste ? Les personnes recherchées sont noires ?<br /> Un visage sombre révèle moins de détails et peut entrainer plus d’erreurs.
Kergariou
Exact, le contrast entre aussi en compte dans cet algorithme.
paulposition
@bennukem , @Doomy , et @dredd : Messages supprimés; Encore un message de ce genre, et vous gagnez des vacances.
bennukem
J’ai pas compris la raison. Genre j’ai dit un truc raciste ? Il me semblait que d’après l’article c’était plutôt l’IA.
dredd
Euh…, tu sembles penser que c’était un message à caractère raciste alors que c’est l’inverse.<br /> Je remet en cause le BIAIS qui fait que fatalement on arrive à ce genre de raté de l’IA.Je disais que c’était conforme à ce qui était «&nbsp;attendu&nbsp;» vu comment le modèle est à la fois biaisé par ceux qui le crée et comme la problématique de la reconnaissance peaux sombres qui doit faire l’objet d’une recherche particulière avant d’être validée n’est pas prise en compte. Après le «&nbsp;désiré&nbsp;», j’avoue que je fais peut-être un peu un procès d’intention à la classe dirrigeante majoritaire et blanche étatsunienne. Mais franchement, on peut avoir le doute…
Stellvia
Je ne sais pas ce qu’ils ont dit pour que leurs messages soient supprimés car je n’ai pas eu le temps de les lire, mais j’ai remarqué que les modos ici ont l’habitude de supprimer tout messages qui ne va pas dans le sens de vos convictions c’est à dire qu’ils faut être surtout anti musk, et surtout pro woke peu importe le sujet même dans l’extrême.<br /> ici c’est flagrant que l’auteur n’a pas compris c’est un problème d 'algo qui n’a rien a voir avec le racisme. Je vous rappel que les ordinateur sont binairess, c’est des 0 et des 1, et ca vous ne pouvez rien y faire malgré vos convictions.<br /> Quel est le rapport avec la «&nbsp;couleur&nbsp;» de peau des developeurs ? Je suis dev moi même, et en plus je suis blanc j’ai tous les défaut manifestement, du coup je suis raciste ?! Non mais sérieusement ca va trop loin là.<br /> Pas besoin de me bannir aussi, je me casse de ce site vous avez raison ca me fera des vacances.
juju251
Stellvia:<br /> Je ne sais pas ce qu’ils ont dit pour que leurs messages soient supprimés car je n’ai pas eu le temps de les lire,<br /> Donc, pourquoi venir râler ?<br /> Stellvia:<br /> ici c’est flagrant que l’auteur n’a pas compris c’est un problème d 'algo qui n’a rien a voir avec le racisme.<br /> Détends toi.<br /> Tu as lu cette partie ?<br /> Pour eux, si la technologie n’est pas raciste en elle-même, elle est en revanche développée par des ingénieurs majoritairement blancs, et donc construite avec les mêmes biais que ces derniers. Cela se manifeste notamment par la quasi-absence de personnes noires dans les bases de données utilisées pour entraîner les intelligences artificielles, augmentant significativement le risque d’erreur quand elles sont l’objet de la recherche utilisant ces technologies.<br /> C’est tout.<br /> Stellvia:<br /> Je vous rappel que les ordinateur sont binairess, c’est des 0 et des 1, et ca vous ne pouvez rien y faire malgré vos convictions.<br /> Bah, ouais, mais si le base de données d’entrainement contient très peu de visages de personnes noires (par rapport au nombre de personnes blanches, alors l’algo sera moins performants sur ces visages.<br /> Stellvia:<br /> Je suis dev moi même, et en plus je suis blanc j’ai tous les défaut manifestement, du coup je suis raciste ?! Non mais sérieusement ca va trop loin là.<br /> Bah, tiens.<br /> Donc, en gros, il faut rien remettre en question ? Tout est parfait ?<br /> C’est plus que lourd ce genre de sujets, la discussions st juste impossible entre ceux qui vont en profiter pour balancer des propos racistes dégueulasses, ceux qui vont râler «&nbsp;ouin, ouin, on ne peut plus rien dire, woke, bla bla&nbsp;».<br /> Ah et personne n’a prétendu que tu étais raciste parce que tu était blanc, hein, faut se calmer.<br /> Avant de venir gueuler sur les gens qui prennent des positions, il faudrait d’abord lire ET comprendre les propos exprimer et pas juste foncer dans le tas parce que vos convictions sont plutôt de tel côté politique, bref.<br /> Edit : Ah et autre chose : une fois encore, on voit en filigrane que la «&nbsp;liberté d’expression&nbsp;» défendue par certains ne doit aller que dans leur sens, encore et toujours.
LeToi
Si la reconnaissance faciale de l’iPhone ne se trompe pas plus souvent entre blancs et noirs, le problème ne vient peut-être pas de l’IA en elle-même mais de ce qu’on lui demande…
philouze
non, c’est qu’elle a été entrainée avec un visage pris en haute résolution + HDR a maximum 20 cm de l’appareil + arrière flouté et mise au point parfaite.<br /> L’entrainement permet alors un boulot d’échantillonnage idéal, autant pour la phase d’apprentissage que pour la phase de reconnaissance.<br /> Et quand tu as scanné ton propre visage au départ, tu as fourni l’échantillon ultime : le tiens, pleine face, pris par le même exact appareil qui fera ensuite les identifications.<br /> là on parle de caméras de surveillance de tout type, toute distance, toute inclinaisons et souvent noir&amp; blanc comme source, et en face un index crado, avec pour comparaison les photos des fichiers de sécu, de permis de conduire, passeports etc…<br /> bref, trois moyens de bien avoir des problèmes de reconnaissance.<br /> La couleur de peau des dev doit jouer, mais aussi les problèmes de contrastes avec la peau noire pour les CCTV
Kergariou
Bah, ouais, mais si le base de données d’entrainement contient très peu de visages de personnes noires (par rapport au nombre de personnes blanches, alors l’algo sera moins performants sur ces visages.<br /> Ben non, la réponse dans cet article : Pourquoi les algorithmes de reconnaissance faciale ne peuvent pas être parfaitement équitables sur tous les fronts en même temps
juju251
@Kergariou<br /> Ce type de différence de performance peut être due à des données d’entraînement inadéquates ou à une limitation intrinsèque de l’algorithme d’apprentissage lui-même. Si les données d’entraînement contiennent un million d’exemples d’hommes Blancs et seulement deux exemples de femmes Noires, l’algorithme d’apprentissage aura plus de difficultés à distinguer les visages de femmes Noires. Pour corriger cela, on peut soit utiliser des données d’entraînement représentatives de la totalité de la population (ce qui est souvent impossible), ou bien donner des pondérations différentes aux données d’entraînement pour simuler la proportion qui existerait dans un jeu de données représentatives de la population.<br /> C’est dans l’article même que tu linkes.
Palou
Stellvia:<br /> mais j’ai remarqué que les modos ici ont l’habitude de supprimer tout messages qui ne va pas dans le sens de vos convictions<br /> N’importe quoi … certains messages ont été supprimés sur demande de l’auteur, pas spécialement par la conviction des modos.
Kergariou
Exact. Ceci dit le problème est en amont, c’est qu’il y a une volonté politique de ne pas utiliser trop de «&nbsp;diversité&nbsp;» pour ne pas discriminer :<br /> Quand nous permettons de collecter des données sur l’ethnie ou la couleur de peau afin d’aider à concevoir des algorithmes moins discriminatoires, nous consentons également à un compromis délicat. L’Europe interdit le plus souvent la collecte de données ethniques et ceci pour de bonnes raisons. Les bases de données ethniques ont permis aux Nazis et aux gouvernements de collaboration de localiser et d’assassiner 6 millions de Juifs dans les années 1940. Et pourtant les données sur l’ethnie ou la couleur de peau peuvent aider à concevoir des algorithmes moins discriminatoires. De plus, un algorithme « conscient de la couleur de peau » peut apprendre à compenser la discrimination en créant des modèles différents pour plusieurs groupes de population. Par exemple un modèle « peau foncée » et un modèle « peau claire ». Mais ceci va à l’encontre d’un principe important adopté en France et dans d’autres pays qui stipule que les règles doivent être aveugles aux couleur<br />
Voir tous les messages sur le forum
Haut de page

Sur le même sujet