Twitter : l'algorithme de recadrage privilégie indéniablement les visages blancs (et c'est un problème)

21 septembre 2020 à 12h45
10
Twitter raciste

Twitter, raciste ? Sur une photo, l'algorithme de recadrage aurait tendance à privilégier systématiquement les visages d'individus blancs…

Les algorithmes ne sont pas neutres. Utilisés notamment par la justice ou la police, ils comportent des biais, souvent racistes, qui favoriseraient certaines personnes plutôt que d'autres. Sur Twitter aussi ? Explications.

Un filtre blanc sur les photos ?

Ce n’est plus un secret : Twitter utilise le machine learning depuis 2018 pour recadrer les photos. Or ce weekend, des utilisateurs ont pointé du doigt un biais raciste. L’algorithme privilégierait en effet les visages blancs au détriment des visages de couleurs. 

Lorsqu’un visage mat et un visage clair sont présents sur une même photo, c’est sur ce dernier que le recadrage est automatiquement effectué par Twitter.

Démonstration :

Si l’expérience ne suit pas une méthode scientifique, les tests effectués vont dans le même sens. Conséquence : le problème est remonté jusqu’aux dirigeants de Twitter, qui se sont emparés de la question.

Twitter fait la mise au point

Dans la foulée, le chief design officer de Twitter, Dantley Davis, a donc annoncé qu’une enquête était en cours afin de déterminer les causes de ce biais.

En postant à nouveau une série de tests, Dantley Davis tente de montrer que l’algorithme ne se base pas uniquement sur la couleur des visages, mais aussi sur d’autres variables (indéterminées pour le moment).

Encore une fois, ces tests ne sont pas scientifiques, et ne permettent pas encore de tirer des conclusions sur le fonctionnement de l’algorithme.

Selon Liz Kelley, membre de l’équipe de communication de Twitter, aucune preuve d’un biais racial ou genré n'aurait été mis en évidence par les équipes de Twitter. « Nous mettrons nos travaux en open source afin que d’autres puissent les relire et les dupliquer, » a-t-elle déclaré dimanche.

Affaire à suivre…

Source : The Verge

Edouard Luquet

Rédacteur web, je suis de près le monde de la tech, les réseaux sociaux et les évolutions du numérique dans nos sociétés. Auteur en herbe, j'ai aussi co-fondé une revue littéraire où j'écris quelques...

Lire d'autres articles

Rédacteur web, je suis de près le monde de la tech, les réseaux sociaux et les évolutions du numérique dans nos sociétés. Auteur en herbe, j'ai aussi co-fondé une revue littéraire où j'écris quelques histoires.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (10)

MisterDams
On imagine que le volume d’images traitées est principalement fait de caucasiens (biais socio-économique avec certainement une sur-representation dans les médias et réseaux sociaux).<br /> Le machine learning recherche des points de repère liés aussi à la couleur, les marqueurs doivent moins fonctionner sur un visage plus sombre.<br /> Bref, Twitter n’est pas raciste et n’a pas mis un if{black then bad_cropping;} mais a déployé une fonctionnalité qui marche pas comme il le faudrait.<br /> Cela dit c’est intéressant car c’est exactement ce qu’il s’est passé quand l’IA de Microsoft est devenue raciste, elle s’est intégrée dans un éco système qu’elle a vu raciste et s’est donc adaptée à son contexte.<br /> Dans machine learning, il y a learn. Donc il y a aussi des enseignants…
nirgal76
L’algo n’est pas raciste, il est mal foutu, voilà tout.<br /> Ce que ça devient pénible (pour être poli, vraiment je me retiens !) cette mode de voir du racisme partout et de le mettre à tout les sauces. Et les médias en sont les premiers responsables.
cirdan
«&nbsp;L’algorithme privilégierait en effet les visages blancs au détriment des visages de couleurs.&nbsp;»<br /> A part le clown blanc, personne n’a de visage blanc (ça ferait un peu bizarre).<br /> Et à supposer que ça soit le cas, ça serait quand même une couleur
c_planet
Le nombre de fois où on a lu «&nbsp;ma peau m’appartient, ce n’est pas un accessoire de maquillage&nbsp;» … ici les ingénieurs ont clairement (hum, hum) respecté «&nbsp;ce n’est pas un accessoire d’algorithme&nbsp;», lol.
draugtor
C’est les couleurs et non le visage d’un blanc ou d’un noir<br /> débunk en tweet ici<br /> twitter.com<br /> Thomas (Thomas_Auriel)<br /> ⤵️⤵️⤵️ 😐 twitter.com/bascule/status…<br /> Tony “Abolish (Pol)ICE” Arcieri 🦀 @basculeTrying a horrible experiment...<br /> Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? https://t.co/bR1GRyCkia<br /> 6:48 AM - 20 Sep 2020<br /> 2<br /> 1<br />
cedric4
«&nbsp;Lorsqu’un visage mat et un visage clair sont présents sur une même photo, c’est sur ce dernier que le recadrage est automatiquement effectué par Twitter.&nbsp;»<br /> Cette phrase est un peu catégorique alors que vous dites plus loin que<br /> «&nbsp;l’expérience ne suit pas une méthode scientifique&nbsp;».<br /> ainsi que<br /> «&nbsp;Encore une fois, ces tests ne sont pas scientifiques, et ne permettent pas encore de tirer des conclusions sur le fonctionnement de l’algorithme.&nbsp;»<br /> Plusieurs ingénieurs de twitter, dont certains non blancs, ont expliqué que l’algorithme n’utilise pas de mécanisme de détection de visage.<br /> twitter.com<br /> Michael Bronstein (mmbronstein)<br /> @JeffDean thanks for bringing this up: looks like a real problem, though has to be tested properly to draw conclusions. The cropping algorithm itself is not based on face detection.<br /> 12:33 PM - 20 Sep 2020<br /> 26<br /> twitter.com<br /> Zehan Wang (ZehanWang)<br /> @JeffDean We'll look into this. The algorithm does not do face detection at all (it actually replaced a previous algorithm which did). We did conduct some bias studies before release back in 2017. At the time we found that there was no significant bias between ethnicities (or genders).<br /> 11:12 PM - 19 Sep 2020<br /> 33<br /> 5<br /> Comment un algorithme peut être raciste sans même savoir qu’il y a un visage dans l’image ?<br /> Certains autres expliquent même qu’il y a eu des tests avant le déploiement de cette solution qui permettaient de s’assurer que l’algorithme n’était justement pas raciste…<br /> twitter.com<br /> Ariadna Font Llitjós (quicola)<br /> @JeffDean Thanks for pointing out issues like this. It definitely seems like there are some edge cases that we didn’t foresee. However, we did test the model for racial bias explicitly before shipping it and we did not find any racial bias at that time. We’ll continue to improve it 🙏<br /> 11:13 PM - 19 Sep 2020<br /> 40<br /> 1<br /> Il y a en effet un biais mais une série d’exemples basées sur les même images ne suffit pas à démontrer que le biais est au niveau de la couleur de peau de la personne. Il y a plein d’autres facteurs qui entrent en ligne de compte comme le contraste par exemple …<br /> Il aurait été très simple de trouver ces tweet et d’avoir un article un peu plus impartial mais cela aurait été tout de suite moins vendeur.
Element_n90
L’algorithme privilégierait en effet les visages blancs<br /> C’est surement ce qu’on appel le «&nbsp;privilège blanc&nbsp;» : se faire recadrer plus facilement que les autres. Y a pas a dire, on croule sous les avantages dans ce monde…
keyplus
y a en a qui ont rien d’autre a foutre de leur vie c est dingue
Popoulo
«&nbsp;des utilisateurs ont pointé du doigt un biais raciste&nbsp;» : juste dans leur tête de malades. La Covid ne fait vraiment pas bien son job.<br /> «&nbsp;Sur une photo, l’algorithme de recadrage aurait tendance&nbsp;» : donc pas systématique ? donc du grand n’importe quoi.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet