🔴 Soldes : jusqu'à - 60% sur le high-tech 🔴 Soldes d'été : jusqu'à - 50% sur le high-tech

Twitter : l’algorithme de recadrage des images était bel et bien biaisé

20 mai 2021 à 17h25
7
Twitter image © Twitter
© Twitter

Après avoir mené des tests, Twitter a conclu que son algorithme présentait bien des biais lors de son choix pour le recadrage des images.

Même si depuis Twitter a décidé de laisser tomber le recadrage automatique de ses images, du moins sur mobile, cela n'a pas empêché ses équipes de continuer à enquêter sur le fonctionnement de l'algorithme qui s'en chargeait. Les internautes avaient raison : le système favorisait bien les peaux blanches et les femmes.

Une enquête incomplète en octobre

En octobre dernier, Twitter avait affirmé que non, son algorithme ne favorisait aucune couleur de peau ou aucun genre. L'enquête s'est tout de même poursuivie en interne, il faut dire que les exemples des internautes avaient été saisissants : dans la plupart des cas, l'algorithme chargé de déterminer quelle partie de l'image mettre en aperçu choisissait les peaux les plus claires.

Les tests à l'époque n'avaient pas été concluants à cause du peu de nombres de fois où ils avaient été lancés. Là où en octobre les ingénieurs du réseau social s'étaient contentés de lancer le test 200 fois avant de tirer leurs conclusions, cette fois, l'expérience a été reproduite 10 000 fois. Un échantillon plus important et donc plus fiable, montrant bien qu'un problème existe.

Un algorithme biaisé favorisant les personnes blanches et les femmes

Les chercheurs ont trouvé que dans 8 % des cas, l'algorithme favorisait les femmes aux hommes et que dans 4 % des cas, il favorisait les personnes blanches. En classant par genre, les femmes blanches sont favorisées à 7 % par l'algorithme par rapport aux femmes noires et le pourcentage passe à 2 % en faveur des hommes blancs par rapport aux hommes noirs.

Cependant, les chercheurs n'ont trouvé aucun élément pouvant affirmer que l'algorithme choisissait plus souvent certaines parties du corps, par exemple les poitrines, plutôt que les visages. Pour son recadrage des images, Twitter utilisait un algorithme dit de saillance, qui détectait à quel endroit de l'image les valeurs des pixels changeaient le plus souvent et donc à quel emplacement on pouvait trouver un plus grand niveau de détail. Le réseau social a conclu que les cas où l'algorithme choisissait une autre partie du corps que le visage étaient dus à la présence de logos ou autres illustrations.

Cette découverte a renforcé la conviction de Twitter d'abandonner progressivement son algorithme, utilisé à la base pour des questions de vitesse et d'harmonisation des images. Rumman Chowdhury, Directrice de l'ingénierie logicielle, a conclu que « tout ce qui fait Twitter ne constitue pas un bon candidat pour un algorithme et, dans ce cas précis, la façon de recadrer une image est une décision qui doit être prise par des personnes ».

Source : The Register

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
7
8
sigzegv
Un algorithme ne peut pas être biaisé, il ne fait que ce qu’on lui demande de faire. Apres c’est surement une façon de parler, mais il ne faut surtout pas minimiser la participation de l’humain dans ces résultats (volontaires ou non).
orionb1
ou alors, du machine learning qui apprend des biais des gens
yAAm
Un algo ne fait pas seulement ce qu’on lui demande de faire, il fait aussi ce qui n’est pas mécaniquement prévisible, il se détourne parfois des objectifs initiaux pour se comporter d’une manière tantôt imprévisible, tantôt imprévues principalement lorsqu’il est lié à une grande dimensionnalité, de grands ensemble de données, qu’il soit ou pas lié à des techniques d’intelligence floues ou déterministes : c’est le bug.
Necron
Sans trop m’avancer car je ne suis pas ingé chez Twitter, je suppose que l’algorithme a simplement analysé que une «&nbsp;majorité&nbsp;» de photos postées étaient des femmes blanches, ce qui explique le phénomène.<br /> Après certains pourront toujours prétendre à une IA volontairement discriminatoire …
DrCarter95
On s’est bien fait biaiser.
KlingonBrain
Un algorithme ne peut pas être biaisé, il ne fait que ce qu’on lui demande de faire.<br /> Oui, enfin, ça c’était dans le temps. A l’époque révolue ou l’on comprenait le code qu’on écrivait.<br /> Aujourd’hui, l’informatique, c’est juste un stagiaire qui va pécher un bout de code sur le web.<br /> Et quand il voit qu’en trifouillant un peu ça à l’air de fonctionner, c’est emballé et pesé.<br /> Ne lui demande pas comment l’algo fonctionne car rien ne prouve qu’il se posera la question un jour.
Mr_Ginko
Le retour du " C’était mieux avant " … J’imagine le stagiaire qui va aller installer un algo dans Twitter, après l’avoir récupéré sur le site du club d’informatique de Bouriotte-Bergonce
KlingonBrain
Le retour du " C’était mieux avant " … J’imagine le stagiaire qui va aller installer un algo dans Twitter, après l’avoir récupéré sur le site du club d’informatique de Bouriotte-Bergonce<br /> Aujourd’hui ça ne choquerait personne.<br /> Ce qu’on demande à l’informaticien de nos jours, c’est d’assembler des fonctionnalités de haut niveau dans le temps le plus réduit possible.<br /> Et on s’accommode des quelques conséquences parce qu’on sait pertinemment qu’on ne peut pas avoir en même temps le beurre et l’argent du beurre.
Voir tous les messages sur le forum

Actualités du moment

Roborock S7 : l'un des meilleurs aspirateurs robots à prix réduit avec ce code promo
AirPods Pro : les célèbres écouteurs sans fil Apple tombent sous les 200€
Dans le cadre des soldes, NBA 2K21 est gratuit cette semaine sur l'Epic Games Store
Le P.-D.G. de ByteDance (TikTok) démissionne pour ne plus avoir à manager
TV 4K : équipez-vous pour l'Euro avec cette TV LG OLED 48 pouces en promotion
Apple retire discrètement le serveur web Zoom caché via une mise à jour sur Mac
Mini critique Tribes of Europa (S01)
Mini critique Truth Seekers (S01)
Mini critique For All Mankind (S02E01)
Mini critique Snowpiercer (S02E01)
Haut de page