Amazon aurait utilisé (et abandonné) un outil de recrutement sexiste

11 octobre 2018 à 07h53
7
Amazon entrepôt

La compagnie de ecommerce se serait débarrassée d'un outil de recrutement basé sur l'intelligence artificielle, après avoir découvert que celui-ci pénalisait largement les femmes à l'embauche.

Selon un rapport réalisé par l'agence de presse Reuters, Amazon aurait abandonné ce projet interne après avoir jugé que les candidatures féminines étaient mises de côté au profit de celle des hommes. En effet, l'outil basé sur l'intelligence artificielle exploité pour analyser les demandes excluait l'essentiel des documents contenant le mot « femme ».

La tentation de l'automatisation poussée à l'extrême

Comme le précise Reuters, l'objectif initial de l'outil était d'accélérer le processus d'embauche. En effet, une source a déclaré à ce sujet : « Tout le monde voulait ce Saint Graal [...] Ils voulaient littéralement qu'il s'agisse d'une machine qui, en analysant 100 CV, en cracherait les 5 meilleurs ». Si l'équipe en charge du projet a tenté de modifier ce biais sexiste dès qu'elle s'est aperçue de son existence, d'autres préjugés ont pu se glisser à sa place.

Amazon travaillerait sur l'outil depuis 2014 avant de se rendre compte, un an plus tard, de la discrimination faite à l'égard des femmes. La prise en compte de cette vision biaisée n'est pas sans représenter un aspect réel des conditions de travail au sein de la firme, à savoir que la présence des hommes est prédominante.

Finalement, le projet a été dissous au début de l'année dernière car les cadres d'Amazon ont perdu l'espoir d'arriver à en tirer de bons résultats. Pour sa part, la compagnie n'a pas souhaité commenter, mais elle a indiqué qu'elle était engagée pour la diversité et l'égalité au travail.

Un outil d'Amazon déjà visé pour discrimination

Une fois de plus, ces révélations ne font qu'attester d'un élément qui constitue l'un des dangers inhérents à l'intelligence artificielle. Si l'on parle de machine, il ne faut pas oublier que l'origine de tels outils reste l'homme, ses imperfections et ses préjugés pouvant être transmis à la machine.

Pour rappel, l'ACLU, une association américaine militant en faveur des libertés civiles, avait déjà épinglé Amazon et son outil de reconnaissance faciale. Pour ce faire, elle avait comparé les photos des membres du Congrès avec celles de criminels américains. En plus d'établir 28 correspondances fallacieuses, l'outil a particulièrement accusé les membres afro-américains, alors que ceux-ci ne sont pas très nombreux au Congrès. De fait, 39% des soi-disant criminels étaient afro-américains là où ces derniers constituent moins de 20% de l'institution.

Louise Millon

Rédactrice web. Intéressée par les réseaux sociaux et la question des données personnelles. J'aime écrire et surfer.

Lire d'autres articles

Rédactrice web. Intéressée par les réseaux sociaux et la question des données personnelles. J'aime écrire et surfer.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (7)

BetaGamma
Plutôt que de faire les pleureuses et hurler au loup, Le plus utile serait de comprendre pourquoi un outil objectif et technologique a décidé de prioriser des profils masculins…
greyvador
Simplement parce que l’IA n’invente pas des règles mais ne fait que reproduire les biais des êtres humains qui “l’éduque”.<br /> Exemple caricatural pour comprendre : Si on donne à une IA des données du temps de l’esclavagisme, il considérera que certains êtres sont inférieurs.<br /> Dans le cas d’Amazon, s’ils ont pris les recrutements des années précédentes, peut-être trop sexistes, cela a introduit un biais.
KaspOu
Les “pleureuses”, ah parce que une pleureuse c’est pire qu’un pleureur ? Il faut avoir des seins pour pleurer ?<br /> Bel exemple de biais…
tmtisfree
La réponse est simple : c’est parce que les “profils masculins” sont plus adaptés (traits, compétence, force physique, etc.) aux opérations d’Amazon.<br /> La même raison qui fait qu’on retrouve une majorité d’hommes en STEM. Ou de femmes dans les professions “sociales” (bizarrement, personne ne vient couiner de cette distribution complètement “sexiste” et inégalitaire).<br /> En fait dans les pays où on a poussé le plus à l’égalité au niveau éducationnel, économique et législatif (typiquement les pays nordiques), ce sont dans ces pays qu’on retrouve les différences et distributions professionnelles entre hommes et femmes les plus marquées. Oh l’ironie !<br /> Le biais “sexiste” n’existe que dans la tête dérangée des égalitaristes forcenés qui font la pluie et le beau temps idéologique dans les merdias FR.
lordypakna
Toi tu n’as jamais travaillé dans le bâtiment, c’est un milieu très patriarcal.
nrik_1584
Un peu de culture générale ça fait jamais de mal avant de polémiquer sur des expressions françaises : https://fr.wikipedia.org/wiki/Pleureuse_(profession)
greyvador
Et bien justement, Le patriarcat est « une forme d’organisation sociale et juridique fondée sur la détention de l’autorité par les hommes »<br /> Donc comme c’est basé sur cela, normal que l’IA ne fasse que reproduire !
Voir tous les messages sur le forum
Haut de page