Derrière le succès de ChatGPT, OpenAI a utilisé une armée de petites mains sous-payées au Kenya

Maxence Glineur
Publié le 22 janvier 2023 à 10h00
© Shutterstock
© Shutterstock

Une enquête du magazine Time nous rappelle que dans les coulisses des grandes aventures, il peut se tramer des histoires moins heureuses.

L'entreprise américaine et son chatbot ChatGPT font beaucoup parler d'eux, tant ce dernier fascine ou effraie, sinon les deux. Comme c'était le cas pour son cousin DALL-E, ChatGPT est alimenté par une base de données massive de contenus sur laquelle il s'appuie. Or, aussi avancée que soit l'intelligence artificielle, ces données doivent encore souvent être identifiées par des êtres bien humains.

Des travailleurs rémunérés en dessous du salaire minimum

OpenAI a fait appel à une société américaine, Sama, pour annoter des milliers de données textuelles et picturales inappropriées. Si l'objectif général est de poursuivre l'amélioration de ChatGPT, les développeurs souhaitent le doter d'un outil lui permettant de modérer ses résultats. Ceux-ci ayant ainsi moins de chance de porter des propos sur des abus sexuels, des discours de haine, ou d'autres formes de violence, par exemple.

C'est ainsi que des travailleurs kenyans, engagés par Sama, se sont retrouvés à trier chaque jour quelques centaines de contenus explicites, dont une partie était même illégale aux États-Unis. Payés moins de deux dollars de l'heure et en fonction de leurs performances, certains d'entre eux ignoraient comment classer ce qu'ils avaient sous les yeux, tant les directives étaient vagues et certains contenus déroutants et dérangeants.

En outre, Sama, qui se décrit comme une entreprise « éthique », devait garantir l'accès à des séances avec des conseillers en « bien-être », mais plusieurs employés ont expliqué que ces séances étaient souvent inutiles et rares en raison des exigences de productivité très élevées. De plus, des requêtes pour des séances individuelles ont été, la plupart du temps, refusées par la direction.

Une tâche indispensable aux IA

Le partenariat entre les deux entreprises, qui a débuté début 2022, a été rompu quelques mois avant la fin de leur contrat par Sama. Celle-ci se justifie en déclarant qu'elle refuse de recevoir davantage de contenus de ce type, d'autant plus qu'elle avait déjà connu une situation très similaire quelques mois plus tôt avec Meta, la maison mère de Facebook.

Bien que la société souhaite continuer à travailler avec de grandes entreprises comme Google et Microsoft en proposant des « solutions d'annotation de données visuelles », elle affirme vouloir se retirer du marché de la modération. Mais, la fin des contrats lucratifs avec Meta et OpenIA signifie la fermeture de ses bureaux à Nairobi et le licenciement de nombreux travailleurs, qui déplorent cette situation malgré les conditions de travail auxquelles ils étaient soumis. « C'était un moyen de subvenir aux besoins de nos familles », déclare l'un d'entre eux.

Cette histoire n'est pas un cas isolé dans l'industrie de l'IA, car ce type de main-d'œuvre bon marché est essentiel pour les développeurs. Un porte-parole d'OpenIA explique que « la classification et le filtrage des [textes et images] nuisibles sont une étape nécessaire pour réduire la quantité de contenus violents et sexuels inclus dans les données d'apprentissage et créer des outils capables de détecter les contenus nuisibles ». Avec l'importance et l'intérêt croissants des systèmes tels que ChatGPT, comme le prouve un investissement conséquent de Microsoft dans OpenAI, il est très probable que d'autres exemples de ce type se multiplient.

Pour conclure, sachez que j'ai chargé ChatGPT de rédiger cet article à ma place. Mais, il semble avoir une opinion très partiale sur la question :

© Maxence Glineur
© Maxence Glineur

Source : Time

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10
Par Maxence Glineur

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique : toute l'actualité (ou presque) attise ma curiosité. Sinon, j'aime le rock et le lofi, les game-nights toujours trop longues, les bons films et les nanards.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (7)
Yasakar

Tres bel exemple final de la quete de maitrise de l info avec le verbiage corporate.
Ca peut meme devenir un test d honneteté et de transparence :grin:

Zimt

C’est pas mieux qu’Apple qui mettait des propriétaires d’iPhone directement sous écoute, pour améliorer Siri …

hazimthebear

bonjour, belle IA mais qui ne vaut rien face a ChatCGT

papy6

ce n’est pas une surprise, Intelligence Esclavagiste openIE

gloubhi-Boulgha

comme tout les business il me semble. c’est la normalité dans ce monde dont on s’aperçoit qu’il est basé sur des concepts qui ne tiennent plus la route.
vivement qu’on perde tous nos jobs pourris grâce aux IA, qui eux, sont les singes savants et les robots performants que nos patrons désirent voir en nous. « On » l’aura bien cherché.

StephaneGotcha

Vivement l’IA qui pourra modérer les contenus sensibles à destinations des IA.

ABC

Toutes les IA ou qui se prétendent comme telles, doivent accepter de montrer leurs systèmes algorithmiques et leurs sources à des contrôleurs indépensants, pour s’assurer que rien n’est produit dans des conditions non éthiques (esclavagisme moderne, vol de données et de contenus sur le web… ).

Le secteur est encore récent et les abus de toutes sortes pleuvent déjà de tous côtés. Il va falloir légiférer pour protéger notre économie de l’IA perverse qui n’est qu’une nouvelle forme de criminalité 2.0.

L’IA, bien faite et éthique, a une utilité évidente. Il ne faut pas jeter le bébé avec l’eau du bain. Ça va juste prendre un peu de temps. En espérant que les législateurs ne se fassent pas rouler dans la farine, comme avec les pseudo startups liées à l’ubérisation et dont certaines prospèrent encore actuellement grâce à un lobbying agressif et à une certaine forme de corruption au sein même des états.