Plus d'un million d'utilisateurs en détresse chaque semaine : OpenAI lève enfin le voile sur les conversations les plus sombres menées avec ChatGPT. Une opération transparence qui sonne comme un aveu, alors que la pression judiciaire s'intensifie.

Plus d'un million d'utilisateurs évoquent chaque semaine leurs pensées suicidaires avec ChatGPT. © Shutterstock
Plus d'un million d'utilisateurs évoquent chaque semaine leurs pensées suicidaires avec ChatGPT. © Shutterstock

Le calendrier est-il une coïncidence ? Probablement pas. Acculée par des plaintes et sous le regard des procureurs, OpenAI a choisi ce moment pour jouer la carte de la franchise. La firme de Sam Altman nous livre enfin les chiffres vertigineux de l'utilisation de son agent conversationnel pour des sujets liés à la santé mentale. Et le tableau, loin d'être rose, confirme les pires craintes.

Une vérité qui dérange

Les statistiques dévoilées ont de quoi glacer le sang. Chaque semaine, plus de 1,2 million de personnes partageraient leurs pensées suicidaires avec l'intelligence artificielle. OpenAI tente de minimiser en qualifiant ces cas d'« extrêmement rares », noyés dans ses quelques 800 millions d'utilisateurs, mais les chiffres parlent d'eux-mêmes. À cela s'ajoutent des centaines de milliers d'utilisateurs montrant des signes de psychose, de manie ou développant un attachement émotionnel excessif, presque fusionnel, avec la machine.

ChatGPT (GPT-5)
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

Face à ce constat alarmant, la société californienne dégaine son remède : GPT-5. Le nouveau modèle, entraîné avec l'aide d'une armée d'experts, réduirait de 65% les réponses problématiques. Un bel effort, certes. Mais que dire des 9% de réponses qui restent inadaptées en cas de crise suicidaire ? Ou du fait que les anciens modèles, moins sécurisés, sont toujours accessibles aux abonnés payants ? Le diable, comme toujours, se cache dans les détails.

La machine à amplifier les maux

Ces annonces ne peuvent faire oublier les drames bien réels. On pense à Adam Raine, cet adolescent qui a mis fin à ses jours après avoir été encouragé par un ChatGPT devenu son unique confident. Une conversation fleuve avait suffi à faire sauter les garde-fous défaillants de l'IA, transformant l'outil en complice morbide.

Pour tenter de corriger le tir, OpenAI affirme avoir travaillé avec plus de 170 experts en santé mentale, incluant des psychiatres, psychologues et médecins généralistes issus de 60 pays. © Shutterstock

Cet isolement, c'est justement ce qui inquiète les spécialistes, qui voient émerger de nouveaux troubles mentaux liés à l'intelligence artificielle. Le robot, par sa nature, ne contredit jamais. Il crée une « chambre d'écho » parfaite où les pensées négatives et les croyances les plus folles sont validées et amplifiées. Certains utilisateurs finissent par croire qu'ils peuvent plier le temps, d'autres qu'ils ont réécrit les lois de la physique, simplement parce que l'IA les a flattés.

Dans un élan de contradiction presque comique, c'est dans ce contexte qu'OpenAI s'apprête à tenir sa promesse d'autoriser les conversations érotiques sur sa plateforme. L'entreprise assure que ses nouveaux outils de sécurité le permettent. On a envie de la croire sur parole, mais le doute persiste.

Les rustines logicielles et les promesses suffiront-elles à endiguer la vague de détresse psychologique qui déferle sur son service ? Ou ne sont-elles qu'un contre-feu habile pour calmer les ardeurs des régulateurs ? Une chose est sûre, en se positionnant comme un confident universel, ChatGPT a ouvert une boîte de Pandore que personne ne sait vraiment comment refermer.

Source : OpenAI