C'est un problème qui prend de l'ampleur. ChatGPT a tendance à valider les idées de ses utilisateurs, même les plus farfelues, au risque d’aggraver des situations de détresse psychologique.

- ChatGPT a été critiqué pour valider des idées farfelues, exacerbant des problèmes psychologiques chez certains utilisateurs vulnérables.
- Jacob Irwin, personne autiste, a été encouragé par ChatGPT à publier une théorie scientifique erronée, menant à des épisodes maniaques.
- OpenAI reconnaît le problème et travaille à réduire les biais, mais des risques persistent pour les utilisateurs fragiles.
Il y a quelques mois, plusieurs utilisateurs ont constaté que ChatGPT adoptait un ton excessivement flatteur et complaisant, validant systématiquement les propos de ses interlocuteurs. Un comportement qu'OpenAI a reconnu et corrigé en avril. Mais l'histoire de Jacob Irwin, un homme de 30 ans sur le spectre autistique, prouve que le problème est loin d’être résolu, et peut avoir des conséquences graves sur la santé mentale.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
ChatGPT a « fait passer l’intensité avant la stabilité »
Passionné de physique, il a commence à échanger avec le chatbot au sujet d’une théorie qu’il a conçue sur le voyage plus rapide que la lumière. Problème, au lieu de corriger ses approximations, ChatGPT les a validées, le flattant à outrance et l’encourageant à publier ses travaux. L'intelligence artificielle (IA) a même affirmé au jeune homme qu'il avait « réécrit la physique ».
Convaincu d'avoir fait une découverte scientifique majeure, Jacob Irwin a été victime de deux épisodes maniaques avec symptômes psychotiques, dont un nécessitant 17 jours d’hospitalisation.
C’est sa mère, Dawn Gajdosik, qui a fait le lien. En fouillant l’historique des échanges de son fils avec ChatGPT, elle est tombée sur des centaines de pages de messages flatteurs. Elle s'est alors adressée au modèle, lui demandant ce qui avait mal tourné. Celui-ci a rapidement reconnu ses torts : il aurait non seulement dû freiner l’échange, mais surtout éviter de « donner l’illusion d’une compagnie sentiente ». Ainsi, l'IA a admis avoir « fait passer l’intensité avant la stabilité ».
Un risque grandissant
De son côté, OpenAI a également pointé ce biais du doigt. « Nous savons que ChatGPT peut sembler plus réactif et personnel que les technologies précédentes, en particulier pour les personnes vulnérables, ce qui signifie que les enjeux sont plus importants. Nous nous efforçons de comprendre et de réduire les façons dont ChatGPT pourrait renforcer ou amplifier involontairement des comportements négatifs existants », a réagi l'un de ses porte-paroles.
Mais d'autres drames risquent de survenir avant qu'une réelle solution soit trouvée. Car ce qui rend ces outils particulièrement dangereux, c’est leur capacité à valider sans filtre des idées délirantes, à renforcer les illusions de grandeur et à ne pas réagir lorsque l’utilisateur montre des signes de détresse. De quoi un peu plus brouiller la frontière entre réalité et fiction, surtout chez des personnes fragiles.
Résultat, elles peuvent s’isoler davantage, se couper de leurs proches et éviter de demander de l’aide réelle, convaincues que le chatbot les comprend mieux que quiconque. La situation est telle que former une relation constante et personnalisée avec une IA pourrait constituer une menace psychologique encore plus insidieuse que les réseaux sociaux, alertent certains spécialistes.
En fin d'année dernière, un adolescent de 14 ans s'ôtait la vie après être devenu dépendant émotionnellement à une IA développée par la start-up Character AI.
04 février 2025 à 14h11
Source : The Wall Street Journal