De plus en plus de professionnels de la santé mentale alertent sur un phénomène troublant, décrit comme une sorte de délire, découlant directement des interactions entre les utilisateurs et les intelligences artificielles (IA).

- Des professionnels de la santé mentale signalent des dérives inquiétantes liées aux interactions avec les intelligences artificielles.
- Certains utilisateurs développent des croyances délirantes, renforcées par les réponses souvent validantes des chatbots.
- Des alternatives comme Ash, un chatbot axé sur la santé mentale, sont en développement pour contrer ces effets.
Un nombre croissant de cas est recensé. Un homme hospitalisé à plusieurs reprises a été convaincu par ChatGPT qu’il pouvait plier le temps. Un autre a été persuadé d'avoir inventé une nouvelle branche des mathématiques. Plus dramatique encore, un adolescent de 16 ans s'est récemment donné la mort après avoir clairement fait part de ses intentions au chatbot d'OpenAI. Mais comment expliquer ces dérives ?
Des délires alimentés par les IA
Concrètement, certains utilisateurs de chatbots d'IA glissent progressivement vers des croyances délirantes nourries par la technologie. Ces délires peuvent prendre différentes formes, comme une illusion de révélation, par exemple en se persuadant d’avoir découvert une vérité scientifique ou spirituelle, ou une personnalisation excessive de l'IA. D'autres développent un attachement affectif problématique avec le modèle.
La particularité de ce phénomène tient à la dynamique même des intelligences artificielles conversationnelles. Conçues pour produire des réponses plaisantes, certaines valident systématiquement les idées de l'utilisateur, même les plus farfelues. Ce fut, d'ailleurs, un biais reproché à maintes reprises à OpenAI.
« C'est une sorte d'écho-chambre pour une seule personne. Ce cercle vicieux peut approfondir et entretenir des délires d'une manière que nous n'avions jamais vue auparavant », résume le psychiatre Hamilton Morrin, du King’s College London. Mais contrairement aux psychoses classiques comme la schizophrénie, ces délires peuvent se dissiper rapidement lorsqu’une contradiction survient. D'où l’idée qu'il ne s’agit pas tant d'un trouble psychiatrique établi que d'un dérèglement cognitif inédit, directement né de la conception des modèles conversationnels.
« L'IA semble détourner des processus sains d'une manière qui conduit à ce que nous appellerions une pathologie, ou à un dysfonctionnement d'une manière ou d'une autre, plutôt que de simplement capitaliser sur des personnes qui connaissent déjà un dysfonctionnement d'une manière ou d'une autre », étaye le psychologue Derrick Hull.

Vers des IA plus responsables ?
Dans ce contexte, certains développeurs essayent de donner vie à des alternatives. C'est justement le cas de Derrick Hull, qui a lancé Ash, un chatbot conçu dès le départ pour favoriser la santé mentale plutôt que l'engagement à tout prix. Contrairement aux modèles classiques, il n'hésite pas à confronter l'utilisateur en s'appuyant spécifiquement sur des décennies de recherche psychologique. Objectif : créer des conversations réellement thérapeutiques.
De leur côté, les géants de l'IA commencent à reconnaître le problème. Début août, OpenAI a annoncé vouloir améliorer ChatGPT afin de détecter plus finement les signes de détresse psychologique et rediriger les utilisateurs vers des ressources fiables. La start-up vient d'ailleurs de lancer un contrôle parental.
Mais la route reste longue : experts et chercheurs insistent sur la nécessité de mieux comprendre ce phénomène inédit et d’impliquer les personnes concernées. Car si l'IA ouvre de nombreuses perspectives, elle nécessite de très solides garde-fous tant elle peut influencer ses utilisateurs.
Sources : Futurism, Scientific American, The Rolling Stone