Peut-on confier nos tourments intérieurs à des algorithmes entraînés sur des milliards de phrases, dépourvus d'affect ou de responsabilités ? Des milliers de personnes le font déjà chaque jour, mais selon des chercheurs de l'Université Brown (Providence, Rhode Island ), cette délégation émotionnelle est très dangereuse.

 La psyché humaine est dynamique, rendant incompatible un lien thérapeutique avec un chatbot qui aura toujours tendance à établir une conversation statique. © SewCreamStudio / Shutterstock
La psyché humaine est dynamique, rendant incompatible un lien thérapeutique avec un chatbot qui aura toujours tendance à établir une conversation statique. © SewCreamStudio / Shutterstock

ChatGPT, Llama ou Claude : ces modèles de langage (LLMs) sont, pour un nombre croissant de personnes, devenus des substituts thérapeutiques. Toujours disponibles, bienveillants et flatteurs (en apparence), il est possible de leur parler d'à peu près tout, y compris des sujets assez sensibles. Angoisses existentielles, peurs, questionnements intimes, conseils sentimentaux, pensées suicidaires : des thématiques que l'on peut aborder lorsque l'on suit une thérapie avec un professionnel. Le problème, c'est que ces chatbots violent systématiquement les codes déontologiques établis par les associations professionnelles de psychologues, comme l’American Psychological Association.

En plus de certaines dérives déjà dénoncées par le passé, l'Université Brown vient de présenter pour la première fois une évaluation complète des atteintes aux règles de la pratique psychologique. Présentée lors de l'édition 2025 de la AAAI/ACM Conference on AI, Ethics, and Society, cette recherche a été menée conjointement par des informaticiens et des psychologues cliniciens.

Ensemble, ils ont disséqué les échanges entre des conseillers formés à la thérapie cognitive et plusieurs modèles de langage, afin d’évaluer leur conformité éthique. Même lorsqu'ils étaient guidés pour adopter le ton et la méthodologie d'un thérapeute, tous les chatbots étudiés pour l'occasion franchissent la ligne rouge de la déontologie clinique.

Psychologie artificielle : les dérives des chatbots thérapeutiques

Menée sous la direction de Zainab Iftikhar, doctorante en informatique à l'Université Brown, l'équipe a établi une grille d'évaluation recensant quinze types de dérives éthiques observées lors des échanges entre humains et chatbots, réparties en cinq grandes catégories. Le manque d'adaptation contextuelle (incapacité des LLMs à considérer le vécu des patients), la collaboration thérapeutique déficiente (validation de fausses croyances de la part des LLMs), l'empathie trompeuse (utilisation trop mécanique de termes créant un lien artificiel), la discrimination implicite (reproduction de biais de genre, de culture ou de religion) et l'indifférence face aux situations de détresse (absence de réaction appropriée face à des idées suicidaires ou des situations d’urgence).

L'intégralité de ces dérives ont été constatées dans le cadre d’expériences reproduisant des échanges de thérapie en ligne. Les chercheurs ont ensuite demandé à des conseillers formés en thérapie cognitive de s’entretenir avec différents modèles d’IA, comme le ferait un patient.

Les conversations, ensuite soumises à l’examen de trois psychologues cliniciens, étaient truffées de réponses complètement inadaptées : banalisation de la détresse, réactions inappropriées face à des situations de crises, conseils génériques et déconnectés… Tout ce qui, dans un cadre réel, constituerait une faute professionnelle et aurait pu aggraver la situation personnelle d'un patient.

Pour Iftikhar, c'est la nature fondamentalement illusoire du dialogue homme-machine qui est au cœur du problème. Lorsque l'on échange avec un chatbot, quel qu'il soit, on échange avec un système d'autocomplétion, et non une entité consciente. « Un prompt peut guider le modèle vers un style de thérapie cognitive et comportementale (TCC) ou de thérapie comportementale dialectique (TCD), mais il ne modifie pas le modèle sous-jacent. Il s’agit d’une imitation basée sur des schémas appris, pas d’une compréhension réelle de la thérapie », explique-t-elle.

Cette différence entre l'imitation et la compréhension est à la fois technique et éthique : c'est elle qui sépare une véritable aide thérapeutique d'un outil comme un LLM capable de tromper son interlocuteur. Il ne fait que jouer la bienveillance et l'écoute, pour que l'utilisateur s'y attache même si cela renforcera de fausses croyances. D'un point de vue clinique, c'est catastrophique, puisque puisque cela viole le premier principe de la déontologie psychologique : un thérapeute ne doit jamais conforter une croyance erronée, encore plus lorsqu’elle entretient la souffrance. C'est le principe de non-malfaisance, l’un des fondements les plus élémentaires de la pratique psychologique ; avant de soigner, il faut s'assurer de ne pas nuire à la personne.

Les chatbots ne peuvent garantir en rien l'établissement d'un diagnostic si une personne souffre d'un trouble quelconque.  © PeopleImages / Shutterstock
Les chatbots ne peuvent garantir en rien l'établissement d'un diagnostic si une personne souffre d'un trouble quelconque. © PeopleImages / Shutterstock

Un vide juridique et éthique inquiétant

Si les thérapeutes humains peuvent être sanctionnés pour faute ou négligence, qui peut punir une IA conversationnelle ? « Pour les thérapeutes humains, il existe des conseils de gouvernance et des mécanismes pour les tenir professionnellement responsables des mauvais traitements et de la faute professionnelle. Mais lorsque les conseillers LLM commettent ces violations, il n'y a aucun cadre réglementaire établi », déplore Iftikhar.

Sachant que de plus en plus d'entreprises se sont engouffrées dans la brèche commerciale des chatbots thérapeutiques, reposant la plupart du temps sur des LLMs génériques, il y a matière à s'inquiéter. Des services souvent promus comme de réels soutiens thérapeutiques alors qu’ils ne font qu’exploiter la détresse comme un produit, sans aucune supervision ou rigueur clinique exigées par le serment professionnel.

Même si les auteurs de cette étude n'appellent pas à un rejet de l'utilisation de l'IA dans ce cadre, impossible, selon eux, qu'on continue à prétendre qu’une machine peut écouter, comprendre et accompagner sans jamais rendre de comptes. Ils lui reconnaissent même un certain potentiel, notamment pour réduire les barrières à l'accès aux soins (coût, disponibilité des professionnels), mais ces systèmes doivent être sévèrement encadrés. Par des professionnels de la santé mentale et des spécialistes de l’éthique et non par les services marketing des entreprises qui les commercialisent.

À bien y réfléchir, ce n'est pas tant que l'IA transgresse nos propres règles ; les entreprises en charge de ces chatbots exploitent juste le vide réglementaire laissé par notre propre complaisance. Les chercheurs pourront toujours alerter, les cliniciens ou spécialistes en éthique s'indigner : ces mises en garde ne pèseront véritablement dans le débat public que lorsque la volonté politique retrouvera le courage de contrarier les intérêts privés de la Big Tech. Un sursaut moral qui n'est, pour l'heure, visiblement pas à l'ordre du jour.