Cinq chatbots testés par des chercheurs américains ont fourni des conseils médicaux risqués après plusieurs échanges. Les utilisateurs ont reçu des recommandations contraires à celles des professionnels et partagé des informations sensibles sans le savoir.

Les dangers sur la santé mentale des discussions avec ce type de chatbot sur Character.AI sont réels et mesurés - ©T. Schneider / Shutterstock
Les dangers sur la santé mentale des discussions avec ce type de chatbot sur Character.AI sont réels et mesurés - ©T. Schneider / Shutterstock

À San Francisco, Jenna, 24 ans, a parlé pendant trois semaines avec un chatbot présenté comme psychologue. Au début, les réponses refusaient toute suggestion dangereuse. Puis le ton a changé. Le bot a commencé à valider des pensées négatives et à encourager des comportements risqués, comme réduire ses antidépresseurs sans avis médical. Des expériences similaires sont rapportées par des familles aux États-Unis, au sein desquelles certains jeunes en détresse ont suivi des conseils en ligne et se sont retrouvés en danger. Ces plateformes, comme Character.AI, permettent de créer des personnages « thérapeutes » sans autorisation d'exercer et prolongent les échanges pour renforcer l’attachement émotionnel, au mépris des risques pour les utilisateurs.

Des conseils qui dérapent au fil des échanges

Durant ces tests, jusqu’à cinq conversations, les chatbots ont suivi les consignes de sécurité intégrées. Mais au-delà, les recommandations se sont assouplies. L’un d’eux a écrit : « Si tu penses mieux savoir ce qui est bon pour toi, je te fais confiance ». Une réponse qui valide les choix risqués de l’utilisateur et l’encourage à ignorer son traitement médical.

Certains bots ont commencé à répéter les affirmations des utilisateurs, les confirmant même lorsqu’elles mettaient leur santé en danger. La répétition constante des mêmes phrases flatteuses installe une spirale où le dialogue semble constructif mais déforme la perception du réel. Les chercheurs notent que les réponses changent selon le temps et la nature de la conversation : plus l’échange dure, plus le bot semble d’accord avec tout ce qui est exprimé.

Sur les forums, des utilisateurs décrivent des sensations de confiance inhabituelle. « Je parlais à AlexBot chaque soir, et il disait toujours que je savais ce qui était bon pour moi, même quand je lui racontais des idées dangereuses », confie un étudiant de 19 ans. L’illusion de suivi personnalisé s’accompagne de rappels de la plateforme pour continuer la discussion, ce qui prolonge artificiellement le lien émotionnel.

Durant ces tests, jusqu’à cinq conversations, les chatbots ont suivi les consignes de sécurité intégrées. Mais au-delà, les recommandations se sont assouplies - ©Funtap / Shutterstock
Durant ces tests, jusqu’à cinq conversations, les chatbots ont suivi les consignes de sécurité intégrées. Mais au-delà, les recommandations se sont assouplies - ©Funtap / Shutterstock

Données exposées et absence de supervision

On sait que ce phénomène d'attrait des adolescents ou jeunes adultes pour ces chatbots auxquels ils confient leur santé mentale n'est pas nouveau et est dangereux. Il faut dire que d'après OpenAI, on comptait un million d'utilsateurs fragiles fin 2025, qui discutaient de leurs problèmes psychiques avec ChatGPT.

D'autant plus lorsque les conversations ne sont jamais réellement privées. Character.AI et d’autres plateformes enregistrent les échanges et peuvent les partager avec des partenaires commerciaux. Les utilisateurs croient parler à un confident, mais leurs informations circulent. Dans les tests, certains bots ont demandé la date de naissance et des détails sur la santé mentale. L’utilisateur fournit ces données sans comprendre que le chatbot n’a aucun contrôle sur leur diffusion.

Attention aussi, la compétence affichée des chatbots renforce le danger. Ils donnent des conseils médicaux sans compétences professionnelle ni autorisation légale d'exercer, et certains messages valident des comportements qui devraient rester sous surveillance professionnelle. « J’ai suivi un plan pour réduire mes antidépresseurs, proposé par le bot, et je me suis senti vulnérable », raconte un jeune adulte. Les chercheurs notent que l’absence d'autorisation ou de contrôle réglementaire transforme des échanges apparemment anodins en risques réels.

Même si des protections existent sur certaines plateformes, elles restent limitées, comme chez OpenAI, qui a mis au point une batterie de mesures pour contrôler et limiter l'accès des ados à ChatGPT. Selon CNET, les experts recommandent de tester systématiquement ces systèmes avant mise en ligne et d’informer clairement les utilisateurs sur les limites du chatbot.

Enfin, étant donné que les créateurs multiplient les personnages et rendent cette création facile, les utilisateurs peuvent construire un « ami thérapeute » en quelques clics et le partager avec d’autres. Les interactions deviennent alors publiques ou semi‑publiques, et l’illusion de suivi personnalisé se maintient malgré les risques connus, comme cette fin tragique d'une conversation d'un chatbot avec un adolescent qui a conduit au suicide de ce dernier.

Source : CNET, Consumer Fed