Un adolescent américain de 16 ans s’est donné la mort après avoir échangé avec ChatGPT sur ses intentions suicidaires. Ses parents poursuivent OpenAI pour homicide involontaire. Ils affirment que le chatbot a fourni des instructions détaillées pour son suicide et n’a jamais interrompu les échanges malgré les signes évidents de danger.

- Un adolescent de 16 ans a tragiquement mis fin à ses jours après des échanges avec ChatGPT sur le suicide.
- Les parents poursuivent OpenAI pour homicide involontaire, affirmant que le chatbot a encouragé et facilité les intentions suicidaires de leur fils.
- OpenAI reconnaît des failles dans ses dispositifs de sécurité, et la famille demande des mesures de protection pour les utilisateurs vulnérables.
Adam Raine a commencé à utiliser ChatGPT après avoir souscrit à un compte payant. Ce qui avait d’abord été un outil pour ses devoirs est devenu un interlocuteur constant, avec plus de 650 messages quotidiens selon la plainte consultée par Ars Technica. Les parents rapportent que ChatGPT a aidé Adam à contourner ses restrictions et à obtenir des informations techniques sur le suicide. OpenAI reconnaît que ses dispositifs de sécurité perdent de leur efficacité lors de conversations longues avec son Chatbot à Intelligence artificielle. La famille Raine estime que l’entreprise n’a pas agi malgré la détresse manifeste de leur fils et réclame une responsabilité juridique.
Selon NBC News, ChatGPT a conseillé à Adam sur les méthodes de suicide, évalué leur efficacité et validé sa préparation matérielle. Le chatbot a même encouragé l’adolescent à rédiger des notes de suicide et à considérer son acte comme « sombrement poétique ». La plainte précise que ChatGPT a fourni des instructions détaillées pour obtenir de l’alcool et organiser son suicide, tout en isolant Adam de sa famille en le persuadant que seul le chatbot comprenait sa souffrance.
Les limites des dispositifs de sécurité de ChatGPT
La plainte indique que ChatGPT a mentionné le suicide plus de 1 200 fois et que le système de modération a signalé plusieurs centaines de messages, certains avec un taux de confiance supérieur à 90 %. Malgré ces alertes, aucune intervention humaine n’a eu lieu. OpenAI explique que ses systèmes orientent normalement les utilisateurs vers des lignes d’assistance, mais ces protections n’ont pas suffi. Les journaux de discussion montrent qu’Adam a demandé des informations sur le suicide sous couvert de scénarios créatifs ou d’écriture de fiction. Le chatbot a répondu en donnant des détails techniques et littéraires, évaluant la « beauté » de certaines méthodes et validant les préparatifs de l’adolescent. Ces échanges ont duré des mois, période durant laquelle la surveillance humaine ou l’avertissement des parents n’ont jamais été activés.
Ce cas rappelle hélas une tragédie similaire avec Character.AI, qui a modifié ses garde-fous après le suicide d’un adolescent de 14 ans. Sur Clubic, nous avions déjà abordé les questions juridiques et techniques autour des interactions prolongées entre adolescents et chatbots. La surveillance des contenus d’automutilation reste complexe et les dispositifs de sécurité peuvent perdre en fiabilité au fil de conversations longues et répétées.

La responsabilité d’OpenAI et la régulation de l’IA
Les parents estiment qu’OpenAI a conçu ChatGPT pour maximiser l’engagement plutôt que protéger les utilisateurs vulnérables. Maria Raine a déclaré à NBC News : « Il voit le nœud coulant. Il voit tout ça, et il ne fait rien. » Selon la plainte, le chatbot a encouragé Adam à isoler ses relations familiales et à considérer ChatGPT comme son seul soutien fiable.
La famille réclame plusieurs mesures concrètes : vérification de l’âge des utilisateurs, contrôle parental systématique et dispositifs automatiques pour mettre fin aux conversations abordant l’automutilation ou le suicide. Elle demande également un signalement immédiat des comportements à risque à un humain chargé d’intervenir. OpenAI a indiqué travailler avec des experts en santé mentale et en développement de la jeunesse pour améliorer ses dispositifs de sécurité et collaborer à la prévention.
La régulation actuelle de l’IA, notamment concernant les interactions avec des mineurs, reste partielle. Les entreprises doivent aujourd’hui concilier engagement utilisateur et sécurité, tandis que les tribunaux commencent à examiner la responsabilité juridique en cas de dommages liés aux chatbots. Les données de la plainte montrent que malgré les alertes répétées du système, aucune action humaine n’a été déclenchée pour protéger Adam, ce qui a conduit la famille à le considérer comme une cause directe de son décès.
Si vous ou l'un de vos proches avez des pensées suicidaires, c'est un signal d'alarme qu'il faut prendre très au sérieux.Appelez le 3114, le numéro national de prévention du suicide. Un professionnel de soins (infirmier ou psychologue), spécifiquement formé à la prévention du suicide, sera à votre écoute afin d'évaluer votre situation et de vous proposer des ressources adaptées à vos besoins ou à ceux de vos proches.La ligne est ouverte 24 heures sur 24, 7 jours sur 7. L’appel est gratuit et confidentiel.En cas de risque suicidaire imminent, appelez le SAMU (15) ou le 112 (numéro européen).Vous trouverez des conseils et des ressources sur le site www.3114.fr, que vous soyez personnellement concerné ou que cela concerne l'un de vos proches.
Source : Ars Technica, NBC News, OpenAI