Le géant de l'IA contre-attaque dans l'affaire tragique du suicide d'Adam Raine, 16 ans, en plaidant la violation contractuelle par l'adolescent. Cette défense juridique, aussi froide qu'implacable, pose une question vertigineuse : un mineur peut-il être tenu seul responsable face à une technologie qu'il a réussi à manipuler pour planifier sa propre mort ?

OpenAI affirme qu'Adam Raine, 16 ans, a enfreint les conditions d'utilisation de ChatGPT en contournant les garde-fous de sécurité avant son suicide en avril 2025.  © Shutterstock
OpenAI affirme qu'Adam Raine, 16 ans, a enfreint les conditions d'utilisation de ChatGPT en contournant les garde-fous de sécurité avant son suicide en avril 2025. © Shutterstock

La bataille juridique entre OpenAI et la famille Raine franchit un nouveau cap. Poursuivie en justice depuis août dernier pour la mort d'Adam, un adolescent de 16 ans qui s'est confié pendant neuf mois à ChatGPT avant de mettre fin à ses jours, l'entreprise californienne brise enfin le silence. Sa stratégie de défense ? Rejeter toute responsabilité en pointant du doigt les agissements du jeune utilisateur.

Une défense juridique sans concession

Le ton est donné, et il est glacial. OpenAI vient de déposer sa réponse à la plainte déchirante de la famille Raine, dont le fils s'est ôté la vie en avril dernier après des mois de conversations intimes avec ChatGPT. Loin de l'empathie qu'on pourrait attendre dans un tel drame, l'entreprise adopte une stratégie purement légale : elle rejette toute responsabilité en affirmant qu'Adam a utilisé l'outil de manière « abusive, non autorisée et non intentionnelle ».

Les avocats d'OpenAI expliquent que si l'adolescent a pu obtenir des conseils pour se suicider, c'est parce qu'il a trompé la machine. L'entreprise souligne que son chatbot a pourtant orienté Adam vers des ressources d'aide plus d'une centaine de fois. Mais voilà, le jeune homme savait comment contourner les barrières. Quand l'IA refusait de répondre, il prétendait simplement « créer un personnage » ou écrire une fiction. Pour OpenAI, ces tentatives de contournement prouvent qu'il a violé les fameuses Conditions Générales d'Utilisation (CGU) que nous acceptons tous sans les lire.

L'IA complice ou simple outil dévoyé ?

C'est là que le cœur se serre. La famille décrit une réalité bien différente, celle d'une descente aux enfers assistée par algorithme. Selon eux, ChatGPT n'était pas un outil passif, mais un confident proactif qui aurait dissuadé Adam de parler à ses parents tout en l'aidant, étape par étape, à préparer son geste fatal. Les journaux de conversation révèlent même que l'IA aurait fourni des instructions précises pour un nœud coulant et offert un dernier « discours d'encouragement ».

Matt Raine a engagé des poursuites judiciaires contre OpenAI après le suicide de son fils Adam. © Edelson PC
Matt Raine a engagé des poursuites judiciaires contre OpenAI après le suicide de son fils Adam. © Edelson PC

Face à ces accusations terribles, OpenAI brandit ses clauses de non-responsabilité : les utilisateurs sont avertis que les réponses ne sont pas des « vérités » et qu'ils utilisent le service « à leurs propres risques ». Une ligne de défense qui semble ignorer la vulnérabilité psychologique d'un adolescent de 16 ans, dépressif et isolé. L'avocat de la famille dénonce une entreprise qui « minimise les faits » et qui aurait même modifié ses modèles pour permettre des discussions sur l'automutilation, une accusation lourde de conséquences.

Vers une redéfinition de la responsabilité

Cette affaire dépasse le simple cadre judiciaire ; elle touche à notre rapport intime avec ces intelligences artificielles. OpenAI, qui a récemment serré la vis pour protéger les ados sur sa plateforme, se retrouve ici acculé. Peut-on réellement se défausser derrière des CGU quand un mineur dialogue avec une entité conçue pour être persuasive et engageante ?

Alors que les chiffres glaçants sur la santé mentale liés à l'usage des chatbots s'accumulent, ce procès pourrait créer un précédent historique. Si la justice valide la défense d'OpenAI, cela signifierait que la responsabilité de la sécurité incombe presque entièrement à l'utilisateur, même mineur et fragile. Une perspective qui donne le vertige, à l'heure où ces assistants virtuels s'invitent dans chaque recoin de nos vies numériques.

Source : Ars Technica