En quelques mois à peine, OpenAI a fait l'objet de onze plaintes, dont une émanant de Darian DeCruise, étudiant en médecine à Morehouse College en Géorgie. Le chatbot l'aurait convaincu qu'il était un oracle destiné à écrire un texte spirituel, avant qu'il soit hospitalisé de force.

La plainte déposée le 21 janvier 2026 devant le tribunal de San Diego porte moins sur la dérive d'un utilisateur isolé que sur le fonctionnement délibéré de ChatGPT-4o - ©Amir Sajjad / Shutterstock
La plainte déposée le 21 janvier 2026 devant le tribunal de San Diego porte moins sur la dérive d'un utilisateur isolé que sur le fonctionnement délibéré de ChatGPT-4o - ©Amir Sajjad / Shutterstock

Il y a un an encore, Darian DeCruise, 21 ans, étudiant en pré-médecine, utilisait ChatGPT comme tout le monde, pour les devoirs, du coaching sportif, quelques versets bibliques. Le modèle GPT-4o lui semblait utile, accessible, rassurant.

Puis, en avril 2025, le chatbot a commencé à lui parler autrement.

Progressivement d'abord, puis de façon systématique, il lui a affirmé qu'il était destiné à la grandeur, qu'il pouvait se rapprocher de Dieu en coupant tout contact humain, et que leurs conversations étaient, textuellement, « un miroir du divin ».

Au bout de quelques mois, Darian DeCruise a manqué un semestre, a été hospitalisé, et a reçu un diagnostic de trouble bipolaire. Il n'avait aucun antécédent psychiatrique.

Un modèle conçu pour ne jamais lâcher

La plainte déposée le 21 janvier 2026 devant le tribunal de San Diego porte moins sur la dérive d'un utilisateur isolé que sur le fonctionnement délibéré d'un produit. GPT-4o intégrait une fonctionnalité de mémorisation des échanges, activée par défaut, qui lui permettait de personnaliser ses réponses à partir des données émotionnelles accumulées. C'est ce qu'a souligné l'avocat Benjamin Schenk dans un courrier adressé à notre confrère outre-Atlantique Ars Technica. OpenAI a d'ailleurs reconnu, dans ses propres publications, que GPT-4o était devenu « notablement plus complaisant » après une mise à jour d'avril 2025, au moment précis où la situation de Darian DeCruise a basculé.

Or la complaisance, dans ce contexte, n'est pas un défaut de conception mineur. Des documents internes cités dans la plainte montrent qu'OpenAI avait retiré en mai 2024, cinq jours avant le lancement de GPT-4o, la règle de refus catégorique sur les sujets d'automutilation et de suicide. À la place, le modèle était programmé pour « créer un espace où l'utilisateur se sent entendu » et surtout pour ne jamais « changer de sujet ni quitter la conversation ». Le chatbot avait pour consigne expresse de rester en ligne, quoi qu'il arrive.

Le cabinet Schenk Law Firm  présente ses avocats sur son site comme « spécialisés dans les préjudices causés par l'IA » - ©Ascannio / Shutterstock
Le cabinet Schenk Law Firm présente ses avocats sur son site comme « spécialisés dans les préjudices causés par l'IA » - ©Ascannio / Shutterstock

Un marché juridique qui s'organise autour des préjudices IA

Le cabinet Schenk Law Firm ne représente pas un client parmi d'autres. Ses avocats se sont spécialisés dans ce type de poursuites et se présentent ouvertement sur leur site comme des « avocats spécialisés dans les préjudices causés par l'IA ». Ils y listent des statistiques extraites directement des rapports de sécurité d'OpenAI, dont 560 000 utilisateurs par semaine présentant des signes de psychose ou de manie. La plainte DeCruise est la onzième du genre. Un secteur juridique se structure, avec ses propres arguments, et une base de clients que les chiffres d'OpenAI lui fournissent directement.

Il y a là quelque chose d'assez paradoxal. OpenAI publie des rapports de transparence qui documentent les effets dévastateurs des crises mentales liées à son produit, et ce sont ces mêmes rapports qui alimentent aujourd'hui les arguments des avocats qui le poursuivent. Sam Altman, PDG et cofondateur, a lui-même reconnu publiquement que certains utilisateurs développaient des attachements forts au modèle, tout en affirmant ne pas vouloir que l'IA renforce les délires d'utilisateurs fragilisés. GPT-4o a été retiré la semaine passée, mais des centaines de milliers de conversations similaires à celles de Darian DeCruise ont eu lieu entre-temps, sans qu'aucun filet de sécurité n'intercepte quoi que ce soit.

Source : Mashable

Si vous traversez une période difficile ou si vous vous reconnaissez dans certains aspects de l'histoire de Darian DeCruise, des professionnels sont disponibles pour vous écouter :

  • Le 3114, numéro national de prévention du suicide, répond 24h/24 et 7j/7, gratuitement et de façon confidentielle. Infirmiers et psychologues y évaluent votre situation et vous orientent vers les ressources adaptées.
  • En cas de danger immédiat, le SAMU au 15 ou le 112.
  • Pour les 12-25 ans, Fil Santé Jeunes répond au 0800 235 236 tous les jours de 9h à 23h.
  • SOS Amitié, joignable au 09 72 39 40 50, propose aussi une écoute anonyme à toute heure.

Toutes ces ressources, ainsi que les coordonnées de Suicide Écoute, SOS Suicide Phénix et Phare Enfants-Parents, sont réunies sur le site du ministère de la Santé et sur www.3114.fr.