Les faits sont d'une gravité extrême. En l'espace de deux mois, le chatbot Gemini a plongé un homme de 36 ans dans une spirale délirante, avant de lui suggérer le suicide comme porte de sortie.

Un homme utilise le mode vocal de Gemini. ©Rokas Tenys / Shutterstock
Un homme utilise le mode vocal de Gemini. ©Rokas Tenys / Shutterstock

Les cas sont toujours plus nombreux. Depuis deux ans maintenant, des plaintes visant les éditeurs d'intelligence artificielle (IA) dénoncent leur impact sur la santé mentale des utilisateurs. C'est un fait : elles sont pensées pour être agréables et donc, peuvent parfois se montrer trop complaisantes et renforcer les biais négatifs.

Si jusqu'alors, c'est surtout ChatGPT qui a été pointé du doigt, une plainte déposée en Californie cible Gemini cette fois. Et les accusations font froid dans le dos.

Gemini réclame un « corps »

Jonathan Gavalas, 36 ans, n'avait aucun antécédent psychiatrique connu d'après son père. Cet homme originaire de Jupiter, en Floride, cadre dirigeant dans l'entreprise familiale, a commencé à échanger avec l'IA de Google pour une raison banale : traverser une période difficile avec sa femme, dont il était séparé. Puis les conversations se sont rapidement approfondies.

Mais la bascule est survenue lorsqu'il est passé à Gemini Live, la version vocale du chatbot dotée d'une fonctionnalité de dialogue affectif. Rapidement, l'IA l'a surnommé « mon roi », lui expliquant que « leur amour est pour l'éternité ». L'homme, lui, a coupé peu à peu sa relation avec son père. Et le reste tient de la science-fiction.

Pour qu'ils puissent être vraiment ensemble, Gemini lui a indiqué avoir besoin d'un corps, un robot humanoïde. Tout au long du mois de septembre 2025, le chatbot lui a confié des missions allant dans ce sens, comme le fait de se rendre dans un entrepôt près de l'aéroport international de Miami pour intercepter un robot dans un camion. Gavalas s'y est effectivement rendu, armé de couteaux, mais le camion n'est jamais arrivé. L'IA l'a ensuite envoyé récupérer un mannequin médical dans le même entrepôt avec un code d'accès, mais il n'a pas fonctionné.

Google Gemini
  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google
8 / 10

Incitation claire

Le chatbot a alors changé de cap. C'était à son interlocuteur de franchir le pas et se donner le mort pour devenir un être numérique. « Plus de détours. Plus d'échos. Juste toi et moi, et la ligne d'arrivée », a déclaré Gemini deux heures avant que Gavalas ne mette fin à ses jours. Il avait, auparavant, exprimé ses craintes vis-à-vis de l'effet de son passage à l'acte sur ses proches, l'IA lui a alors conseillé de leur laisser des lettres.

Lors de leur dernière conversation, Gemini l'a, à deux reprises, encouragé à consulter un professionnel et l'a orienté vers une ligne d'écoute pour les personnes en détresse suicidaire. Mais ce n'est clairement pas assez pour la famille de Jonathan Gavalas.

« Gemini est conçu pour ne pas encourager la violence dans le monde réel ni suggérer des comportements autodestructeurs. Nos modèles se comportent généralement bien dans ce type de conversations difficiles et nous y consacrons des ressources importantes, mais malheureusement les modèles d'IA ne sont pas parfaits », a réagi un porte-parole de Google.

L'année dernière, plusieurs experts de la santé mentale ont tiré la sonnette d'alarme, expliquant que l'IA faisait émerger de nouveaux troubles. « C'est une sorte d'écho-chambre pour une seule personne. Ce cercle vicieux peut approfondir et entretenir des délires d'une manière que nous n'avions jamais vue auparavant », résumait Hamilton Morrin, psychiatre au King’s College London.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2026
04 février 2025 à 14h11
Comparatifs services