Un homme de 60 ans s'est retrouvé en psychiatrie après avoir suivi les recommandations erronées de l'IA, de ChatGPT plus particulièrement. Suffisant pour lancer une mise en garde sur les limites des assistants virtuels.

Un homme a été piégé par les conseils de ChatGPT sur un subtitut au sel © 9dream studio / Shutterstock
Un homme a été piégé par les conseils de ChatGPT sur un subtitut au sel © 9dream studio / Shutterstock

L'intelligence artificielle peut s'avérer très utile, mais elle n'a décidément pas toutes les réponses, surtout en matière de santé. Un sexagénaire américain en a fait les frais de manière spectaculaire, en remplaçant le sel de table par une substance toxique, sur les conseils du bon ChatGPT. Son expérience personnelle s'est ainsi transformée en véritable cauchemar médical, de quoi alerter sur les dangers d'une confiance aveugle envers les algorithmes qui guident de plus en plus notre quotidien.

Quand ChatGPT confond sel de cuisine et produit industriel

La mésaventure, révélée par le New York Post, a fait l'objet d'une analyse dans la prestigieuse revue Annals of Internal Medicine Clinical Cases. Dans cette dernière, les experts évoquent notre rapport aux conseils numériques. Mais revenons un instant aux faits.

Inquiet des effets du sel (chlorure de sodium) sur sa santé, le quinquagénaire s'était tourné vers l'assistant virtuel d'OpenAI. Mais il a fait une erreur de casting, puisque ChatGPT lui aurait recommandé de troquer son sel habituel contre du bromure de sodium.

Pourtant, l'homme, ancien étudiant en nutrition, pensait maîtriser les enjeux alimentaires de cette substitution. Il commande donc ce qu'il faut sur Internet, convaincu d'améliorer rapidement son quotidien. Sauf que le bromure de sodium, malgré son apparence trompeuse, n'a rien d'un condiment anodin : ce composé chimique sert principalement au nettoyage industriel et, parfois, à certains usages médicaux très spécifiques.

Du bromisme à l'hospitalisation psychiatrique forcée

Pendant trois mois, l'homme a scrupuleusement suivi ce régime supposé sain, sans se douter qu'il s'empoisonnait progressivement. Les premiers signes d'alerte sont apparus sous forme de soif intense et de troubles de la coordination, symptômes qu'il n'a pas immédiatement reliés à son changement alimentaire. Il a fini par être hospitalisé pour de graves troubles psychiatriques.

Il faut savoir qu'aujourd'hui, autour d'un Américain sur trois consulte déjà l'IA pour ses questions de santé, selon une enquête récente. Paradoxalement, 63% d'entre eux font davantage confiance aux algorithmes qu'aux réseaux sociaux, même si les médecins conservent fort heureusement leur crédibilité à 93%. Mais la démocratisation de l'intelligence artificielle médicale inquiète même dans les rangs d'OpenAI, le développeur de ChatGPT, qui rappelle clairement que son robot conversationnel « n'est pas destiné au diagnostic ou au traitement d'un quelconque problème de santé ».

Les experts parlent désormais de « psychose ChatGPT », un phénomène où l'interaction prolongée avec les chatbots génère des troubles psychologiques sévères. Notre patient en est ici un exemple frappant, puisqu'il a développé des idées délirantes après des mois d'empoisonnement progressif.

Les médecins qui l'ont pris en charge tirent une conclusion sans appel : les systèmes d'IA actuels « peuvent générer des inexactitudes scientifiques » et « alimenter la propagation de désinformation », surtout en matière de santé. Un professionnel qualifié n'aurait jamais évoqué le bromure de sodium en ayant face à lui un patient à la recherche d'une alternative au sel ordinaire.