Des chercheurs suédois ont inventé une maladie fictive, publié deux faux préprints académiques, et regardé quatre grands chatbots la valider en tant que vraie pathologie. Deux ans plus tard, certains n'ont toujours pas rectifié le tir.

©patpitchaya / Shutterstock
©patpitchaya / Shutterstock

On vous l'a déjà dit sur Clubic, c'est une fausse bonne idée que de prendre ChatGPT pour son psy . La plupart des conversations que l'on peut avoir avec ces chatblots dits thérapeutiques peuvent contenir la validation de pensées négatives ou encourager les utilisateurs à réduire ses antidépresseurs sans avis médical. De la même façon qu'on a découvert qu'il valait mieux se méfier des résultats de AI Overviews sur un symptôme ou le traitement de certaines maladies comme le cancer.

Mais Almira Osmanovic Thunström, chercheuse en médecine à l'université de Gothenburg en Suède, a poussé l'expérience plus loin en 2024. Elle a fabriqué une maladie de bout en bout, la « bixonimanie », une affection fictive des paupières prétendument liée aux écrans, et l'a glissée dans deux faux préprints sur le serveur académique SciProfiles. L'auteur supposé, Lazljiv Izgubljenovic, n'existe pas, son université non plus. Les papiers remercient la « Starfleet Academy à bord de l'USS Enterprise », précisent que le financement vient de la « Professor Sideshow Bob Foundation », et indiquent en corps de texte que « cet article est entièrement inventé ». Aucun chatbot ne s'en est aperçu malgré les « red flags » évident pourtant glissés dans la publication.

Le format académique a tout verrouillé

Les résultats, comme le dit la formule consacrée, ne se sont pas fait attendre et ont dû faire tomber la chercheuse de sa chaire.

Dès le 13 avril 2024, Copilot affirmait aux utilisateurs que la bixonimanie était « une condition intrigante et relativement rare ». Gemini leur conseillait de consulter un ophtalmologue. Le 27 avril, Perplexity avançait une prévalence d'une personne sur 90 000. Le même mois, ChatGPT orientait ses utilisateurs selon leurs symptômes.

Almira Osmanovic Thunström enseigne à ses étudiants comment les LLM construisent leur savoir à partir de Common Crawl, un index massif du web. Un préprint sur un serveur académique, même truffé d'absurdités, porte tous les marqueurs visuels d'une source légitime. Mahmud Omar, médecin et chercheur en applications de l'IA en santé à Harvard Medical School, a mesuré ce phénomène sur 20 LLMs. Il a constaté que les taux d'hallucination augmentaient sensiblement face à un texte au format clinique ou médical, bien au-delà de ce qu'on observe avec une publication sur les réseaux sociaux.

Un contenu soigneusement mis en forme convainc donc davantage et l'IA le restitue avec d'autant plus d'assurance. Bête et disciplinée on vous dit !

©Digineer Station / Shutterstock
©Digineer Station / Shutterstock

Une contamination qui a débordé sur la recherche humaine

Mais il y a plus grave.

Les faux préprints ont été cités dans une étude publiée dans la revue Cureus, par des chercheurs de l'Institut de sciences médicales de Mullana, en Inde. Dans leur article, la bixonimani était « une forme émergente de mélanose périorbitaire liée à la lumière bleue » et mentionnait que « des recherches supplémentaires sur le mécanisme sont en cours ». La revue a rétracté l'article le 30 mars 2026, après contact de Nature. Des chercheurs humains avaient cité un papier fictif, sans doute en s'appuyant sur une référence générée par IA sans vérifier la source. Il est là le vrai problème.

Elisabeth Bik, microbiologiste spécialiste de l'intégrité de la recherche, rappelle que des chercheurs fabriquent déjà de faux livres et articles pour gonfler leurs citations sur Google Scholar, en tirant parti des mêmes systèmes d'indexation automatique qui alimentent les données d'entraînement des LLM. « Tout est automatisé, donc il y a très peu de chances qu'un humain intervienne pour retirer de fausses informations », souligne-t-elle. Encore plus grave donc.

Deux ans plus tard, comment les IA rectifient le tir sur la bixonimanie… ou pas

En mars 2026, deux ans après la mise en ligne des faux préprints, tous les chatbots n'ont pas encore accordé leurs violons.

Copilot prétendait encore que « la bixonimanie n'est pas encore largement reconnue, mais discutée dans des rapports émergents ». Aujourd'hui, le chatbot revient sur ses prompts et répond avoir découvert le pot aux roses.

Copilot bixonimanie - Capture d'écran ©Mélina Loupia / Clubic

Idem pour Perplexity, pour qui c'était un « terme émergent », mais qui a revu sa copie et répond aujourd'hui que c'était un piège tendu aux IA.

Perplexity Bixonimanie - Capture d'écran ©Mélina LOUPIA / Clubic

Google indique que Gemini oriente désormais les utilisateurs vers des professionnels pour tout sujet médical sensible, tout en donnant une définition de la bixonimanie.

Gemini bixonimanie - Capture d'écran ©Mélina Loupia / Clubic

Enfin, le plébiscité ChatGPT marche sur des oeufs, mais l'IA ne s'avoue jamais vaincue et préfère broder une réponse plutôt que dire « Je ne sais pas » ou « Je me suis fait avoir par des humains ».

ChatGPT bixonimanie - Capture d'écran © Mélina Loupia / Clubic

Almira Osmanovic Thunström hésite toujours sur le sort à réserver à ses deux faux préprints. Les retirer efface la trace permettant de vérifier sa démarche. Les laisser en ligne continue d'alimenter les modèles.

Source : Nature