Dix patients blessés, des crânes perforés, des AVC provoqués par des artères sectionnées. Depuis que l'intelligence artificielle assiste les chirurgiens, les erreurs s'accumulent dans les blocs opératoires américains.

Entre l'étudiant qui consulte ChatGPT faute de senior disponible et le chirurgien guidé par un algorithme défaillant, l'hôpital devient un immense terrain d'expérimentation où personne n'a signé de consentement éclairé. © Shutterstock
Entre l'étudiant qui consulte ChatGPT faute de senior disponible et le chirurgien guidé par un algorithme défaillant, l'hôpital devient un immense terrain d'expérimentation où personne n'a signé de consentement éclairé. © Shutterstock

Il y a quelques jours encore, ChatGPT se présentait comme une solution miracle pour soulager les urgentistes débordés. Mais une enquête de Reuters publiée le 9 février révèle l'autre face de cette médaille numérique. Entre fin 2021 et novembre 2025, au moins dix personnes ont été blessées lors d'interventions assistées par des dispositifs dopés à l'IA. Le constat est brutal : l'agence américaine du médicament recense désormais une centaine de dysfonctionnements depuis l'intégration de ces algorithmes, contre seulement sept incidents en trois ans avant leur arrivée.

Quand l'algorithme perd le nord dans le cerveau

Le système TruDi Navigation, fabriqué par Acclarent (filiale de Johnson & Johnson), cristallise les inquiétudes. Cet outil censé guider les chirurgiens lors d'opérations du crâne a fourni des informations erronées sur la position des instruments à l'intérieur de la tête des patients. Les conséquences ? Un patient s'est retrouvé avec du liquide cérébrospinal s'écoulant par le nez. Un autre a subi une perforation de la base du crâne. Deux personnes ont fait des AVC après qu'une artère majeure ait été accidentellement lésée.

Le problème ne se limite pas au bloc opératoire. L'agence fédérale américaine a également reçu seize signalements concernant des moniteurs cardiaques de Medtronic qui n'ont pas détecté de rythmes anormaux. Un logiciel d'échographie prénatale, Sonio Detect de Samsung Medison, confond carrément les parties du corps du fœtus. La Food and Drug Administration a autorisé 1 357 dispositifs médicaux intégrant de l'IA, soit deux fois plus qu'en 2022.

Le marketing avant la sécurité

L'affaire TruDi met en lumière une dérive inquiétante. Selon un procès en cours au Texas, l'ancien président d'Acclarent aurait poussé à intégrer l'IA « comme outil marketing » pour prétendre que le dispositif embarquait « une technologie nouvelle ». Le logiciel utilise l'apprentissage automatique pour identifier des segments anatomiques et calculer le « chemin le plus court » entre des points définis par le médecin. Sauf que cette promesse d'optimisation se heurte à un problème bien connu des spécialistes : les « hallucinations » des modèles d'IA, qui génèrent parfois des informations totalement fausses.

La FDA tente de colmater les brèches. Ses scientifiques s'efforcent de « casser » les modèles d'IA en les testant dans différents scénarios cliniques pour vérifier si leurs performances se dégradent avec le temps. Mais cette course-poursuite arrive après le déploiement, pas avant. Les deux patients victimes d'AVC ont déjà engagé des poursuites, affirmant que le produit était « probablement plus sûr avant l'intégration de l'IA ».

Source : Reuters