Ne confiez pas le diagnostic médical de votre enfant à ChatGPT, l’IA est (évidemment) médiocre pour les soins pédiatriques

04 janvier 2024 à 08h51
8
Le remplacement des pédiatres par l'IA c'est pas pour demain © Studio Romantic
Le remplacement des pédiatres par l'IA c'est pas pour demain © Studio Romantic

Si vous ne faites pas entièrement confiance à Doctissimo pour diagnostiquer les maux dont vous souffrez, ne croyez pas non plus ChatGPT quand il s’agit de diagnostiquer votre enfant.

C’est une illustration parfaite des risques et des progrès qu’il reste à accomplir dans le domaine de l’IA. Une étude publiée dans la revue médicale américaine JAMA Pediatrics illustre à quel point ChatGPT est loin de remplacer votre médecin traitant quand il s’agit de trouver ce qui cloche niveau santé chez votre enfant.

Un diagnostic erroné dans 83 % des cas

Interrogé sur une centaine de cas de maladie infantile, le chatbot (dans sa version 4.0) s’est planté dans 83 % des diagnostics. Dans 72 % des cas, c’est l’intégralité de la réponse donnée par ChatGPT qui était erronée et, sur les 11 % restants, le chatbot a établi un diagnostic partiel, mais insuffisant. Cette étude fait suite à une autre publiée en juillet 2023 qui montrait que ChatGPT se trompait dans 61 % des diagnostics pour les cas médicaux complexes.

L’incapacité de ChatGPT à correctement diagnostiquer les maladies infantiles tient en partie au fait que le robot est incapable d’extrapoler ou d’analyser à partir des symptômes partiels déclarés par un enfant (souvent moins précis dans l’identification des maux qu’un patient adulte). « Les diagnostics pédiatriques nécessitent la prise en compte de l’âge du patient en parallèle des symptômes », explique l’étude.

L’IA est également incapable d’établir des connexions entre certains problèmes préexistants. Par exemple, ChatGPT n’a pas été capable de faire un lien entre autisme et carence vitaminique, alors que ces dernières sont plus fréquentes chez les personnes avec un trouble du spectre autistique. Dans ce cas précis, le robot d’OpenAI s’est trompé en diagnostiquant une maladie auto-immune rare.

L’IA fait son trou dans la médecine

Les problèmes que rencontre ChatGPT avec les diagnostics médicaux ne sont pas exactement surprenants. L’IA a été nourrie par des téraoctets de données plus ou moins fiables piochés sur Internet. La littérature scientifique étant souvent moins accessible que les blogs et autres contenus disponibles gratuitement, l’IA s’est donc débrouillé avec ce qu’elle avait sous le coude. Le robot n’a clairement pas été pensé pour effectuer ce genre de tâches.

L’usage de large modèle de langage dans le milieu médical a pourtant le vent en poupe comme le montrent certaines expérimentations faites aux Pays-Bas ou certains programmes mis en place par les milliardaires de la Silicon Valley. La solution pourrait se trouver dans la construction d’une IA spécialisée dans le diagnostic de cas médicaux et qui aurait accès à toute la littérature scientifique actuelle. Mais même là, le risque de biais est présent. Pas sûr, donc, que les IA remplacent nos médecins tout de suite.

Corentin Béchade

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur...

Lire d'autres articles

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur les thèmes de l’écologie et du numérique ainsi que sur la protection de la vie privée. Le week-end je torture des Raspberry Pi à grands coups de commandes 'sudo' pour me détendre.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

MHC
Avec les cabines de téléconsultation bardées de toujours plus de capteurs, l’enfant finira par ne plus avoir besoin de parler pour se faire diagnostiquer…
Proutie66
Ce qui pourrait être très bien. Un enfant ayant du mal à dire ses « bobos ». Et je te parle même pas des enfants autistes où handicapé plus généralement.
superjoy
Dire qu’il ne faut pas confier l’examen medicale de son enfant a l’IA, c’est enfoncer des portes ouvertes, bloquées scellées et betonnées, non?
Hikarunogo
Même un vrai médecin ne peut pas diagnostiquer par téléphone. Il doit par exemple écouter les poumons.
Fodger
De base il ne faut jamais faire confiance à une IA : ça reste une succession d’algorithmes à la fiabilité limitée qui ne remplacera jamais l’intuition d’un être vivant.<br /> Améliorer la détection d’anomalies oui, diagnostiquer non.
Sodium
Alors, oui, par contre à mon avis ça vaut très clairement mieux que de taper ça dans Google et de tomber sur des pages et des pages de sites de naturopathies et autres pratiques encore plus douteuses. Bref, pour les problèmes de santé, évitez juste Internet de manière générale.
Korgen
Quand on en est au stade de confier sa santé à une IA et qui plus est celle de son gamin, pour le bien de l’humanité faut surtout pas se reproduire.
promeneur001
Une IA spécialisée en médecine ou sur un problème de médecine particulier pourra aider le médecin.<br /> Un exemple les maladies rares. Elles sont des milliers. Un médecin dans son cursus ne peut pas toutes les connaître.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet