OpenAI veut faire de ChatGPT un allié de santé au quotidien, pendant que Google essuie des critiques avec ses réponses IA intégrées à la recherche. Les IA généralistes ne remplaceront pas de sitôt votre médecin, mais le secteur n'échappera pas à une transformation de la chaine de soins.

Les chiffres publiés par OpenAI montrent que la santé est déjà un usage central de ChatGPT, notamment aux États‑Unis. En parallèle, les dérapages des AI Overviews de Google rappellent qu’une mauvaise réponse affichée en haut des résultats peut avoir des conséquences très concrètes.
OpenAI prépare le terrain pour une IA dédiée
Dans un récent rapport, OpenAI affirme que plus de 40 millions de personnes posent chaque jour des questions liées à la santé à ChatGPT, soit un peu plus de 5% de l’ensemble des messages reçus par le service. L’entreprise indique qu’environ un quart des utilisateurs réguliers envoient au moins une requête médicale par semaine, et qu’aux États‑Unis, près de 60% des adultes déclarent avoir utilisé une IA pour des questions de santé ou de système de soins au cours des trois derniers mois.
OpenAI détaille aussi la nature de ces échanges. Environ 55% des adultes américains qui ont utilisé une IA pour leur santé disent l’avoir fait pour comprendre des symptômes, tandis que près de deux millions de messages hebdomadaires concernent les arcanes de l’assurance maladie outre-Atlantique : franchises, refus de prise en charge, explications de facture. Autre point intéressant : le rapport précise que sept conversations sur dix autour de la santé ont lieu en dehors des heures normales de consultation, et que les personnes vivant à plus de 30 minutes d’un hôpital comptent parmi les utilisateurs les plus actifs. L'IA entretiendrait-elle l'hypocondrie ?
Quoi qu'il en soit, en partant de ce constat, OpenAI tente de la jouer finement et, plutôt que de positionner son IA comme une alternative aux médecins, l'entreprise présente ChatGPT comme un outil d’appoint qui aide à préparer un rendez‑vous, à mieux formuler ses questions au spécialiste, à distinguer une situation urgente d’un simple besoin de consultation, ou encore à décrypter les documents administratifs liés aux soins. L’entreprise affirme disposer d’une équipe dédiée à la santé, travailler avec des cliniciens pour tester ses modèles et explique que GPT‑5 réduit plusieurs "modes d’échec" identifiés, comme les hallucinations en situation urgente ou les erreurs liées à des contextes médicaux non américains. Le rapport ne donne toutefois pas de taux d’erreur mesuré en conditions réelles, ce qui laisse un peu perplexe sur la fiabilité réelle de ces réponses.
Surtout, OpenAI commence déjà à parler de régulation. Le document plaide pour l’ouverture et l’interconnexion sécurisée des grandes bases de données médicales publiques, afin d’entraîner les modèles sur "des décennies de recherche", pour des infrastructures de laboratoires expérimentaux assistés par IA, ainsi que pour de nouveaux cadres de la réglementation afin de permettre des dispositifs médicaux intégrant des assistants grand public. On a donc bien compris l'objectif : intégrer et normaliser ChatGPT dans la chaîne de soins, tout en restant officiellement positionné comme un simple allié des patients et des professionnels.
L'IA reste incapable de remplacer le médecin
Chez Google, la situation est plus délicate. The Guardian a mené une enquête sur les AI Overviews, ces réponses synthétiques générées par l'IA de Gemini tout en haut des résultats de recherche. Des questions liées à l’alimentation de patients atteints d’un cancer, à des tests de la fonction hépatique ou à la santé des femmes ont donné lieu à des réponses fausses ou incomplètes, parfois en contradiction avec les recommandations médicales. Pour un internaute, la nuance entre une synthèse d’IA et une recommandation fiable est difficile à percevoir, surtout lorsque l’encart est mis en avant par Google dans ses résultats.
L'une des personnes interrogées explique par exemple :
La réponse de l’IA de Google suggère aux personnes atteintes d’un cancer du pancréas d’éviter les aliments riches en graisses et fournit une liste d’exemples. Cependant, si quelqu’un suivait ce que le résultat de recherche indique, il pourrait ne pas consommer suffisamment de calories, avoir du mal à prendre du poids et être incapable de supporter la chimiothérapie ou une opération potentiellement vitale.
De son côté, Futurism rappelle une étude menée par l'université de Pennsylvanie selon laquelle près de huit adultes sur dix se disent prêts à chercher des informations de santé en ligne, et qu’environ deux tiers jugent les réponses générées par l’IA plutôt fiables. Mais, ils sont nettement moins à l’aise avec l’idée que leurs soignants utilisent ces mêmes outils en coulisse. Un autre rapport du MIT (PDF) montre que des participants jugent "valides" des réponses médicales objectivement peu fiables, avec une tendance à suivre ces conseils, y compris lorsqu’ils les poussent à consulter sans raison ou, au contraire, à retarder une vraie consultation.
Nous rapportions en mai 2025 une étude menée notamment par l’université d’Oxford, laquelle montrait que des modèles comme GPT‑4o, Llama 3 ou Command R+ avaient tendance à sous‑évaluer la gravité de certains symptômes et à proposer des avis potentiellement dangereux lorsqu’ils étaient sollicités comme "médecins virtuels". Les chercheurs parlaient d’un "faux dialogue", où des descriptions imprécises côté utilisateur et des extrapolations côté modèle conduisent à des recommandations à côté de la plaque.
Une IA médicale, voilà donc un sujet encore très sensible. Pour l'heure, l’enjeu n’est donc pas de savoir quelle IA nous offre la meilleure réponse, mais plutôt de définir la manière dont ces outils doivent s'intégrer dans la chaine de soins sans pour autant franchir la ligne rouge du diagnostic ou de la prescription, laquelle reste, pour l’instant, la responsabilité des professionnels de santé.