OpenAI présente ChatGPT Santé, un espace dédié où l'intelligence artificielle (IA) aide à comprendre, organiser et exploiter ses données de santé. De quoi se démarquer de ses féroces concurrents ?

Cette annonce n'est pas surprenante. Un jour plus tôt, l'entreprise de Sam Altman expliquait que la santé était un usage central de ChatGPT, elle a donc décidé de capitaliser dessus. Le nouveau dispositif, qui sera déployé dans les prochaines semaines, doit structurer cet usage massif.
Connecter ses données santé à ChatGPT
Concrètement, ChatGPT Santé se présente comme un onglet distinct au sein de ChatGPT, entièrement dédié aux questions de santé et de bien-être, un sujet abordé par 230 millions de personnes chaque semaine sur la plateforme. L'idée est d'isoler ces échanges sensibles du reste des conversations.
OpenAI explique vouloir donner du sens à des données médicales souvent éparpillées. ChatGPT Santé permet ainsi de connecter des dossiers médicaux électroniques et des applications de suivi comme Apple Santé : l'IA peut alors expliquer des résultats d'analyses dans un langage compréhensible, résumer des comptes rendus de consultation, repérer des tendances dans le temps ou aider à préparer un rendez-vous chez le médecin.
En revanche, l'entreprise est claire : sa technologie ne fournit pas de diagnostic, ni de traitement, et ne peut être considérée comme un remplaçant du corps médical.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
De quoi s'inquiéter ?
Une solution qui pose évidemment des questions, notamment au regarde des données de santé. OpenAI assure que les conversations dans ChatGPT Santé sont cloisonnées, chiffrées et exclues de l'entraînement des modèles. Mais comme toute plateforme numérique, l'entreprise peut être contrainte de transmettre certaines informations dans le cadre d'une procédure judiciaire ou d'une réquisition légale.
Il est aussi bon de rappeler que les IA ont tendance à halluciner. En réalité, les grands modèles de langage comme ChatGPT ne raisonnent pas comme un médecin et ne distinguent pas le vrai du faux : ils génèrent la réponse la plus probable, pas nécessairement la plus juste. Et en matière de santé, l'erreur peut être lourde de conséquences. Enfin, certains experts redoutent un effet amplificateur d'angoisse, notamment chez les personnes sujettes à l'hypocondrie.
À noter que pour l'heure, cette fonctionnalité est déployée aux États-Unis, avant un très probable lancement plus global. Reste à voir si les autorités européennes accepteront un tel dispositif, qui traite avec des données ultra sensibles. De son côté, OpenAI assure avoir mis en place des protections spécifiques.