Des informations inexactes sur des maladies et traitements se sont retrouvés dans des résumés fournis par Google AI Overviews. Ces recommandations ont pu induire les patients en erreur et compliquer leur prise en charge médicale.

Ce sont nos confrères outre-Manche de The Guardian qui ont levé ce lièvre. Ils ont recensé plusieurs cas dans lesquels Google AI Overviews a fourni des informations sur la santé qui s’avéraient incorrectes ou dangereuses. Ce service, déployé pour résumer automatiquement les résultats du moteur de recherche, a présenté des recommandations sur des cancers, des maladies du foie et des troubles psychiques. Certaines indications contredisaient même les pratiques médicales établies et auraient pu nuire à des patients en suivant ces conseils.
Les résumés de Google AI Overviews peuvent induire en erreur sur des maladies graves et les traitements
Et lorsqu'on lit les résultats, il y a de quoi tomber de sa chaise.
Pour le cancer du pancréas, AI Overviews a suggéré aux patients d’éviter les aliments riches en matières grasses. Anna Jewell, directrice du Pancreatic Cancer UK, a alerté que suivre ce conseil risquait de diminuer l’apport calorique, de limiter la prise de poids et de compromettre la tolérance à la chimiothérapie ou à une chirurgie vitale. L’exemple a été qualifié de « vraiment dangereux ».
Des informations incorrectes ont également concerné les tests de dépistage du cancer chez les femmes. Le service a cité le frottis comme méthode pour détecter un cancer vaginal, alors que cet examen sert à dépister le cancer du col de l’utérus. Athena Lamnisos, directrice de l’Eve Appeal, a expliqué que les résultats variaient selon le moment de la recherche et selon les sources sélectionnées par l’IA et que cet écart pouvait créer une incohérence dans les réponses reçues par les internautes.
Des séries de chiffres sur les tests hépatiques ont été fournies sans tenir compte de la nationalité, du sexe, de l’âge ou de l’origine ethnique des patients. Pamela Healy, directrice de la British Liver Trust, a souligné que ces indications pouvaient amener des personnes souffrant de maladies hépatiques graves à se croire en bonne santé et à différer leur suivi médical.
Enfin, les résumés relatifs aux troubles psychiques et aux troubles alimentaires ont également produit des conseils incorrects et potentiellement dangereux. Stephen Buckley, responsable de l’information chez Mind, a noté que certains utilisateurs pouvaient recevoir des indications les incitant à éviter de chercher de l’aide ou à accéder à des sources inappropriées, amplifiant le risque pour leur santé mentale.

La mise en garde de Google sur ses aperçus IA et les risques
Les erreurs de l’intelligence artificielle ne proviennent pas d’une absence de données, mais d’une interprétation parfois inexacte du contenu disponible sur le web. Google a tenté de sauver les meubles et précisé que les captures d’écran fournies par The Guardian étaient incomplètes, mais que, selon ses évaluations, les informations étaient liées à des sources réputées et invitaient à consulter un professionnel.
Il n'empêche que pour ce type de résumés, l’absence de vérification humaine accentue la possibilité de diffusion d’informations dangereuses. Les conseils sur le cancer du pancréas ou les tests de dépistage féminins en témoignent : des décisions médicales pourraient être influencées par des indications incorrectes. Ces erreurs interviennent malgré les efforts de Google pour améliorer la qualité de ses Aperçus IA, notamment par l’analyse des interactions des utilisateurs et la supervision de réviseurs spécialisés.
Pour générer ses contenus, l'IA exploite les modèles appris à partir de vastes ensembles de données et tente de produire des résumés synthétiques. Mais comme toutes les technologies contemporaines, le système évolue très raidement et peut produire des réponses incohérentes ou inadaptées.
L’algorithme sélectionne des sources variées et présente des informations sans toujours intégrer le contexte essentiel. Dans certains cas, les recommandations changent d’une requête à l’autre, comme l’a constaté l’Eve Appeal, ce qui rend difficile pour l’internaute de distinguer une information fiable d’une information erronée.
Heureusement, Google recommande aux utilisateurs de vérifier les informations sur plusieurs sites et de poser plusieurs variantes de la question. Le géant des GAFAM tient aussi compte des commentaires des internautes pour corriger certaines erreurs et améliorer progressivement la précision des modèles d’IA générative utilisés pour les résumés.
Comme on vous l’indiquait sur Clubic, AI Overviews est déployé depuis 2024 dans de nombreux pays, mais pas en France. La réglementation européenne, l’AI Act, encadre strictement l’usage des intelligences artificielles génératives. Mais la longue liste des pays qui bénéficient du service s'allonge et nous devenons les irréductibles Gaulois.
Source : The Guardian (accès payant), Google