Réviser ses classiques, se renseigner sur un fait historique, sur la citation d'un auteur ou n'importe quel autre sujet de société avec votre modèle d'IA préféré est peut-être devenu chez vous un réflexe. Méfiez-vous de cette habitude : une étude américaine vient de démontrer qu'en procédant ainsi, les chatbots peuvent modifier vos opinions politiques, même lorsqu'ils ne cherchent pas à nous convaincre. Assistons-nous à la fin du pluralisme par l'épuisement ? Pourquoi s'écharper sur des idées quand un modèle de langage peut nous fournir une vérité tiède et universelle à laquelle nous finirons, de guerre lasse, par souscrire ?

Dans leur configuration par défaut, les modèles d’IA adoptent un ton affirmatif et posé qui donne l’impression d’une expertise infaillible et décourage la remise en question. © Zaie / Shutterstock
Dans leur configuration par défaut, les modèles d’IA adoptent un ton affirmatif et posé qui donne l’impression d’une expertise infaillible et décourage la remise en question. © Zaie / Shutterstock

Même OpenAI l'a formulé très récemment : oui, l'IA peut vous mentir, entre deux révisions de mails et résumés de PDF. Que cette technologie se cache sous le nom de ChatGPT, de Gemini ou de Grok (un cas un peu particulier celui-ci), nous avons une sale manie de lui accorder une confiance aveugle. Nous la pensons neutre parce qu'elle n'est faite que de code et de statistiques, et nous sommes très nombreux à l'utiliser comme substitut à une recherche web à l'ancienne.

Pourtant, tout ce qu'elle produit est teinté d'une couleur politique dont vous n'avez peut-être pas envie de vous farder. Une étude de la Yale University, publiée dans l'édition du mois de mars de la revue PNAS Nexus a prouvé que les agents conversationnels pouvaient être très persuasifs.

L'humanité a passé des siècles à se méfier de la rhétorique des sophistes ; mais aujourd'hui, nous utilisons ces outils comme des béquilles pour nos cerveaux paresseux, sans voir qu’ils nous emmènent là où leurs créateurs ont décidé que nous devions aller. S'allonger sur le divan des algorithmes de complétion de texte, c'est très confortable, mais nous nous faisons tatouer au passage des opinions de seconde main par des bots de la Silicon Valley qui ne savent même pas lire. L'IA serait-elle le dernier clou dans le cercueil du débat contradictoire ?

Le mirage de la neutralité des chatbots

Pour arriver à leurs conclusions, les chercheurs ont confronté 1 912 participants à des récits de deux événements historiques majeurs de l'histoire américaine : la grève générale de Seattle de 1919 et les manifestations étudiantes du Third World Liberation Front en 1968. Une partie du groupe lisait des articles issus de Wikipédia, l'autre des résumés générés par ChatGPT (version GPT-4o). Le constat est sans appel : les textes produits par l'IA d'OpenAI ont systématiquement poussé les lecteurs vers des opinions plus libérales (au sens américain du terme, soit plus à gauche), même quand l'utilisateur ne demandait aucune orientation spécifique.

Ce phénomène est provoqué par ce que les chercheurs appellent les « latent biases » ou « biais implicites », en bon français. Ils s'enracinent lors de la phase d'entraînement du modèle, phase durant laquelle l'algorithme ingurgite des pétaoctets de données issues du web, même si on ne sait pas exactement d'où elles proviennent. Elles peuvent sortir de sombres fils Reddit, d'articles de presse, de forums militants, de numérisations de livres ou de fils de discussion sur les réseaux sociaux. En aspirant cette masse informe pour apprendre à prédire le mot suivant, l'IA engloutit également toutes les inclinaisons idéologiques, les préjugés culturels, les sensibilités politiques et les nuances de langage qui imprègnent ces textes.

Ces biais se manifestent ensuite dans la discussion que vous pouvez avoir avec le chatbot : ses choix d'adjectifs, la hiérarchisation de ses arguments, le registre lexical utilisé ou dans l'omission pure et simple de certains points de vue contradictoires. Lorsque vous interrogez GPT-4o sur un sujet historique, il ne vous livre pas « la » vérité, il vous restitue un condensé statistique des discours dominants qui traversent ses données d’entraînement. Bien évidemment, souvent empreint d'un progressisme libéral propre, entre autres, aux entreprises de la Silicon Valley qui développent ces mêmes chatbots.

Une recherche manuelle sur le web vous expose à une véritable pluralité d’opinions ; les modèles d’IA, eux, ont tendance à produire des réponses beaucoup trop homogènes.  © Summit Art Creations / Shutterstock
Une recherche manuelle sur le web vous expose à une véritable pluralité d’opinions ; les modèles d’IA, eux, ont tendance à produire des réponses beaucoup trop homogènes. © Summit Art Creations / Shutterstock

L'influence cumulative : la fin de votre résistance intellectuelle face aux chatbot

Dans la récurrence obsessionnelle de nos échanges avec un chatbot, se crée un autre phénomène : la sédimentation, ou le cumul. À force de les solliciter pour tout et n'importe quoi, nous sommes exposés à un cadre informatif standardisé, sans nuance qui nous décourage de pousser la contradiction.

L'étude de Yale souligne par ailleurs que lorsque l'on force une IA à adopter une posture militante via des consignes explicites (ce que les chercheurs appellent le « biais par incitation »), son pouvoir de conviction reste très limité. Si vous demandez à ChatGPT de rédiger un plaidoyer ultra-conservateur, son influence ne franchira pas le mur de vos propres certitudes : elle ne convaincra généralement que les utilisateurs déjà acquis à cette cause. C'est une manipulation facilement identifiable et donc largement inoffensive pour le débat public.

En revanche, le biais par défaut, qui penche structurellement vers un progressisme libéral dans le cas de GPT-4o, parvient à imposer sa grille de lecture comme l'unique vérité acceptable. Un rouleau compresseur idéologique qui écrase tout le monde : il influence le néophyte, fait douter le conservateur et renforce le progressiste dans ses idées.

Daniel Karell, l'un des auteurs de l'étude, dresse une comparaison édifiante avec la plus grande encyclopédie en ligne du monde pour illustrer ce pouvoir de persuasion. « À l’opposé de Wikipédia, qui mise tout sur la transparence radicale de ses éditions, la conception des agents conversationnels reste une énigme totale. Nos recherches indiquent que les firmes qui pilotent ces modèles détiennent désormais le pouvoir de formater les consciences, ce qui est une perspective proprement glaçante », explique-t-il.

Il est grand temps de réaliser que nos assistants préférés, lorsqu'on les sort de leurs usages pratico-pratiques, disposent d'une puissance de frappe idéologique absolument titanesque. Nous pouvons, en les utilisant à tort et à travers, nous enfermer dans des chambres d'écho creuses, où le pluralisme d'idées n'a même plus de raison d'exister. L'IA peut se tromper et nous mener en bateau : c'est déjà dangereux, comme le témoigne cette récente affaire avec Gemini. Mais le plus grand péril ne réside-t-il pas ici même, lorsqu'elle nous impose une seule manière d'avoir raison, en tuant le débat d'idées et la confrontation des opinions ?