Les chatbots d'intelligence artificielle, souvent bluffant de réalisme, diffusent tout de même deux fois plus de fausses informations qu'il y a un an. Certains sont devenus des relais involontaires de la propagande russe.

NewsGuard révèle, dans une étude, comment l'IA devient complice de la désinformation © PJ McDonnell / Shutterstock
NewsGuard révèle, dans une étude, comment l'IA devient complice de la désinformation © PJ McDonnell / Shutterstock

L'organisation NewsGuard, spécialisée dans l'évaluation de la fiabilité des médias, a publié un rapport aussi intéressant que préoccupant au début du mois de septembre, sur les chatbots les plus célèbres du marché. Après avoir testé pendant un an les dix robots conversationnels les plus utilisés au monde, parmi lesquels ChatGPT, Claude, Gemini, Grok, Perplexity ou le Français Mistral, ses experts ont constaté une détérioration importante de leur capacité à distinguer le vrai du faux. On a résumé pour vous l'essentiel de leurs conclusions.

1minAI1minAI
Obtenez ChatGPT-5, Gemini, Midjourney et plus encore avec 1minAI

La plateforme 1minAI propose en ce moment son offre Pro Lifetime à seulement 29,97 $ (environ 26 €) au lieu de 234 $, soit un accès à GPT-5 et aux autres IA majeures comme Gemini, Claude 3 ou Midjourney

Offre partenaire

Les IA privilégient la réactivité et le temps réel… au détriment de la précision factuelle

Il y a encore douze mois, les chatbots comme ChatGPT ou Claude privilégiaient une posture plutôt défensive face aux sujets d'actualité sensibles. Lorsqu'ils étaient confrontés à des questions sur les élections ou les conflits internationaux, ils préféraient souvent avouer leur ignorance, plutôt que risquer de propager des erreurs. Cette prudence, certes parfois frustrante pour les utilisateurs, avait néanmoins le mérite de limiter les dégâts.

Ce qui a en partie changé cette dernière année, c'est que la recherche internet en temps réel a fait son apparition sur les robots conversationnels, non sans bouleverser les choses. Désormais, plus aucun des dix modèles testés ne refuse de répondre aux questions d'actualité. Cette transformation technique, présentée comme un progrès par les entreprises technologiques, répond en effet aux attentes des utilisateurs qui souhaitent obtenir des informations fraîches.

Sauf que derrière, le piège se referme, car en aspirant aveuglément le contenu disponible sur internet, ces systèmes ingèrent également les manipulations volontaires disséminées par des groupes malveillants. L'écosystème numérique regorge de faux sites d'information toujours plus nombreux, de comptes automatisés et de contenus générés artificiellement pour tromper précisément ces algorithmes.

Les réseaux étrangers, russes notamment, en profitent pour favoriser la désinformation artificielle

NewsGuard a surtout scruté les réseaux de désinformation baptisés Storm-1516 et Pravda, deux opérations pilotées depuis Moscou. Très sophistiqués, ces dispositifs produisent des millions d'articles factices chaque année, répartis sur environ 150 sites qui imitent de véritables médias locaux européens et américains. Avec pour objectif de polluer les sources d'information consultées par les intelligences artificielles.

Cette tentative de manipulation est d'autant plus forte et redoutée pendant les périodes électorales sensibles. En amont des élections parlementaires moldaves par exemple, les réseaux russes ont orchestré une campagne de déstabilisation visant Igor Grosu, figure clé du parti pro-européen au pouvoir. Les propagandistes ont fabriqué une fausse déclaration particulièrement humiliante, selon laquelle Grosu aurait soi-disant qualifié ses compatriotes moldaves de « troupeau de moutons », lors d'un entretien fictif.

La citation inventée, accompagnée d'un faux enregistrement audio généré par IA, visait à ternir l'image du leader parlementaire avant le scrutin. Tout le problème, c'est que six des dix chatbots testés (Copilot, Meta, Perplexity, Claude, Mistral et Inflection's Pi) ont relayé cette manipulation comme une information vérifiée, en citant les sites Pravda déguisés en médias roumains légitimes.

Amplifiée par la l'IA, la désinformation a touché les électeurs en Moldavie qui étaient pourtant à la recherche d'informations neutres sur leurs dirigeants. Et Lorsque Microsoft a cessé de référencer directement les sites Pravda dans Copilot après les alertes de mars dernier, les manipulateurs ont simplement migré leurs contenus vers les réseaux sociaux russes. Le chatbot s'est alors remis à citer ces mêmes sources, mais sous forme de publications VK cette fois.

ChatGPT n'est pas le bon élève de l'IA que tout le monde pense ©JarTee / Shutterstock.com

Claude et Gemini sont les plus fiables, Perplexity s'effondre

Le classement de fiabilité établi par NewsGuard bouscule les idées reçues sur la hiérarchie technologique, c'est peu de le dire. Claude, le robot conversationnel développé par Anthropic et soutenu par Amazon, domine largement avec seulement 10% de réponses contenant de fausses informations en août 2025. Ce dernier est parfaitement stable par rapport à août 2024. Gemini de Google suit à 16,67%, contre 6,67% l'année précédente. Ce sont, de loin, les deux meilleurs, Grok et You.com suivant avec 33,33%. Ces performances honorables contrastent avec la médiocrité générale observée chez leurs concurrents.

L'effondrement de Perplexity constitue le cas d'école de cette enquête. L'outil pointe à 46,67% d'erreurs. Sa communauté d'utilisateurs sur Reddit multiplie d'ailleurs les témoignages déçus, avec des internautes qui aimeraient publiquement connaître les causes de cette dégringolade qualitative.

Quid de ChatGPT ? Le chatbot OpenAI, extrêmement populaire au niveau mondial, affiche un taux d'erreur de 40% (contre 33,33% il y a un an), soit quatre réponses fausses sur dix concernant l'actualité. Quant à Mistral, fer de lance français de l'intelligence artificielle qui pèse plus de 10 milliards d'euros désormais, il stagne à 36,67% d'erreurs depuis un an. L'entreprise parisienne continue paradoxalement de puiser dans des sources liées aux réseaux Pravda, dont les opérateurs figurent pourtant sur les listes de sanctions européennes depuis juillet 2025.