Une guerre débute. 48 heures après, des millions de faux clips inondent X. La plateforme sort une règle. Mais le problème vient peut-être de l'intérieur.

X annonce une détection qui s'appuiera sur SynthID de Google pour identifier les vidéos générées par IA. © Shutterstock/Google
X annonce une détection qui s'appuiera sur SynthID de Google pour identifier les vidéos générées par IA. © Shutterstock/Google

Depuis le déclenchement du conflit entre les États-Unis, Israël et l'Iran, le samedi 1er mars 2026, les contenus trompeurs déferlent sur X. Des captures de jeu vidéo présentées comme des frappes réelles, des archives vieilles de dix ans habillées en « breaking news » : la mécanique est rodée depuis longtemps. La plateforme a annoncé mardi 3 mars une règle visant à freiner les contenus générés par IA lors de conflits armés. Pour comprendre pourquoi cette annonce arrive si tard, il faut revenir aux choix structurels d'Elon Musk depuis son rachat de Twitter en 2022.

Des millions de vues pour des faux clips de guerre

Nikita Bier, responsable produit chez X, a posté la règle le 3 mars : publier une vidéo de conflit armé générée par IA sans le signaler explicitement entraîne une suspension du programme de partage de revenus pour 90 jours. En cas de récidive, la suspension devient permanente. La détection s'appuiera sur les « Community Notes » ou sur les métadonnées propres aux outils d'IA générative, comme le filigrane SynthID de Google. « En période de conflit, il est essentiel d'accéder à des informations véridiques depuis le terrain », a justifié Bier.

Les exemples concrets ne manquent pas. Un clip présentant Tel Aviv sous une pluie de roquettes a accumulé des millions de vues en quelques heures. Les voitures y ont des formes improbables, l'audio contient une voix hors champ qui désigne la ville de manière trop précise et trop propre pour être spontanée. Grok, le chatbot maison de xAI, a pourtant confirmé à plusieurs reprises l'authenticité de cette vidéo à des utilisateurs qui l'interrogeaient directement. Des séquences issues d'un jeu vidéo, présentées comme un affrontement entre un avion iranien et un navire américain, ont dépassé les 7 millions de vues. Le gouverneur du Texas Greg Abbott et le présentateur de Fox News Bret Baier ont tous deux partagé ces contenus avant de les supprimer discrètement. Des personnalités publiques, supposément capables d'esprit critique, piégées par des extraits de jeu vidéo : le niveau d'alerte général est là.

Grok valide les deepfakes : la modération à moitié vide

Ce qui rend la situation kafkaïenne, c'est l'architecture même de X. Musk a démantelé la modération professionnelle après son rachat à 44 milliards de dollars. Il a réintégré des comptes bannis, supprimé les certifications « legacy » qui permettaient d'identifier les sources fiables, puis lancé le Creator Revenue Sharing : un programme qui récompense les contenus générant le plus de réactions, vrais ou non. La plateforme a d'abord monétisé la viralité. Elle tente maintenant de la réguler.

La nouvelle règle présente des angles morts évidents. Elle ne touche pas les vidéos réelles sorties de leur contexte, ni les séquences de jeux vidéo détournées. Un clip d'explosion datant de 2015, reposté comme « frappe iranienne sur Dubaï », ou une vidéo du 6 février habillée en attaque de l'ambassade américaine à Riyad : aucune sanction n'est prévue dans les deux cas. Le fait que des comptes identifiés comme propagateurs de désinformation aient relayé ces contenus sans conséquence immédiate illustre l'ampleur des lacunes. Des chercheurs du Digital Forensic Research Lab ont d'ailleurs documenté un phénomène similaire lors du précédent conflit israélo-iranien : Grok avait alors validé comme authentiques plusieurs vidéos générées par IA, dont une censée montrer l'aéroport Ben Gourion sous les bombes. Le commentateur Matt Walsh a demandé publiquement pourquoi X ne sanctionnait pas tout contenu IA non signalé, sans distinction. La réponse est peut-être dans une déclaration de Musk lui-même, faite chez Joe Rogan, hôte du podcast le plus populaire au monde : « D'ici cinq ou six ans, la majorité de ce que les gens consommeront sera du contenu généré par IA ».

Quand la plateforme et son propriétaire misent ouvertement sur un futur 100% IA, espérer qu'elle devienne un rempart contre la désinformation relève de la pensée magique.

X.com (ex-Twitter)
  • Instantané dans l'information
  • Messages courts
  • Hashtags, tendances, tweet et retweet
8 / 10