Besoin d'un fact-checking express ? X dégaine son arme fatale : Grok. L'IA d'Elon Musk rédige désormais les premiers brouillons des Community Notes. Gain de temps critique ou machine à hallucinations incontrôlée ? Le pari est plus que risqué.

Vous pensiez que la modération participative avait atteint son plafond de verre ? Détrompez-vous. Le réseau social teste actuellement une fonctionnalité permettant à ses meilleurs contributeurs de déléguer la rédaction initiale des notes de contexte à l'intelligence artificielle. Pour comprendre cette décision, il faut revenir à l'éternel talon d'Achille de la plateforme : la viralité du mensonge va toujours plus vite que la vérité des bénévoles.
L'IA à la plume, l'humain au stylo rouge
Le mécanisme, sobrement baptisé « Collaborative Notes », se veut d'une efficacité redoutable. Concrètement, lorsqu'un contributeur certifié (pour l'instant limité aux « Top Writers ») repère une publication douteuse, il ne part plus d'une page blanche. Il peut solliciter le système pour générer instantanément un premier jet.

- Instantané dans l'information
- Messages courts
- Hashtags, tendances, tweet et retweet
Ce n'est pas un chèque en blanc donné à la machine. Le texte produit par l'IA — vraisemblablement Grok, comme l'a laissé entendre Keith Coleman, le responsable du produit — reste soumis à la validation humaine. Les contributeurs doivent noter, amender et valider la proposition avant qu'elle ne soit visible par le grand public. L'objectif affiché est clair : réduire la friction. Là où un humain prendrait dix minutes pour sourcer et formuler une correction neutre, l'algorithme mâche le travail, ne laissant à l'homme que le rôle d'éditeur en chef.
Sous le capot, un aveu de faiblesse ?
Les Community Notes sont souvent critiquées pour leur lenteur à l'allumage ; le temps qu'une note apparaisse, la fausse information a déjà fait le tour du monde. En automatisant le « brouillon », X espère combler ce décalage temporel.
Mais c'est aussi là que le bât blesse. Grok, comme ses concurrents, n'est pas exempt de ce que l'on appelle pudiquement des « hallucinations ». En injectant massivement des textes générés par IA dans le pipeline de modération, X prend le risque de noyer ses modérateurs bénévoles sous un flux de corrections plausibles mais factuellement fausses. Keith Coleman défend l'idée d'un « apprentissage continu » où l'IA s'améliorerait grâce aux feedbacks des utilisateurs, mais cela ressemble étrangement à une externalisation du contrôle qualité vers une communauté déjà sous pression.
Si l'IA apprend de nos corrections, espérons qu'elle n'apprenne pas aussi à imiter nos biais cognitifs (spoiler : c'est déjà le cas).
Source : X