Vous pensiez que le divorce entre Sam Altman et Elon Musk était consommé ? Pas vraiment. Le dernier modèle d'OpenAI a été pris la main dans le sac : il utilise l'encyclopédie controversée de son rival comme source de vérité.

Vous vous souvenez du lancement en fanfare de GPT-5.2 ? OpenAI nous vendait cet outil comme le nec plus ultra pour les professionnels, une machine à la fiabilité blindée capable de gérer des tâches complexes. Mais il semblerait que sous le capot, la mécanique soit moins noble qu'annoncé. Une enquête récente du Guardian vient de jeter un pavé dans la mare de la Silicon Valley. Pour documenter ses réponses, le modèle phare d'OpenAI va piocher ses informations directement dans Grokipedia, le Wikipédia d'Elon Musk. Oui, vous avez bien lu : le champion de l'IA « responsable » sous-traite sa culture générale à son ennemi juré.
Quand l'élève modèle copie sur le cancre
Ne tournons pas autour du pot : les preuves sont accablantes. Lors de tests réalisés par des journalistes britanniques, GPT-5.2 a cité Grokipedia à neuf reprises sur une série de douze questions. Ce n'est pas une erreur de parcours, c'est une tendance lourde. Et le choix des sujets n'est pas anodin. L'IA est allée chercher la « vérité » chez Musk pour des thématiques aussi sensibles que les liens supposés entre le gouvernement iranien et l'opérateur MTN-Irancell, ou encore la biographie de l'historien Richard Evans, expert clé lors du procès du négationniste David Irving.

- Chat dans différentes langues, dont le français
- Générer, traduire et obtenir un résumé de texte
- Générer, optimiser et corriger du code
La situation est d'autant plus cocasse qu'OpenAI promettait des filtres de sécurité drastiques pour éviter les sources douteuses. La réponse de la firme ? Un classique exercice de langue de bois : elle assure utiliser une « large variété de sources publiques » et appliquer des filtres pour limiter les risques. Pourtant, le fait est là : pour expliquer l'Holocauste ou la géopolitique moyen-orientale, l'algorithme a jugé pertinent de s'appuyer sur une encyclopédie générée par une autre IA, elle-même critiquée pour ses liens vers des forums néo-nazis. Seule maigre consolation notée par les testeurs : sur la question des biais médiatiques contre Donald Trump, ChatGPT a évité de citer la plateforme de Musk. C'est peu, très peu, pour un outil censé redéfinir le travail intellectuel.
Le danger de l'inceste numérique
Au-delà de l'anecdote croustillante sur la rivalité des milliardaires, ce phénomène révèle une faille structurelle majeure. Nous assistons à la concrétisation de ce que les experts redoutaient : la boucle de rétroaction infinie, ou l'Ouroboros de l'information. Grokipedia est un agrégat de contenus générés par Grok, l'IA de Musk, qui elle-même hallucine ou biaise la réalité. En validant ce contenu comme « source fiable », GPT-5.2 ne fait pas que propager une information potentiellement fausse, il la légitime.
À force de vouloir ingérer tout le web pour se nourrir, les modèles finissent par manger les déchets de leurs concurrents. OpenAI se retrouve dans une position intenable : admettre que ses filtres sont des passoires, ou confesser que la base de données de Musk est devenue une référence incontournable du web moderne. Dans les deux cas, la promesse d'une IA « alignée » et sûre prend l'eau de toutes parts. Si la seule façon pour ChatGPT d'être à jour est de lire les notes de synthèse d'Elon Musk, la notion même de vérité objective sur le web vient de prendre un sacré coup de vieux.