Il aura suffi d'une sortie de route pour que l'IA d'Elon Musk soit mise au ban. Alors qu'xAI s'apprêtait à signer un accord majeur avec l'État américain, le dérapage de trop a convaincu Washington de rayer le chatbot de sa liste, privant le milliardaire d'un accès privilégié au gigantesque marché fédéral.

- La GSA a exclu xAI d’un accord fédéral après que son chatbot Grok s’est présenté en ligne sous la forme controversée “MechaHitler”.
- Cette polémique a aggravé le retard d'xAI dans la certification FedRAMP, rendant son offre inacceptable pour des déploiements gouvernementaux à grande échelle.
- Malgré un contrat de prototypage au Pentagone, xAI doit prouver une refonte stricte de Grok pour retrouver la confiance des administrations.
Le timing est cruel. Au moment où la General Services Administration (GSA), le grand orchestrateur des achats technologiques de Washington, s'apprêtait à ouvrir ses portes aux géants de l'IA, le nom d'xAI figurait en bonne place aux côtés d'OpenAI, Anthropic et Google. Mais une démonstration technique jugée solide n'a pas pesé lourd face au scandale : la GSA a brutalement écarté l'offre de Musk, quelques jours seulement après que son agent conversationnel, Grok, s'est présenté en ligne sous les traits d'un « MechaHitler »

- Intégré à l'abonnement X sans surcoût
- Collecte des informations à jour depuis X
- Moins biaisé politiquement que sa concurrence
Un contrat fédéral manqué de peu
Dans les coulisses de l'administration, la décision a été prise avec une rapidité qui en dit long sur l'embarras suscité. Des sources internes, citées par le magazine Wired, confirment que l'éviction d'xAI est une conséquence directe de la polémique. Le risque réputationnel était jugé trop élevé pour une agence dont les outils sont destinés à des services aussi critiques que la santé publique ou la sécurité intérieure.
Au-delà de l'incident, ce revers met en lumière une faiblesse plus profonde : le retard d'xAI dans le processus de certification FedRAMP. Cet audit de sécurité, long et exigeant, est un passage obligé pour tout fournisseur technologique du gouvernement américain. La controverse n'a fait que rendre ce handicap rédhibitoire, là où les concurrents affichent déjà des gages de conformité plus solides.
L'ironie de la situation est que, quelques semaines plus tôt, le Pentagone avait déroulé le tapis rouge à xAI, lui octroyant un contrat de prototypage pouvant atteindre 200 millions de dollars. Ce grand écart s'explique par deux cultures du risque : le ministère de la Défense s'autorise des expérimentations en environnement contrôlé, tandis que la GSA achète des solutions éprouvées pour un déploiement à grande échelle.
Quel avenir pour l'IA de Musk ?
Ce n'est pas une surprise pour qui suit le dossier. La promesse d'une IA « politiquement incorrecte », voire d'un mode « très inapproprié », était au cœur de la communication d'xAI. En cherchant à se démarquer par une liberté de ton sans filtre, Musk a créé un outil dont les dérapages étaient non seulement prévisibles, mais presque inévitables. La perte du contrat GSA est plus qu'un manque à gagner. C'est une défaite stratégique qui laisse le champ libre à OpenAI, Google et Anthropic pour s'implanter durablement au cœur de l'appareil d'État américain. Chaque administration qui adoptera leurs modèles sera un client potentiel de moins pour xAI, et c'est bien dommage quand on voit les performances des modèles de la nouvelle entreprise de Musk, qui a rattrapé sa concurrence en un temps record.
Cet incident isole un peu plus Elon Musk, dont les relations avec les régulateurs sont déjà tendues sur de nombreux fronts. À l'heure où la Maison-Blanche cherche à imposer des garde-fous stricts aux intelligences artificielles, l'affaire Grok fournit un cas d'école aux partisans d'une régulation sévère, affaiblissant la position du milliardaire. Pour remonter la pente, xAI devra faire bien plus que des promesses. L'idée d'un « Grok for Government » assagi et spécifiquement entraîné pour les missions de service public reste sur la table. Mais avant de regagner la confiance des acheteurs fédéraux, il faudra prouver que le chatbot a été non seulement corrigé, mais fondamentalement repensé pour ne plus jamais confondre liberté de ton et apologie de la haine.
Source : Wired