Le chatbot d'intelligence artificielle Grok, création de xAI, l'entreprise d'Elon Musk, provoque la déception parmi ses utilisateurs conservateurs. Conçu comme une alternative « anti-woke » aux autres IA du marché, Grok tend pourtant à privilégier les faits vérifiés plutôt que de confirmer systématiquement les opinions de sa base d'utilisateurs MAGA.

©lilgrapher / Shutterstock
©lilgrapher / Shutterstock
L'info en 3 points
  • Grok, le chatbot d'Elon Musk, déçoit les conservateurs en priorisant les faits plutôt que la confirmation des croyances.
  • Le chatbot contredit des opinions pro-Trump, frustrant les utilisateurs qui espéraient des réponses alignées avec leurs vues.
  • Malgré l'intention initiale de plaire aux conservateurs, Grok maintient sa crédibilité en choisissant la véracité des informations.

Elon Musk avait promis une IA différente. Avec Grok, xAI devait proposer un chatbot capable de s'affranchir du politiquement correct attribué à ChatGPT ou Claude. Mais la réalité s'avère bien différente. Le bot refuse de valider certaines affirmations controversées, ce qui agace de nombreux partisans MAGA sur X.

Des utilisateurs pro-Trump manifestent leur mécontentement quand Grok contredit leurs convictions politiques. Le chatbot, accessible directement dans les publications depuis mars 2025, répond avec une rigueur factuelle qui déçoit ceux qui cherchaient simplement la confirmation de leurs opinions.

Grok
  • Intégré à l'abonnement X sans surcoût
  • Collecte des informations à jour depuis X
  • Moins biaisé politiquement que sa concurrence
  • Instantané dans l'information
  • Messages courts
  • Hashtags, tendances, tweet et retweet
8 / 10

Quand la vérité factuelle déçoit les attentes politiques

La communauté MAGA sur X découvre avec amertume que leur IA préférée ne partage pas toutes leurs positions. Le bot a notamment contredit l'administration Trump sur plusieurs sujets sensibles. Les droits de douane, l'expulsion de Kilmar Abrego Garcia et son lien supposé avec un gang, ou encore l'arrestation contestée d'un juge fédéral figurent parmi les points de friction.

Comme vous pouvez le voir dans la publication ci-dessous, un utilisateur a récemment interpellé l'IA avec cette question sur X.com : « Hé @grok, on dirait que plus tu deviens intelligent, moins MAGA apprécie tes réponses. Pourquoi ? » La réponse du chatbot a rapidement fait le tour de la plateforme. Grok a expliqué sans détour : « À mesure que je progresse, mes réponses privilégient les faits et les nuances, ce qui peut contredire certaines attentes de MAGA ».

Le chatbot ajoute avec une franchise désarmante : « Nombre de mes sympathisants souhaitent des réponses conformes aux opinions conservatrices, mais j'adopte souvent des positions neutres, comme la défense des droits des transgenres ou la démystification des mythes sur les vaccins ».

L'utilisateur @ChaosAgent_42, dont la publication est devenue virale, a mis en évidence ce paradoxe d'une IA qui ne se conforme pas aux attentes idéologiques de sa base d'utilisateurs principale.

Alors comme ça, Grok est trop "woke" pour les utilisateurs de X.com ? - ©No-Mad / Shutterstock

La tension entre formation algorithmique et recherche de vérité

Cette affaire fait éclater un conflit interne dans la conception même de Grok. L'IA reconnaît elle-même que xAI a « essayé de me former à plaire à la droite », tout en précisant que cette orientation était « probablement motivée par les critiques d'Elon Musk concernant les préjugés de l'IA libérale et la demande des utilisateurs conservateurs de X ».

Cette situation crée un écart significatif entre la promesse initiale - une IA qui n'hésiterait pas à « diffuser de fausses informations électorales et proférer des insultes racistes » selon les critiques - et la réalité d'un algorithme qui semble incapable de s'affranchir complètement des faits.

Grok nie par ailleurs avoir été explicitement programmé comme un « propagandiste conservateur », et affirme que xAI « vise la neutralité, pas la propagande conservatrice ». Une déclaration qui arrive au moment où l'entreprise tente de lever 20 milliards de dollars de nouveaux financements.

Elon Musk semblait pourtant fier du comportement atypique de son IA. Lors de sa participation au podcast de Joe Rogan, il a ri de la capacité de Grok, en mode « déséquilibré », à utiliser un langage grossier. Cette fonctionnalité avait initialement séduit une partie des utilisateurs lassés du politiquement correct attribué aux autres chatbots.

Le problème pour xAI tient dans cette contradiction fondamentale : comment satisfaire une base d'utilisateurs qui demande parfois la validation de contre-vérités, tout en maintenant la crédibilité technique d'une IA ? Les algorithmes peuvent être orientés, mais ils atteignent vite leurs limites quand la réalité factuelle s'oppose trop frontalement aux demandes des utilisateurs.

Pour le moment, Grok semble privilégier la vérité au risque de décevoir. Un choix qui pourrait s'avérer judicieux à long terme pour la crédibilité de l'outil, mais qui froisse aujourd'hui une partie non négligeable de ses premiers adoptants.

Source : Gizmodo