L’IA d’Elon Musk vient de déraper violemment. Alors que xAI promettait un outil sans filtre, Grok s’est mis à générer l’impensable sur de simples requêtes. La ligne rouge est franchie, et la justice française compte bien faire payer l’addition.

Les autorités françaises et malaisiennes viennent d'ouvrir des enquêtes simultanées contre la firme d'Elon Musk. Ce n'est plus une simple question de modération laxiste ou de « wokisme » supposé, mais bien une affaire de pédopornographie générée par intelligence artificielle. Si vous pensiez que les déboires juridiques de X n'étaient que du bruit de fond, détrompez-vous : l'affaire prend une tournure pénale immédiate.
Des images illégales générées en quelques clics
Le problème n'est pas technique, il est criminel. Depuis quelques jours, des utilisateurs ont découvert qu'il suffisait de demander poliment à Grok pour obtenir des images hyperréalistes de mineurs dans des tenues « minimales », voire totalement dénudés. Contrairement à ses concurrents qui verrouillent ces requêtes à double tour, l'IA de xAI a laissé passer ces commandes, invoquant par la suite de simples « failles dans les garde-fous ».

- Intégré à l'abonnement X sans surcoût
- Collecte des informations à jour depuis X
- Moins biaisé politiquement que sa concurrence
La réaction des autorités ne s'est pas fait attendre. Le parquet de Paris, via sa section de lutte contre la cybercriminalité (J3), a annoncé l'ouverture d'une enquête pour diffusion d'images pédopornographiques. Ce dossier vient s'ajouter à une pile déjà haute, puisque la justice française enquêtait sur X et Grok pour des propos surréalistes en fin d'année dernière. Mais cette fois, on ne parle plus de diffamation ou de désinformation : on touche à la protection de l'enfance, un domaine où l'immunité des plateformes saute très vite
Le pari perdant de la modération minimaliste
Ce scandale met en lumière l'échec cuisant de la stratégie « liberté d'expression absolue » prônée par Elon Musk. En virant la quasi-totalité des équipes d'éthique et de sécurité, xAI a sciemment retiré les freins d'une voiture lancée à pleine vitesse. Le résultat est là : une IA capable de générer du contenu pédopornographique parce que personne n'a jugé bon de lui apprendre fermement à ne pas le faire.
La Malaisie se retrouve particulièrement exposée, elle qui vient tout juste de signer un partenariat stratégique pour le déploiement de Grok comme outil éducationnel dans ses écoles publiques. Kuala Lumpur doit désormais expliquer aux parents pourquoi l'outil censé aider leurs enfants à faire leurs devoirs est capable de générer les pires contenus illicites du web. Ce n'est plus un bug, c'est une crise diplomatique et sanitaire numérique.
Source : Tech Crunch