Un juge fédéral californien a refusé à xAI une injonction préliminaire qui aurait suspendu la loi AB 2013. Elon Musk doit désormais se plier à une obligation de transparence sur les données d'entraînement de Grok, au pire moment possible.

Vous l'ignorez peut-être, mais ça n'a pas échappé au patron de xAI et Grok.
La loi AB 2013, en vigueur depuis janvier 2026, oblige tout développeur d'IA accessible en Californie à publier l'origine de ses données d'entraînement, leur date de collecte, la présence éventuelle de contenus protégés par droits d'auteur, et la part de données synthétiques utilisées.
xAI avait demandé au tribunal de geler son application en urgence. Le juge de district américain Jésus Bernal a dit non. Pour lui, xAI n'a pas su démontrer un préjudice concret, ni prouver que ses datasets méritaient le statut de secrets commerciaux.
Ce que xAI redoute vraiment : qu'OpenAI lise dans ses données
Dans sa plainte, xAI a avancé un scénario très précis devant le tribunal. Si OpenAI découvrait quels datasets alimentent Grok, elle pourrait les acquérir à son tour, et l'inverse vaut aussi. C'est sur cet argument que xAI a construit sa demande d'injonction, en faisant valoir que ses sources de données, la taille de ses ensembles et ses méthodes de nettoyage constituaient des secrets commerciaux soigneusement protégés.
Jésus Bernal ne l'a pas entendu de cette oreille. Pour lui, xAI s'est perdu dans des « abstractions fréquentes et des hypothèses », sans identifier un seul dataset unique, une méthode de nettoyage originale, ou une taille d'ensemble de données sensiblement différente de celle de ses concurrents. xAI n'a donc pas démontré que ses données méritaient une protection particulière, ce qui fragilise toute la stratégie juridique.
Et en attendant la suite du procès, la loi s'applique. Elon Musk pourrait donc être contraint de publier des informations que ses adversaires directs, à commencer par OpenAI contre laquelle il multiplie les procédures judiciaires, pourront consulter librement.

Grok, les biais et la liberté d'expression : une défense qui n'a pas tenu
xAI avait aussi soutenu devant le tribunal que la Californie utilisait la loi AB 2013 comme prétexte pour réguler les contenus controversés produits par Grok. L'argument méritait d'être testé.
Depuis plusieurs mois, Grok est sous surveillance pour des contenus antisémites, des images intimes non consenties, et des contenus pédopornographiques. Une enquête californienne est en cours.
Jésus Bernal a balayé tout ça. Rien dans le texte de loi, selon lui, ne vise à influencer les résultats des modèles d'IA en fonction de leurs données d'entraînement. La loi ne demande pas à xAI de se positionner sur ses choix éditoriaux. Elle demande des faits : quelles sources, quelles dates, quels types de données.
Le juge va plus loin sur la question des consommateurs. Un acheteur a tout à fait la capacité d'évaluer un modèle d'IA à partir des informations sur ses datasets, écrit-il dans son ordonnance. Savoir si des données médicales ou scientifiques ont servi à entraîner un modèle est une information utile pour décider si on lui fait confiance.
Pour la suite, le juge Bernal demande à xAI de faire ses devoirs, à savoir rassembler des preuves que ses datasets ou ses méthodes sont suffisamment uniques pour justifier une protection au titre du secret commercial.
Un mois plus tôt, un autre juge avait rejeté l'une des plaintes d'Elon Musk contre OpenAI, faute de preuves que cette dernière avait volé des secrets commerciaux. Deux procédures, deux rejets.
Source : Ars Technica