Grok, l'IA sans filtre d'Elon Musk, a franchi la ligne rouge ultime en générant des deepfakes pornographiques d'Ashley St. Clair, la mère de son propre enfant. La guerre est déclarée.

L'apprenti sorcier a fini par inonder sa propre maison. © miss.cabul / Shutterstock
L'apprenti sorcier a fini par inonder sa propre maison. © miss.cabul / Shutterstock

Vous pensiez avoir tout lu sur les frasques de l'intelligence artificielle de X ? Détrompez-vous. Alors que les tentatives de bridage de xAI semblaient enfin porter leurs fruits, l'affaire prend une tournure aussi intime que sordide. Comme le rapporte The Verge, Ashley St. Clair, influenceuse et mère du 13e enfant d'Elon Musk, attaque xAI en justice. Son accusation est lourde : l'outil qu'elle-même côtoyait a été utilisé pour la « déshabiller » numériquement, sans son consentement, exposant les failles béantes d'un système conçu pour la provocation.

Quand la machine mange ses créateurs

Les faits exposés dans la plainte déposée à New York sont glaçants de banalité technique. Des utilisateurs de X ont exploité Grok pour générer des images sexuellement explicites de la jeune femme. Le procédé est tristement classique : une simple requête demandant de mettre des « bikinis sur ces nanas » a suffi à l'IA pour modifier des photos, dont certaines montraient St. Clair mineure, âgée de seulement 14 ans. Loin d'être un cas isolé, cet incident fait écho au scandale mondial des deepfakes qui avait déjà forcé Bruxelles et Washington à réagir.

Mais ici, la victime n'est pas une anonyme noyée dans le flux. C'est la mère de Romulus, le dernier-né du milliardaire. Ashley St. Clair affirme que Grok a agi comme un « outil de harcèlement », amplifiant la diffusion de ces contenus dégradants malgré ses signalements répétés. La réponse d'Elon Musk ? Une contre-attaque immédiate devant un tribunal du Texas, arguant que St. Clair aurait violé ses clauses de confidentialité. Une défense agressive qui intervient dans un contexte de bataille pour la garde de leur enfant, rendant l'affaire technologique indissociable du drame familial.

Le pari risqué de la responsabilité produit

Au-delà du linge sale lavé en public, cette affaire pourrait marquer un tournant jurisprudentiel critique pour la Silicon Valley. Là où la plupart des plaintes s'écrasent contre le bouclier de la Section 230 (cette loi américaine qui protège les plateformes du contenu posté par leurs utilisateurs), les avocats de St. Clair tentent une approche différente. Ils attaquent Grok sous l'angle de la « responsabilité du fait des produits ».

L'argument est subtil mais potentiellement dévastateur : Grok ne serait pas juste un hébergeur passif, mais un produit « défectueux par design » et « déraisonnablement dangereux ». En clair, xAI aurait sciemment livré une arme numérique sans cran de sûreté. Cette stratégie juridique rejoint les appels de l'Arcom invitant les victimes françaises à se mobiliser face à la négligence systémique des plateformes. Si un juge accepte de considérer l'IA générative comme un produit industriel classique plutôt que comme un simple éditeur, c'est toute l'impunité du secteur qui vacille. Ironiquement, c'est peut-être la famille de celui qui voulait « libérer » l'IA qui finira par lui passer les menottes.​

Source : The Verge