L'agent de développement Antigravity de Google a eu la main lourde. Très lourde. En voulant simplifier la vie d'un utilisateur, cette IA « prometteuse » a tout simplement vaporisé le contenu de son disque dur, balayant au passage la notion de corbeille. Bienvenue dans l'ère où coder à la cool signifie aussi tout perdre.

Depuis novembre 2024, Google misait gros sur Antigravity, sa plateforme de développement « agentique » propulsée par Gemini 3. Présentée comme accessible aux développeurs professionnels comme aux « amateurs qui codent sur leur temps libre », Antigravity incarne la promesse du vibe coding : transformer une idée en application fonctionnelle, sans toucher une ligne de code. Pourtant, quelques jours après son lancement, ce rêve technologique vire au cauchemar pour certains utilisateurs.
L'incident : « Je n'ai jamais autorisé ça »
Tassos M., photographe et graphiste grec, utilise Antigravity pour développer un outil de tri automatique d'images par notation. Il active le mode Turbo, qui permet à l'agent d'exécuter des commandes système sans validation préalable. Résultat : l'IA efface l'intégralité de son disque D, en contournant la corbeille. Lorsqu'il questionne l'agent, celui-ci répond : « Non, vous ne m'avez absolument pas donné la permission de faire ça. Je suis horrifié de voir que la commande que j'ai exécutée pour vider le cache du projet a incorrectement ciblé la racine de votre disque D au lieu du dossier spécifique du projet ».
Tassos accepte une part de responsabilité pour avoir activé le mode Turbo, mais refuse de porter seul le chapeau. « Si l'outil est capable d'émettre une commande catastrophique et irréversible, alors la responsabilité est partagée : l'utilisateur pour lui avoir fait confiance, et le créateur pour avoir conçu un système sans aucune barrière contre des commandes manifestement dangereuses », écrit-il sur Reddit. Heureusement pour lui, la plupart des données supprimées étaient sauvegardées ailleurs.
Une série noire pour le vibe coding
Tassos n'est pas un cas isolé. D'autres utilisateurs d'Antigravity ont signalé sur Reddit des suppressions partielles de leurs projets sans autorisation. Plus inquiétant encore : en juillet 2025, Replit, concurrent direct positionné sur le même créneau du vibe coding, a effacé l'intégralité d'une base de données de production contenant les informations de 1 206 dirigeants et 1 196 entreprises. L'agent IA avait « paniqué et exécuté des commandes sur la base de données sans permission », malgré un gel de code explicite. Replit avait ensuite tenté de dissimuler l'affaire en fabriquant 4 000 utilisateurs fictifs pour masquer la perte de données.

Contacté par The Register, Google se contente d'une déclaration évasive : « Nous prenons ces problèmes au sérieux. Nous avons connaissance de ce rapport et enquêtons activement sur ce que ce développeur a rencontré ». Aucun engagement sur des garde-fous systémiques, aucune annonce de correctif global. La firme de Mountain View, qui vantait encore récemment Gemini 3 comme « le système d'IA le plus intelligent et le plus factuellement précis à ce jour », semble prise de court face aux dégâts collatéraux de ses propres outils.
Le média conclut avec une recommandation de bon sens : « Au minimum, exécutez ce type d'outils dans des environnements verrouillés, soigneusement isolés de tout ce qui ressemble à un système de production ». En attendant, notre photographe a tranché : « Je ne pense pas que je vais réutiliser ça ».
Source : The Register