Un groupe criminel a fabriqué un exploit zero-day à l'aide d'une IA. Google l'a repéré avant qu'il ne serve.

L'idée qu'une intelligence artificielle puisse écrire un exploit fonctionnel n'était, jusqu'ici, qu'un scénario théorique débattu dans les conférences de sécurité. Ce n'est plus le cas, si on en croit le Google Threat Intelligence Group, qui a publié un rapport détaillant ses trouvailles. Le constat est inédit : pour la première fois, un groupe criminel a utilisé un modèle d'IA pour découvrir et armer une vulnérabilité zero-day. Google affirme avoir intercepté l'exploit avant son déploiement de masse.
Offre partenaire
Votre petite entreprise a de grandes ambitions. Protégez-là contre les pirates. Et développez sereinement votre activité !
Offre partenaire
Un script Python trop bien écrit pour être humain
La cible : un outil d'administration système open source très répandu (dont Google ne révèle pas le nom). La faille : un contournement de l'authentification à deux facteurs, exploitable dès lors que l'attaquant dispose d'identifiants valides. Le vecteur : un script Python. Jusque-là, rien d'inhabituel.
Ce qui a mis la puce à l'oreille des analystes du GTIG, c'est la facture du code. Le script regorgeait de docstrings éducatives (le genre de commentaires qu'un professeur ajouterait pour un cours). Il contenait un score CVSS halluciné, des menus d'aide détaillés et un formatage Python « de manuel ». Le GTIG avait déjà alerté en mars sur l'accélération des attaques zero-day via les équipements réseau. Cette fois, l'IA n'a pas seulement aidé à chercher la faille. Elle l'a trouvée et armée.
Google précise que ni Gemini ni Claude Mythos d'Anthropic ne sont en cause. Le modèle utilisé n'a pas été identifié publiquement. La vulnérabilité repose sur une erreur de logique sémantique : une hypothèse de confiance codée en dur par le développeur. Exactement le type de faille que les LLM repèrent bien, et que les outils d'analyse classiques ignorent.
La partie émergée d'un iceberg industriel
L'exploit n'a finalement pas fonctionné comme prévu. Des erreurs d'implémentation ont probablement entravé la campagne, et Google a collaboré avec l'éditeur concerné pour corriger la faille avant toute exploitation de masse. Mais réduire l'épisode à un échec serait une erreur de lecture.
Le rapport GTIG dessine un tableau plus large. Le groupe nord-coréen APT45 envoie des milliers de requêtes à des modèles pour valider des exploits à la chaîne. Un acteur lié à la Chine (UNC2814) a utilisé du jailbreaking sur Gemini pour rechercher des failles dans des routeurs TP-Link. En mars, le groupe criminel TeamPCP a compromis LiteLLM, une passerelle IA populaire, pour voler des clés AWS et des tokens GitHub. Les IA ouvertes, bien moins coûteuses que Mythos, suffisent déjà à reproduire ce type de résultats, avec des garde-fous en moins
John Hultquist, analyste en chef du GTIG, résume la situation au New York Times en quelques mots : « ce n'est que la partie émergée de l'iceberg ». La conclusion reste la même : l'IA est une épée à double-tranchant. Le gain d'efficacité offert aux experts en cybersécurité finira par ruisseler chez les hackers. Aussi critiquables qu'elles soient, les restrictions d'Anthropic sur Claude Mythos ont de bonnes raisons d'exister.