L'ANSSI a publié mercredi sa synthèse sur les menaces liées à l'intelligence artificielle générative. Les groupes de pirates sont désormais très nombreux à l'utiliser pour automatiser leurs cyberattaques.

Qu'il s'agisse de ChatGPT pour rédiger du code malveillant, de Gemini pour espionner des cibles stratégiques, ou des deepfakes à la chaîne pour usurper des identités, l'usage de l'IA générative est courant chez les hackers. L'ANSSI, l'agence cyber française, vient de publier mercredi 4 février sa première synthèse sur cette menace, « comme un teaser, en attendant le panorama général de la menace 2025 en cours de finalisation », dit son patron Vincent Strubel. Et le moins qu'on puisse dire, c'est que l'IA bouleverse bien le paysage de la cybersécurité.
Gemini exploité au service de l'espionnage russe, chinois et nord-coréen
Google l'a révélé il y a un an, son intelligence artificielle Gemini a servi à 42 groupes de hackers travaillant pour des États. Dix opèrent pour l'Iran, vingt pour la Chine, neuf pour la Corée du Nord et trois pour la Russie. Et ce décompte n'inclut même pas les cybercriminels indépendants, eux aussi très actifs sur ces technologies.
Sur le terrain, l'IA générative s'immisce à chaque étape de la chaîne d'attaque. Les hackers nord-coréens du groupe Lazarus créent de toutes pièces de fausses entreprises et de faux profils d'employés sur les réseaux sociaux pour piéger leurs victimes. Des sites web frauduleux pullulent, générés entièrement par IA selon les observations de l'ANSSI. Le but est souvent d'héberger des malwares ou de caractériser les visiteurs avant de les compromettre.
En ce qui concerne le code malveillant, la créativité explose. Des chercheurs de l'université de New York ont créé PromptLock, un rançongiciel qui demande à l'IA de générer elle-même ses propres instructions d'attaque en temps réel. Encore plus vicieux, vous avez Promptflux, ce virus détecté par Google utilise l'API Gemini pour se transformer complètement toutes les heures et devenir méconnaissable pour les antivirus. Du jamais vu.

WormGPT et EvilGPT, les clones malveillants de ChatGPT sur le darkweb
OpenAI a beau multiplier les protections sur ChatGPT, les cybercriminels les contournent facilement. Leur méthode ? Le jailbreak, qui consiste à piéger l'IA pour lui faire accepter des demandes normalement interdites. Des services comme EscapeGPT ou LoopGPT se vendent quelques dizaines de dollars sur les forums spécialisés. Il suffit parfois de reformuler astucieusement sa question pour faire sauter toutes les barrières.
Le darkweb propose carrément des IA entièrement débridées dès la conception. WormGPT, FraudGPT, EvilGPT... Ces clones malveillants s'échangent autour de cent dollars par mois sur Telegram ou sur les forums cybercriminels. WormGPT 4, la dernière itération, serait même directement entraînée sur des corpus d'attaques : échantillons de malwares, modèles d'hameçonnage, et exploits en tout genre.
L'ANSSI observe néanmoins des usages différenciés selon le niveau des attaquants. Les groupes sophistiqués intègrent l'IA comme un outil parmi d'autres dans leur arsenal déjà bien fourni, notamment pour produire du contenu multilingue en masse. Les cybercriminels moins aguerris y voient surtout un formidable accélérateur d'apprentissage. Dans tous les cas, l'IA permet d'agir plus vite et à plus grande échelle, ce qui la rend d'autant plus dangereuse.
L'intellience artificielle, à la fois cible et outil
Une étude britannique (UK AI Security Institute et Alan Turing Institute) explique qu'il suffirait de glisser seulement 250 documents piégés dans les bases de données servant à entraîner une IA générative pour la corrompre. Quelle que soit la taille de ces bases. De quoi altérer les réponses, avec une IA qui donnerait de mauvaises réponses, diffuserait de fausses informations ou saboterait des systèmes. L'ANSSI dit ne pas avoir encore vu d'attaque de ce type en France, mais la menace existe bel et bien.
Les comptes utilisateurs sont une autre faille béante. Entre 2022 et 2023, des infostealers comme Rhadamanthys ont permis de compromettre plus de 100 000 comptes ChatGPT, ensuite revendus sur les marchés cybercriminels. Et même sans piratage, les employés qui copient-collent des données sensibles dans ces outils prennent des risques inconsidérés. Samsung l'a appris à ses dépens en juin 2023 quand des salariés ont divulgué des informations sur sa technologie de semi-conducteurs à ChatGPT.
L'ANSSI pointe enfin une nouvelle menace, à savoir des modèles d'IA piégés disponibles en téléchargement. Certains, hébergés sur des plateformes publiques, installent discrètement des accès secrets pour les hackers dès qu'on les télécharge. Encore plus sournois, le « slopsquatting », une pratique grâce à laquelle les attaquants repèrent les noms de logiciels inventés par erreur par les IA, puis créent de vrais logiciels malveillants portant ces noms. Machiavélique.