Alors que le monde de la cybersécurité frémissait à l’idée de logiciels malveillants dopés à l’intelligence artificielle, Google vient siffler la fin de la récréation. La montagne de la menace accoucherait-elle finalement d’une souris numérique, certes futée, mais pas si dangereuse ?

L’effervescence médiatique autour des malwares capables d’apprendre et de muter grâce à l’IA laissait présager des lendemains difficiles pour nos antivirus. On nous promettait des cyberattaques autonomes, quasi insaisissables. Pourtant, une récente analyse de Google vient jeter un pavé dans la mare des prédictions anxiogènes, en révélant que la menace réelle est, pour l’heure, bien loin du fantasme.
Beaucoup de bruit pour rien ?
Le géant de la recherche a passé au crible plusieurs familles de logiciels malveillants, dont les noms barbares comme PROMPTFLUX ou PROMPTSTEAL commençaient à faire trembler les experts. Leur particularité ? Utiliser des grands modèles de langage, comme Gemini, pour tenter de masquer leurs activités ou générer des commandes malveillantes. L’idée a de quoi séduire sur le papier, mais dans la pratique, le résultat est décevant.
Loin d’être des prédateurs numériques sophistiqués, ces programmes se sont révélés étonnamment maladroits. Leur code, bien que généré par une IA, est facilement repérable par des mécanismes de défense même basiques. Les chercheurs de Google ironisent presque sur leur manque de persistance et leurs techniques d’évasion rudimentaires, bien loin des standards actuels du crime organisé.
L’IA, un outil pour pirates paresseux ?
Plutôt que de créer des menaces inédites, les cybercriminels semblent surtout utiliser l’IA comme un assistant de luxe. Elle sert à automatiser des tâches fastidieuses comme la rédaction de courriels d’hameçonnage plus convaincants ou à déboguer du code malveillant, mais ne change pas fondamentalement la nature des attaques. En somme, l'IA est pour l'instant un amplificateur, pas un créateur.
Ce constat ramène un peu de raison dans un débat qui en manquait cruellement. La véritable menace ne vient pas de programmes fantasmés, mais bien des bonnes vieilles méthodes qui ont fait leurs preuves : l’exploitation de failles non corrigées et le vol d’identifiants restent les techniques de prédilection des pirates.
Si l’idée d’une IA maléfique et autonome est un excellent scénario de film, la réalité est plus prosaïque. L'heure n'est pas à la panique, mais à une vigilance pragmatique. Avant de craindre une intelligence artificielle hors de contrôle, peut-être faudrait-il simplement s'assurer que nos mots de passe ne sont pas « 123456 ».
Source : Ars Technica