Un simple hashtag, et c'est la panique à bord. Les chercheurs de Cato Networks viennent de révéler une faille, nomméeHashJack, qui transforme nos brillants navigateurs IA en véritables passoires. Le coupable ? Ce petit symbole « # » que tout le monde pensait inoffensif et qui permet désormais de berner l'intelligence artificielle de votre navigateur préféré.

Vous pensiez avoir tout vu en matière de cybermenaces ? Détrompez-vous. L'arrivée des assistants intelligents dans nos navigateurs a ouvert une brèche inédite, exploitant une mécanique du Web vieille comme le monde mais jusqu'ici inoffensive : le fragment d'URL.
Quand le diable se cache dans les détails (et les dièses)
L'attaque HashJack est d'une simplicité qui frise l'insolence. Elle exploite un angle mort architectural du web : les fragments d'URL, cette partie de l'adresse située après le dièse. Historiquement, ces bouts de code restent sagement dans votre navigateur pour gérer la navigation interne d'une page, sans jamais être envoyés au serveur. C'est là que l'astuce opère : les pirates peuvent y cacher des instructions malveillantes.
Votre assistant IA, ce zélé serviteur, lit ces instructions locales et les exécute bêtement. Résultat ? Sur des outils comme Perplexity Comet ou l'assistant de Microsoft Edge, un lien apparemment sain peut forcer l'IA à exfiltrer vos données ou à vous afficher de fausses informations. C'est un peu comme si votre garde du corps laissait entrer un cambrioleur parce qu'il porte un badge « invité » écrit au feutre.

Le plus ironique dans cette histoire, c'est que nos systèmes de sécurité traditionnels n'y voient que du feu. Pare-feu et antivirus surveillent le trafic réseau, mais comme l'attaque se joue entièrement dans le navigateur de la victime, elle passe totalement sous les radars. Une belle leçon d'humilité pour des technologies censées représenter le futur de l'informatique.
La course à la rustine a commencé
Face à cette débâcle, la réaction ne s'est pas fait attendre. Microsoft et Perplexity ont sorti la boîte à outils en catastrophe pour colmater les brèches. On appréciera la réactivité, même si elle laisse un goût amer : pourquoi faut-il toujours attendre qu'une porte soit enfoncée pour penser à installer une serrure ?
Pour l'instant, certains élèves modèles comme ChatGPT Atlas ou Claude semblent résister à cette attaque précise. Mais ne sortez pas les confettis trop vite. L'histoire récente nous a appris que la sécurité des agents IA ressemble à un jeu de tape-taupe : à peine une faille corrigée, une autre pointe le bout de son nez.
En attendant que nos assistants numériques deviennent réellement matures, la prudence reste de mise. Cato Networks suggère même aux entreprises de limiter drastiquement l'usage de ces outils ou de bloquer les fragments d'URL suspects. En somme, pour sécuriser l'IA de demain, on en revient aux bonnes vieilles méthodes d'hier : la méfiance et le verrouillage. Pas très « futuriste », n'est-ce pas ?
Source : Tech Radar