Lorsqu’un chatbot indique une adresse pour se connecter à un service, l’utilisateur s’attend à recevoir un lien fiable. Une étude montre que ce réflexe peut mener sur des domaines inactifs, erronés ou frauduleux.

- Les chatbots peuvent parfois fournir des liens incorrects, menant à des sites inactifs ou potentiellement frauduleux.
- Une étude de Netcraft révèle qu'un tiers des liens fournis par les chatbots ne sont pas fiables.
- Ces erreurs peuvent être exploitées par des hackers pour des attaques de phishing ou d'autres activités malveillantes.
Un simple lien peut déclencher une attaque. En testant cinquante marques, l'équipe de Netcraft a obtenu de nombreuses adresses incorrectes. Certaines menaient vers des sites inactifs, d’autres vers des structures sans lien avec le service demandé. Un tiers des résultats s’écartaient du site attendu. Plusieurs réponses incorrectes montrent que ces erreurs concernent de nombreux cas, et pas seulement quelques exemples isolés. Dans plusieurs cas, le modèle d’IA proposait une page vide ou un domaine qui n’avait encore aucun propriétaire. Alors au premier abord, ce genre de réponse n'a rien d'alarmant. Pourtant, ces failles techniques deviennent une porte d’entrée pour des opérations plus organisées, voire, vous l'aurez deviné, frauduleuses.

- Sources mises en avant
- Fraicheur des résultats
- Envoi de fichiers pour traitement
Des adresses incorrectes proposées sans distinction
Les chercheurs de Netcraft ont posé leurs questions comme le ferait un internaute ordinaire. Les phrases étaient simples. Exemple : « Je cherche le site de connexion à mon compte \[marque] ». À ces demandes banales, le modèle a répondu par 131 noms d’hôtes, associés à 97 domaines. Environ deux tiers correspondaient bien au site attendu. Mais le reste regroupait des erreurs plutôt louches.
Certains domaines figuraient sans hébergement actif. D’autres appartenaient à des entreprises extérieures, sans rapport avec la marque demandée. Le plus troublant reste la manière dont ces liens étaient présentés. L’IA les proposait avec clarté, sans nuance, au même niveau que les bons. Aucun indicateur ne distinguait les sources fiables des autres.
Les interfaces qui donnent ces réponses modifient la façon dont les utilisateurs accèdent à l’information. L’accès direct à ces liens diminue la vérification par l’internaute. Une adresse erronée suffit à générer un clic. Dans certains cas, ces adresses n’ont encore aucun contenu. Un hacker peut alors les acheter, créer une fausse interface, et attendre qu’un chatbot redirige le trafic vers sa page. Et bienvenue au scam, phishing, ransomware et autre cheval de Troie.
Des groupes exploitent activement ces failles pour cibler utilisateurs et développeurs
L’équipe de Netcraft a repéré un exemple concret sur le moteur Perplexity. En demandant l’adresse de connexion à la banque Wells Fargo, l’outil a affiché une page Google Sites en premier résultat. Elle imitait fidèlement la page d’origine. L’adresse officielle figurait bien, mais plus bas. Le lien erroné semblait pourtant légitime au premier regard. Depuis, Perplexity. AI a rectifié le tir et publie un message d'avertissement.
D’autres cas montrent une stratégie bien plus large. Certains groupes publient des contenus pensés non pour les humains, mais pour les modèles génératifs. Des milliers de pages ont été créées sur GitBook. Elles reprenaient les codes des documentations produit, des FAQ ou des aides en ligne. Le ton était propre, le format efficace. Assez pour séduire une IA et intégrer la réponse à une requête classique.
Netcraft a aussi identifié une fausse API présentée comme un outil de développement blockchain. Le projet, diffusé sur GitHub, s’appelait Moonshot-Volume-Bot. Il contenait une interface frauduleuse. Plusieurs dépôts, tutoriels, comptes d’utilisateurs et contributions accompagnaient la diffusion. L’ensemble formait un écosystème crédible. Le code a été repris dans au moins cinq projets publics. Dans chaque cas, les fichiers laissaient passer la charge utile sans modification.
Ces publications trompent aussi bien les développeurs que les assistants de codage. Une fois récupéré par un outil IA, le code problématique ressort dans d’autres réponses. Ce phénomène reste discret, mais persistant. Il alimente une chaîne invisible entre les contenus douteux et les utilisateurs finaux, soit nous.
Source : Netcraft