En 2023, Evil-GPT apparaît sur le dark web. Ce chatbot s’adresse aux cybercriminels prêts à automatiser leurs attaques. Il propose la génération facile de malwares et d’emails de phishing pour environ 8,6 euros, soit 10 dollars à peine.

- Evil-GPT, un chatbot sur le dark web, facilite la création de malwares et de phishing pour 10 dollars.
- Ce service attire des cybercriminels débutants grâce à sa simplicité d'utilisation et son coût abordable.
- Les experts notent que, malgré son succès, la technologie d'Evil-GPT reste limitée et s'appuie sur des API existantes.
Au mois d’août 2023, le forum BreachForums diffuse un outil pour cybercriminels sous le pseudo AMLO. La publicité annonce un « assistant sans filtre » et présente une utilisation simple, capable d’éviter les restrictions habituelles imposées par ChatGPT. Les utilisateurs peuvent créer des scripts malveillants, organiser des campagnes de phishing, sans frein technique. La communauté underground suit rapidement cet outil, tandis que les experts cherchent à évaluer son impact. Les premiers retours et analyses alimentent les débats. Beaucoup cherchent à savoir si Evil-GPT modifie réellement les méthodes utilisées dans la cybercriminalité.
Une accessibilité qui facilite la création de malwares par des débutants
L’offre s’adresse principalement aux utilisateurs peu expérimentés qui veulent créer rapidement des scripts capables de voler mots de passe ou cookies et transmettre ces données à un serveur Discord. Le coût d’accès reste abordable. Dix dollars, soit environ 8,6 euros, suffisent pour l’ensemble des fonctionnalités. Ce prix attire beaucoup de curieux et des amateurs en mal d’expertise. Sur les forums, nombreux évoquent la simplicité d’utilisation. Générer un script devient possible sans connaissances techniques poussées. C'est ce qui a permis entre autres, des arnaques comme celle de Mondial Relay ou Ulyss.
Le vendeur d’Evil-GPT adapte ses arguments à ce public. Il propose une solution clé en main, facile à utiliser. Sur Telegram et d’autres plateformes clandestines, les échanges sur l’outil se multiplient. Plusieurs utilisateurs détaillent leurs expériences. Génération de codes malveillants, campagnes de phishing, collecte automatisée de données… L’outil couvre plusieurs usages. La clientèle vise surtout à éviter la technicité des logiciels plus lourds. Cette diffusion risque d’accroître le nombre d’attaques personnalisées.
Une technologie limitée camouflée par un marketing ambitieux
Les experts en sécurité inspectent le fonctionnement du chatbot. Une étude de Trend Micro en 2024 éclaire la réalité. Evil-GPT repose sur l’API OpenAI, qui subit des contournements par clés volées et prompts jailbreakés. L’utilisateur croit utiliser une plateforme autonome, mais le service repose sur une infrastructure existante.
Sur Hackforums, des témoignages relèvent les limites du système. Certains confirment que le bot produit des scripts ou emails simples, sans pouvoir gérer des tâches complexes. Les résultats restent standards, sans innovation technique majeure.
D’autres clones tournent dans le même réseau. Chaque version promet une génération rapide de commandes malveillantes à la demande. Derrière le battage commercial, les analystes notent que la plupart des scripts s’appuient sur des algorithmes généraux, rarement conçus pour la cybercriminalité. Depuis 2023, la production de scripts augmente, mais la qualité dépend avant tout du modèle IA exploité.
Les places de marché clandestines recensent ces outils en masse. WormGPT, FraudGPT, WolfGPT, entre autres, proposent des formules de différentes gammes allant de quelques dizaines à plusieurs milliers de dollars. Sur Telegram, des groupes réunissent plusieurs centaines d’utilisateurs intéressés. Le modèle commercial repose surtout sur la multiplication rapide des ventes et l’offre d’exclusivité plus que sur une différenciation technologique.
Les équipes sécurité observent une hausse du nombre d’e-mails de phishing et d’outils automatisés. Elles recommandent de considérer toute attaque comme potentiellement générée par un chatbot. Les dispositifs se modernisent pour détecter ces menaces plus rapidement.
Début 2024, le chercheur Alex Reibman évoque sur Twitter l’essor des « agentic malware » capables d’automatiser des attaques ciblées. Il rappelle que ces outils sont souvent limités par les API utilisées, tout en abaissant la barrière d’entrée de la cybercriminalité.
Son analyse confirme que l’innovation est ailleurs, dans la démocratisation d’usage plutôt que dans la technologie elle-même.
Enfin, à titre de comparaison, il se raconte qu'un accès à ces chatbots malveillants coûte environ cent fois moins qu’un abonnement VPN du dark web.
Source : Barracuda Blog, Trend Micro, OutPost24