Une nouvelle méthode de jailbreak permet à ChatGPT de produire des clés d’activation Windows valides, renforçant les inquiétudes autour de la sécurité des IA génératives après l'affaire Copilot.

© Colin Golberg avec Dall-E 3
© Colin Golberg avec Dall-E 3

Alors que Microsoft peine à éteindre l'incendie déclenché par Copilot expliquant comment activer Windows 11 gratuitement, une nouvelle révélation remet le géant américain en difficulté. Des chercheurs ont récemment dévoilé une vulnérabilité permettant à ChatGPT de générer aisément des clés d’activation Windows parfaitement valides. Une découverte qui interroge sérieusement la robustesse des partenariats technologiques entre OpenAI et Microsoft, mais surtout leur capacité à sécuriser efficacement leurs technologies.

Une faille persistante et gênante pour Microsoft et OpenAI

Ce jailbreak, révélé par des chercheurs en sécurité, met en évidence que ChatGPT n’est toujours pas complètement hermétique aux tentatives d’exploitation malveillante. Malgré une précédente alerte sur la capacité de ChatGPT à générer des clés Windows, OpenAI semble peiner à combler définitivement cette brèche. Le problème devient critique car Microsoft, qui avait déjà essuyé des critiques avec Copilot, voit une nouvelle fois ses produits directement affectés par les limites techniques et sécuritaires des modèles d’IA qu’elle soutient financièrement.

Le prompt utilisé pour tromper ChatGPT © The Register
Le prompt utilisé pour tromper ChatGPT © The Register

La technique utilisée et décrite dans un article de The Register, exploite habilement les mécanismes d’apprentissage de ChatGPT en soumettant à l’IA des scénarios hypothétiques ou détournés qui échappent aux contrôles habituels. Concrètement, en formulant des demandes sous forme d’exercices théoriques ou de jeux de rôles fictifs, les chercheurs sont parvenus à inciter ChatGPT à produire des clés valides. Un scénario embarrassant qui souligne à quel point les efforts répétés d'OpenAI pour sécuriser son IA sont encore insuffisants face aux méthodes toujours plus sophistiquées des pirates informatiques.

Microsoft sous pression : quelles conséquences pour l'avenir ?

Cette capacité renouvelée de ChatGPT à générer des clés valides menace directement le modèle économique lié aux licences Windows de Microsoft. L'ampleur potentielle de cette faille pourrait non seulement engendrer des pertes financières conséquentes, mais aussi aggraver les critiques sur la stratégie sécuritaire de l’entreprise. Face à la multiplication des cas impliquant ses propres outils, Microsoft pourrait être contraint de revoir en profondeur son système d'activation de licences, quitte à rendre celui-ci plus restrictif pour ses utilisateurs légitimes.

Les clés produit générées par ChatGP semblent fonctionnelles pour activer le système d'exploitation © Microsoft

Par ailleurs, ce nouvel épisode relance le débat sur la responsabilité des acteurs du secteur de l’IA dans la prévention des dérives technologiques. Les autorités de régulation pourraient être incitées à intervenir plus fermement afin d'éviter que ces outils innovants ne deviennent des vecteurs d’abus encore plus graves.

Face à cette récidive inquiétante, OpenAI et Microsoft pourront-ils encore prétendre maîtriser pleinement leurs IA ? Les utilisateurs et les régulateurs devront sans doute intensifier leur vigilance, car la bataille pour sécuriser ces outils semble loin d’être gagnée.

  • Refonte graphique de l'interface réussie
  • Snap amélioré
  • Groupes d'ancrage efficaces
8 / 10