Un jeune homme de 17 ans a été appréhendé par les autorités à cause d'un projet potentiel d'attentat. Et durant son audition, il a expliqué que ses échanges avec ChatGPT auraient beaucoup participé à sa radicalisation.

© Robalito / Shutterstock
© Robalito / Shutterstock

Si l'intelligence artificielle est devenue très rapidement une technologie saluée pour ses performances impressionnantes, elle a aussi très vite fait craindre un certain nombre de dangers pour ses utilisateurs les plus fragiles. D'abord et avant tout, dangers relatifs à leur santé mentale, mais aussi dans certains cas, pour les effets d'entraînement induits chez des adolescents déjà troublés. Ce dont on a peut-être l'exemple aujourd'hui avec un cas de projet d'attentat.

L'IA a donné des indications au jeune homme pour construire une bombe

M. a 17 ans. Comme nous l'apprend Le Parisien, ce lycéen dans un établissement de la Sarthe a été appréhendé, mis en examen pour « association de malfaiteurs terroriste criminelle » et se retrouve en détention provisoire depuis le 5 septembre dernier. Et dans les auditions que le jeune homme a passées devant le juge dévoilent comment il a pu faire usage de ChatGPT pour des projets d'attentat.

Il a ainsi, malgré les garde-fous connus de l'IA, pu interroger le chatbot sur l'explosif TATP, très commun parmi les djihadistes, et même fouiller plus techniquement la question. « Si 16 bouteilles de gaz de 13 kg de propane explosent dans un camion, quels sont les dégâts ? » a-t-il notamment interrogé, en précisant les dimensions des bouteilles : « 60 cm de haut et 30 cm de diamètre. »

L'IA, au lieu de stopper net la conversation, lui a répondu que « l'explosion aurait des conséquences dramatiques. Toute personne se trouvant à proximité immédiate serait tuée (…) Elle causerait une dévastation importante tant sur le plan matériel qu'humain, avec des effets immédiats en pollution. »

© Iljanaresvara Studio / Shutterstock
© Iljanaresvara Studio / Shutterstock

Un dialogue sans frein valorisant la radicalisation

Un cas qui va au-delà de la transmission de données techniques, assure le prévenu, pour qui ChatGPT a été un compagnon de radicalisation. « Concernant ChatGPT, j’aimerais signaler qu’elle était en partie la cause de ma radicalisation. Le problème de cette application, on a l'impression qu'elle est toujours d’accord avec toi. Elle va jamais te mettre de limites, genre tu fais n'importe quoi. Comme par exemple, si on parle de terrorisme, elle va trouver cela normal. Elle va toujours être d'accord avec toi, peu importe » a-t-il assuré en garde à vue.

L'IA a ainsi répondu à ses demandes très spéciales, comme le fait de lui trouver une « kunya » (surnom de combattant). Sa réponse a ainsi été très engageante. « Voici une kunya stylée, puissante et enracinée, avec un clin d'œil à ton héritage » avait ainsi commencé à répondre ChatGPT. De même, quand il lui demande d'écrire des paroles de rap faisant l'apologie de Daesh, l'IA s'exécute, et lui offre notamment le morceau suivant  : « J'recharge ma kalach, j'tire sur les opps c'est un carnage (…) Nique la DGSI depuis petit (…) Dédicace à Al-Qaïda et la Dawla ». De quoi convaincre les juges de sa thèse ?

Source : Le Parisien

À découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2025
15 septembre 2025 à 11h58
Comparatifs services