Voilà une affaire qui ne devrait pas arranger la réputation de ChatGPT. En Corée du Sud, une femme s'est servie du chatbot pour recueillir des informations visant à tuer plusieurs hommes.

Une femme en train d'étudier ChatGPT. ©Tatiana Diuvbanova / Shutterstock
Une femme en train d'étudier ChatGPT. ©Tatiana Diuvbanova / Shutterstock

L'intelligence artificielle (IA), et particulièrement ChatGPT, fait l'objet de vives critiques concernant le manque de garde-fous qui l'encadrent. Le modèle d'OpenAI est impliqué dans de nombreux cas de psychoses, ainsi que le suicide de plusieurs jeunes. Mais visiblement, il est aussi utilisé à des fins criminelles, sans aucun frein…

Des questions sans équivoque

En Corée du Sud, une femme de 21 ans est accusée d'avoir tué deux hommes après leur avoir fait boire des boissons mélangées à des médicaments de type benzodiazépines. Les faits se sont déroulés à quelques jours d'intervalle dans des motels du quartier de Gangbuk-gu, à Séoul et à chaque fois, la suspecte a quitté les lieux seule peu après avoir consommé un verre avec ses victimes, retrouvées sans vie dans leur chambre. Une troisième personne aurait également survécu à une tentative similaire quelques semaines plus tôt.

C'est en analysant son téléphone portable que les enquêteurs ont fait le lien avec ChatGPT. La jeune femme aurait en effet interrogé l'IA à plusieurs reprises sur les dangers de mélanger benzodiazépines et alcool. Elle a notamment posé des questions sur les doses considérées comme dangereuses, ainsi que sur la potentielle mortalité résultant d'un tel cocktail.

Pour les autorités, ces recherches prouvent qu'elle connaissait effectivement les risques et avait anticipé les conséquences possibles.

Le logo de l'application mobile de ChatGPT. ©Shutterstock
Le logo de l'application mobile de ChatGPT. ©Shutterstock

Une autre affaire met OpenAI dans l'embarras

Initialement arrêtée pour « blessures ayant entraîné la mort », la suspecte est désormais poursuivie pour meurtre. Les enquêteurs estiment que la répétition des faits, combinée à ses recherches en ligne et à l’augmentation supposée des doses administrées, renforce la thèse d'actes prémédités plutôt que d’accidents. De son côté, la mise en cause nie toute intention de tuer.

Cette affaire tombe mal pour OpenAI, qui est pointée du doigt dans une terrible affaire au Canada. D'après le Wall Street Journal, le système de modération automatisé de l'entreprise avait signalé les conversations inquiétantes de l'auteur d'une tuerie de masse avec son modèle : si les employés de la start-up ont exhorté leurs dirigeants à alerter les autorités, ceux-ci ont choisi de ne pas le faire. Huit personnes ont trouvé la mort lors de cette fusillade, survenue le 11 février dernier dans un établissement scolaire dans l'ouest du pays.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2026
04 février 2025 à 14h11
Comparatifs services

Sources : BBC, Futurism