L'entreprise derrière ChatGPT évalue les risques "chimiques, biologiques, radiologiques et nucléaires" posés par l'IA

27 octobre 2023 à 09h32
3
OpenAI aurait-elle peur de sa propre création ? © Tada Images / Shutterstock
OpenAI aurait-elle peur de sa propre création ? © Tada Images / Shutterstock

ChatGPT et le reste des intelligences artificielles qui pullulent sur le web vont-elles faire courir des risques « catastrophiques » à la race humaine ? L'entreprise derrière le chatbot s'y prépare en tout cas.

« Quels dangers les systèmes d'IA de pointe vont-ils poser lorsqu'ils seront utilisés à mauvais escient ? » C'est à cette question compliquée qu'OpenAI veut tenter de répondre. L'entreprise derrière ChatGPT vient, en effet, de monter une équipe dédiée à évaluer le danger que peuvent poser les futurs systèmes d'intelligence artificielle.

Les risques posés par l'intelligence artificielle générale

Le moins qu'on puisse dire, c'est que la firme prend le sujet au sérieux. Dans son billet d'annonce, elle explique d'emblée que « l'équipe contribuera au suivi, à l'évaluation, à la prévision et à la protection contre les risques catastrophiques [….] comme le phishing, la cybersécurité, et les menaces chimiques, biologiques, radiologiques et nucléaires ». Histoire de noircir encore un peu le tableau, « la reproduction et l'adaptation autonome », soit une sorte de singularité technologique, sont aussi citées comme des risques potentiels.

Concrètement, OpenAI — qui avouait dès son acte de naissance en 2015 que l'IA « pourrait nuire à la société si elle était conçue ou utilisée de manière inadaptée » — veut aujourd’hui réfléchir aux garde-fous à imposer à sa propre invention. Plus exactement, ce sont les IA de demain qui inquiètent l'entreprise. OpenAI parle, en effet, des « frontier models », soit des modèles d'intelligence artificielle générale encore inexistants, mais qui « dépasseront les capacités des modèles existants les plus avancés ».

OpenAI veut s'auto-réguler

L'entreprise craint que ces cerveaux numériques soient utilisés pour tromper et arnaquer les internautes (c'est déjà le cas), créer du code malveillant (c'est aussi déjà le cas) et potentiellement prendre le contrôle de certaines infrastructures critiques comme les centrales nucléaires (ce n'est, à priori, pas encore le cas).

L'équipe sera dirigée par Aleksander Madry, un ponte du MIT, et œuvrera pour « la création d'un éventail de mesures de protection et la mise en place d'une structure de gouvernance pour la responsabilité et la surveillance » de l'IA. Si la création d'une telle entité ne peut pas faire de mal, les scénarios évoqués par OpenAI n'incitent pas vraiment à l'optimisme.

De plus, la structure étant directement sous la gouvernance d'une des plus grandes entreprises dédiée au développement de l'IA, les conflits d’intérêts semblent difficiles à éviter. Espérons que les États et les structures internationales ne tardent pas à s'intéresser au sujet aussi.

Source : OpenAI

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Créé par OpenAI, ChatGPT est un chatbot avancé propulsé par le modèle linguistique de dernière génération GPT-4. En exploitant des technologies d'apprentissage en profondeur et d'intelligence artificielle, ce chatbot a la capacité de déchiffrer et de comprendre les demandes des utilisateurs. Grâce à son habileté à générer du texte de manière ingénieuse, ChatGPT offre des réponses adaptées et pertinentes, garantissant une interaction de chat fluide et une expérience utilisateur optimisée.

Corentin Béchade

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur...

Lire d'autres articles

Journaliste depuis quasiment 10 ans, j’ai écumé le secteur de la tech et du numérique depuis mes tout premiers chapôs. Bidouilleur (beaucoup), libriste (un peu), j’ai développé une spécialisation sur les thèmes de l’écologie et du numérique ainsi que sur la protection de la vie privée. Le week-end je torture des Raspberry Pi à grands coups de commandes 'sudo' pour me détendre.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (3)

Kriz4liD
Quand on veut s autoreguler , c’est qu on ne veut pas que des autorités nous régulent.<br /> Quand c’est chatgpt qui fait une etude pour chatgpt , c’est tout sauf partial !
Bestdoud
Tout le monde se met à faire des IA comme openai<br /> Alors rien n’empêchera des organisations malveillantes d’en faire une pour nuire
arnaques_tutoriels_aide_informatique_tests
Oui et en fait, ils font plus ca pour bloquer les concurrents…une grosse hypocrisie .
Voir tous les messages sur le forum
Haut de page

Sur le même sujet