OpenAI tente de rassurer le grand public face aux risques des IA avec des nouvelles procédures de sécurité

20 décembre 2023 à 20h02
6
Un smartphone affichant ChatGPT devant le logo d'OpenAI © T. Schneider / Shutterstock.com
Un smartphone affichant ChatGPT devant le logo d'OpenAI © T. Schneider / Shutterstock.com

OpenAI a mis en place plusieurs nouvelles mesures destinées à réduire les risques créés par le développement d'intelligences artificielles puissantes.

L'année 2023 avait commencé avec ChatGPT, qui avait émerveillé la planète avec ses capacités exceptionnelles. Elle s'achève avec plus d'inquiétudes sur cette technologie, surtout que le secteur a pour leader OpenAI, une start-up qui a connu de grosses turbulences avec le vrai faux départ de son patron Sam Altman, le tout sur fond de crainte sur les risques créés par l'IA. L'entreprise cherche depuis à rassurer, avec de nouvelles mesures.

La direction pourra être contrée par le Conseil d'administration

Lors du psychodrame Sam Altman, le public avait appris que son entreprise avait déjà atteint un niveau de développement technologique qui lui permettait de disposer d'une IA potentiellement extrêmement dangereuse. C'était semble-t-il une des raisons qui avaient poussé le scientifique en chef Ilya Sutskever à alors mener sa fronde.

OpenAI a depuis appris sa leçon, et souhaite éviter ce genre de problème à l'avenir. C'est sûrement pour cette raison que la firme californienne a en début de semaine produit de nouvelles lignes directrices pour la société. D'après celles-ci, le Conseil d'administration pourra bloquer le déploiement d'une IA qu'il considère comme risquée, et ce même si la direction affirme de son côté qu'elle est sûre. Une façon d'ajouter un nouveau garde-fou.

© Vitor Miranda / Shutterstock
© Vitor Miranda / Shutterstock

OpenAI va évaluer en continu les risques potentiels

Mais les mesures qui ont été construites ne s'arrêtent pas à une meilleure surveillance de la direction. Une équipe menée par Aleksander Madry aura pour mission d'évaluer continuellement les risques posés par les modèles de langages développés, et ce, au niveau de quatre grandes catégories, comprenant notamment la cybersécurité ou les menaces chimiques, bactériologiques et nucléaires.

L'équipe sera en alerte sur les risques considérés comme potentiellement « catastrophiques. » Une dénomination qui s'applique « à tout risque qui pourrait entraîner des centaines de milliards de dollars de dommages économiques ou conduire à des dommages graves ou à la mort de nombreuses personnes. »

Cette même équipe enverra par ailleurs un rapport mensuel pour détailler les résultats des recherches menées. Sera-ce assez pour rassurer les gouvernants, qui sont de plus en plus nombreux à vouloir réguler la technologie ?

Source : Bloomberg

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (6)

sh1v4
Joli sens des priorités : « à tout risque qui pourrait entraîner des centaines de milliards de dollars de dommages économiques ou conduire à des dommages graves ou à la mort de nombreuses personnes. » … le fric d’abord, lol … j’aurais eu plus confiance si ça avait été plutôt formulé ainsi : « à tout risque qui pourrait conduire à des dommages graves ou à la mort de nombreuses personnes ou entraîner des centaines de milliards de dollars de dommages économiques. »
cid1
Vous dites qu’elle pourrait causer des morts, vous pouvez développer, car je ne vois pas comment cette soi-disant Intelligence Artificielle pourrait causer des morts.
Comcom1
Une intelligence artificielle dans une voiture autonome qui comporte un bug soit dans son codage soit dans son entrainement.<br /> Utilisation d’intelligence artificielle dans la fabrication d’arme militaire.<br /> Des exemples, ça se trouve facilement, en fait ce sont les mêmes exemple qui existent déjà avec n’importe quel autre algorithme, mais ça fait plus «&nbsp;science fiction&nbsp;» donc polémique au final (du buzz et du clique), je rejoins l’idée qu’on dramatise tellement derrière tout ça…
cid1
Manque d’imagination de ma part, merci pour l’éclairage.
twist_oliver
le fric d’abord<br /> Au risque de te choquer, chaque nation a un montant défini pour la valeur d’un citoyen. C’est ce qui déclenche ou pas l’action d’un pays quand un de ses citoyens est en péril. N.B. le «&nbsp;on ne laisse personne derrière&nbsp;» ou «&nbsp;on ne négocie jamais avec les terroristes&nbsp;» ne sont que des éléments de communication.
arnaques_tutoriels_aide_informatique_tests
C est evident pourtant
Voir tous les messages sur le forum
Haut de page

Sur le même sujet