Un garde-fou international pour l'intelligence artificielle ? Même le boss d'OpenAI le demande !

25 mai 2023 à 12h55
6
Sam Altman © TechCrunch
Sam Altman © TechCrunch

Les dirigeants d'OpenAI viennent de publier une note dans laquelle ils appellent à la création de régulations internationales pour l'intelligence artificielle.

Ce genre d'appel n'est pas nouveau. On a ainsi pu voir Elon Musk cosigner avec nombre d'experts une pétition demandant la mise en pause du développement de l'IA, alors que des personnalités éminentes de la tech telles que Steve Wozniak se sont émues des potentiels dangers de la technologie. Sauf que cette fois, la déclaration émane directement des développeurs de ChatGPT !

Vers une agence internationale de l'IA ?

« Il faut réguler l'IA ! » Voilà, semble-t-il, le nouveau cri du cœur des autorités comme l'Union européenne ou la Chine, mais aussi des spécialistes du secteur. Cette tendance est une nouvelle fois illustrée par un appel lancé directement de chez OpenAI. En effet, une note signée par les fondateurs Sam Altman, Greg Brockman et Ilya Sutskever réclame de nouvelles régulations.

Ils appellent ainsi d'un côté les gouvernements à plus de coordination, proposant notamment la création d'un grand projet international, surveillé par les États et à l'intérieur duquel les grands acteurs de l'IA travailleraient. Ils estiment aussi que les décideurs politiques pourraient poser ensemble des limites à la croissance annuelle de l'IA, permettant aux régulateurs de suivre les progrès de l'objet à surveiller.

Par ailleurs, établissant un parallèle entre l'IA et l'énergie nucléaire pour sa capacité à changer totalement l'avenir humain et à la fois à représenter un danger existentiel, ils proposent l'établissement d'une agence internationale de l'IA sur le modèle de l'Agence internationale de l'énergie atomique (AIEA).

Il ne faut pas laisser l'IA sans contrôle © Mopic / Shutterstock
Il ne faut pas laisser l'IA sans contrôle © Mopic / Shutterstock

Des règles à plusieurs vitesses

Cette agence pourrait mener des inspections au sein des infrastructures de développement de l'intelligence artificielle, ordonner des audits, ou même imposer des restrictions sur le développement et les niveaux de sécurité. « Il serait important qu'une telle agence se concentre sur la réduction des risques existentiels, et non sur des questions qui devraient être laissées à l'appréciation de chaque pays, comme la définition de ce qu'une IA devrait être autorisée à dire », est-il tout de même ajouté.

Autre bémol de cet appel, les chefs d'OpenAI estiment que les régulations dont ils parlent devraient s'appliquer aux grandes entreprises déjà installées sur le marché et proposant des produits avancés. Ils demandent en revanche plus de liberté réglementaire pour les acteurs émergents : « Nous pensons qu'il est important de permettre aux entreprises et aux projets open source de développer des modèles en dessous d'un seuil de capacité significatif, sans le type de réglementation que nous décrivons ici. » Un équilibre plus facile à dire qu'à atteindre ?

Sources : New York Times, OpenAI

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (6)

Zimt
Coup de pub grossier au passage… « mon produit est trop puissant, il faut le limiter et en limiter son usage ».<br /> Par contre pour mettre sur Off, personne bien sûr
Guillaume1972
Il aurait peut-être pu y penser avant de lancer leurs IA génératives. Quand au stop, je n’y crois pas une seconde, parce qu’il y aura toujours un labo ou un état genre au hasard la Corée du Nord qui bossera dans son coin, et lorsque la pause sera levée et bien ceux qui auront continué auront pris une avance considérable, donc la pause ou le stop est impossible. C’est un peu le même problème que pour les armes autonomes, certains demandent un moratoire, mais qui imagine sérieusement que tout le monde jouera le jeu?
Comcom1
J’adore tout ce côté science fiction autour de l’IA mais sommes nous dans Terminator ou iRobot, est-ce que les 3 lois formulées en 1942 vont devenir réalité hum j’ai hâte de lires les prochaines news à sensation sur le sujet.<br /> Un grand merci au cinéma pour avoir permis d’ancrer toutes ces petites choses de l’imaginaire pour mieux associer l’IA d’aujourd’hui à la science-fiction d’hier
norwy
Un gros coup d’épée dans l’eau
bennukem
L’idée et de mettre la responsabilité des limites à un autre. Si ça dérape, ils pourront dire, voyez, j’ai fait ce une vous aviez demandé
Nmut
La grosse différence entre les films et la vraie vie, c’est que dans les films, les IA prennent le pouvoir, dans la vraie vie, c’est n’importe qui qui fait n’importe quoi avec facilité (et souvent le pire)…<br /> Comme souvent le problème n’est pas l’outil mais celui qui le tient.
Nmut
Pas que.<br /> Comme c’est le plus exposé, il a tout intérêt à montrer qu’il est « gentil ».<br /> Du point de vue business, il a aussi intérêt à avoir le plus tôt possible une législation stable et précise pour orienter son business car de toute façon, il y aura de la régulation.
Comcom1
Ah oui tout à fait, pour l’utilisation qu’on en fait c’est un autre pb, les mauvais usages et dérivent existent déjà pour bien d’autres technologies, pour autant on ne les interdits pas (heureusement d’ailleurs…)<br /> Mon commentaire avait plus pour vocation à démontrer la diabolisation de cette technologie ainsi que le mélange flagrant avec la science fiction d’avant.
Zimt
Les autres technologies n’imitent pas la pensée d’un humain.
Comcom1
L’IA n’est pas OpenAI, l’IA n’imite pas la pensée humaine, c’est justement l’amalgame que je dénonce.<br /> Ce qu’on appel réellement une IA d’un point de vue technique c’est un programme qu’on entraine à une tâche par exemple la reconnaissance de visage ou d’objet, par exemple c’est un outil particulièrement utile pour le bon fonctionnement d’une voiture autonome, il y a des dizaines d’IA dans ce genre de voiture, une pour reconnaitre les panneaux, une pour reconnaitre la chaussée, une pour reconnaître les lignes sur la chaussée, une pour reconnaitre un humain, une autre pour les animaux bref et j’en passe. Dans ce cas il n’y a pas d’intelligence au sens « pensée humaine » et pourtant c’est bel et bien de l’intelligence artificiel. Un autre exemple au moins autant voir encore plus utile : on entraine des IA a lire des IRM et autres résultats médicaux pour par exemple détecter le cancer, même si pour moi ça n’enlève pas l’analyse humaine ça permet d’apporter plus de performance, le médecin gagne du temps voir on s’évite de passer à côté d’erreurs potentielles.<br /> Des inondations et inventions dans ce genre il y en a des centaines et depuis bien avant OpenAI et qui ont une réelle utilité pas juste pour permettre aux étudiants de pouvoir rédiger du texte, malheureusement les articles font juste du buzz autour de tout ça en faisant croire que c’est une technologie nouvelle et en faisant systématiquement des amalgames de films de science fiction.
Zimt
Merci pour ces détails, mais j’ai bien dis « imiter. »<br /> Faire croire, etc… les dangers sont ici, car 99.8% des gens sur Terre s’en contre-foutent de tel ou tel système technique mise en place. (je rappel, Apollo Guidance Computer : 1Mhz pour aller sur la Lune - Smartphone Lambda 2Ghz Pour regarder du p_rno et faire du TikTok.<br /> Pour « eux », l’expérience faite est une réalité.<br /> Si ça imite, c’est « pareil » ou presque.
Comcom1
Ça rejoint le commentaire précédent sur l’usage de la technologie, et pour le coup peu importe la technologie, on peut en détourner l’usage pour quelque chose qui ne soit pas correcte comme la news qui parle de génération d’image pedopornographique à l’aide des IA, c’est franchement dégueulasse mais qu’est-ce que tu veux… empêcher ce genre d’usage me paraît impossible, le condamner ça me paraît évident.<br /> Des exemples dans le même genre il y en a plein, la maladie de notre monde par exemple la manipulation du grand publique au travers de l’information, on le voit avec Facebook/Cambridge, on pleure sur l’IA hors elle ne fait qu’interpréter/analyser des données, par contre c’est plus le big data qui serait à attaquer collecter encore et toujours plus de données sur tout et tout le monde, générer des profils pour des ciblages publicitaires ou pour pousser l’opinion publique à être pour ou contre tel ou tel sujet là il y aurait des sujets à aborder
Voir tous les messages sur le forum