Les employés d'OpenAI et de Google DeepMind s'unissent pour dénoncer les risques du développement rapide de l'IA

Mathilde Rochefort
Publié le 05 juin 2024 à 11h52
Les modèles Gemini et ChatGPT, respectivement développés par Google et OpenAI © Solen Feyissa / Unsplash
Les modèles Gemini et ChatGPT, respectivement développés par Google et OpenAI © Solen Feyissa / Unsplash

Des employés, anciens et actuels, de Google DeepMind et OpenAI ont partagé une lettre alertant sur la rapidité de développement des modèles d'intelligence artificielle générative. Selon eux, les motivations financières des fournisseurs empêchent un contrôle approprié pour mitiger les risques de la technologie.

Depuis le lancement de ChatGPT fin 2022, l'industrie technologique s'est lancée dans une course effrénée à l'IA, chacun redoublant d'efforts pour déployer la technologie et ne pas se faire devancer. C'est cette précipitation que dénoncent les auteurs de la lettre ouverte, qui demandent, entre autres, une meilleure protection des lanceurs d'alerte dans le contexte de l'IA.

Parmi les 11 signataires, on retrouve notamment Geoffrey Hinton, chercheur éminent dans les réseaux neuronaux, qui a décidé de quitter Google en 2023 pour alerter sur les conséquences d'un développement incontrôlé de l'intelligence artificielle.

Les meilleures IA pour générer vos contenus
A découvrir
Les meilleures IA pour générer vos contenus

27 mars 2024 à 20h50

Comparatifs services

Les signataires réclament une meilleure protection des lanceurs d'alerte

Ils s'inquiètent des « faibles obligations » reposant sur les entreprises pour partager des informations avec les gouvernements sur les capacités et les limites de leurs systèmes. D'après eux, cacher ces informations revêt un intérêt financier certain, tandis que les systèmes sécuritaires mis en place au sein des sociétés ne sont pas suffisants. Il y a quelques jours, OpenAI formait un comité de sécurité dans lequel le P.-D.G. Sam Altman siège.

Les chercheurs citent de nombreux risques liés à l'IA, allant de la désinformation à l'aggravation des inégalités existantes. « L'extinction de l'humanité » est mentionnée dans la missive.

Outre la réluctance des entreprises à faire part des dangers de leurs modèles, les signataires regrettent l'absence de protection pour les lanceurs d'alerte souhaitant s'exprimer. « De larges accords de confidentialité nous empêchent d'exprimer nos préoccupations, sauf auprès des entreprises qui ne s'attaquent peut-être pas à ces problèmes. Les protections ordinaires des dénonciateurs sont insuffisantes, parce qu'elles se concentrent sur les activités illégales, alors que de nombreux risques qui nous préoccupent ne sont pas encore réglementés », écrivent-ils.

Ces propos sont tenus malgré l'engagement récent d'OpenAI de supprimer les clauses de non-dénigrement que l'entreprise faisait signer à ses employés, leur faisant courir le risque de perdre leurs actions s'ils critiquaient la start-up.

Les signataires appellent les entreprises d'IA à s'engager sur divers points : ne pas conclure ou appliquer des accords interdisant la critique des risques, mettre en place une procédure anonyme permettant aux employés actuels et anciens de faire part de leurs préoccupations, soutenir une culture de la critique et promettre de ne pas exercer de représailles à l'encontre de ceux qui partagent des informations confidentielles pour lancer des alertes « après que d'autres procédures ont échoué ».

Le P.-D.G. d'OpenAI, Sam Altman, fait l'objet de nombreuses critiques © Meir Chaimowitz / Shutterstock

Beaucoup d'inquiétudes, mais peu d'actes

La publication de cette lettre intervient après le départ récent de plusieurs cadres d'OpenAI. Ilya Sutskever et Jan Leike supervisaient le « super-alignement » des modèles de l'entreprise, une discipline dont l'objectif est de garantir qu'ils agissent dans l'intérêt de l'humanité.

« Nous convenons qu'un débat rigoureux est crucial compte tenu de l'importance de cette technologie, et nous continuerons de nous engager auprès des gouvernements, de la société civile et d'autres communautés dans le monde entier », a sobrement réagi OpenAI à la publication de la lettre.

Ce n'est pas la première fois que des chercheurs alertent sur les dangers de l'IA. Dès mars 2023, des milliers d'experts, dont Elon Musk, appelaient à une interruption de 6 mois de la recherche dans l'IA générative. Quelques mois plus tard, des têtes éminentes de la Silicon Valley, dont Sam Altman, estimaient que l'IA serait potentiellement aussi destructrice qu'une guerre nucléaire…

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Sources : Reuters, CNBC

Par Mathilde Rochefort

Avide de nouvelles technologies et particulièrement férue de la marque à la pomme, j’en fais mon métier depuis près d’une décennie. Réseaux sociaux, IA et autres applications… Je partage mon expertise quotidiennement sur le World Wide Web.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (7)
Adrift

Ça fait peur…

Au moins pour la bombe atomique, c’étaient les forces étatiques qui étaient en charge - des gens élus et bien plus détachés des bénéfices pécuniaires…

Avec l’IA, c’est tout l’inverse… Les forces étatiques sont complètement à genoux (par exemple, il n’y a eu aucune vraie réforme depuis 2008…) et donc c’est vraiment en roue libre…

Se recentrer sur la protection des lanceurs d’alerte est très malin… bien que cela ne changera les choses qu’aux États-Unis…

themancool87_1_1

donc ce sont eux qui créé tout ça, et ce sont eux qui ont peur de leur création?

Roger_Pimpon

Le problème maintenant est que cette course folle, au service premier d’intérêts privés (l’I.A peut assurément être porteur de belles promesses d’intérêts communs, comme dans le domaine médical. Mais ce qui est mis en avant depuis deux trois ans, ce sont des projets à intérêt strictement économique. Il s’agit de s’enrichir. Motivation tristement commune), servira en second plan les intérêts des états. Si la Chine investit à fond dans ce domaine, ce n’est pas pour de l’enrichissement privé. Des enjeux économiques et politiques (un secteur où l’I.A est très attendu est celui de l’armement) majeur, à minima potentiel, qui font qu’on ne peut plus s’autoriser à ne plus courir comme des fous. Dés lors les états démocratiques sont non seulement à la traine, mais presque dans l’obligation de baisser les yeux. C’est définitivement effrayant.
Pour rappel, Sam Altman est un survivaliste. Il pense survie (en plus d’enrichissement) avant progrès global pour tous.

Allo

Des conflits de plus en plus nombreux, le fachisme qui grimpe un peu partout dans le monde, une situation environnementale mondiale qui amènera des situations dramatiques pour des millions de personnes, des pays possédant ou s’accaparant de matières bientôt indispensables, des entreprises privées ne connaissant que le profit, partout, une augmentation des violences urbaines méprisant les forces de l’ordre ou de secours…si l’IA réfléchit un peu, elle mettra probablement fin à tout ce « bordel » en rayant l’espèce humaine de la planète et "pis c’est tout !!! " C’est cool quoi !!

sebstein

Ces propos sont tenus malgré l’engagement récent d’OpenAI de supprimer les clauses de non-dénigrement que l’entreprise faisait signer à ses employés, leur faisant courir le risque de perdre leurs actions s’ils critiquaient la start-up.

C’est plutôt grâce à cela que ces propos peuvent maintenant être tenus.

sebstein

Bof, ces problèmes étant plutôt critique pour l’espèce humaine, ils vont plutôt (et le détachement de mon message ne traduit pas la profonde tristesse de cet état de fait) s’auto-réguler et les IA n’en auront que faire…

sebstein

Pourquoi « c’était » ?
Ça te semble réellement plus sain l’arme nucléaire dans les mains de Poutine ?
Ils ont beau être élus (déjà, c’est pas forcément le cas ou, du moins, pas de manière transparente et démocratique), ça n’en reste pas moins de humains avec leurs faiblesses.
Puis bon, comparer l’IA à l’arme nucléaire, ça se pose là. On est encore bien loin d’une IA capable de réellement raisonner seule.