La fin du monde ? L'IA serait aussi potentiellement destructrice qu'une guerre nucléaire, pour certains acteurs de la tech

31 mai 2023 à 14h10
11
© Paopano / Shutterstock
© Paopano / Shutterstock

« Réduire le risque d'extinction à cause de l'IA devrait être une priorité mondiale, au même titre que des risques de société comme les pandémies et la guerre nucléaire. »

Cette phrase lapidaire constitue l'intégralité du communiqué posté sur le site du Center for AI Safety, une organisation dont le but est de réduire les risques posés sur la société par le développement de l'IA. Loin d'être la première du genre, son originalité est à chercher chez ses signataires. On y trouve les dirigeants d'Open AI, de la division DeepMind de chez Google, ou encore des chercheurs reconnus dans le domaine. Espérons qu'ils trouveront les responsables de tout cela.

Les risques existentiels de l'IA, une probabilité réelle

Ce n'est pas la première fois que des acteurs concernés au premier chef par le développement des intelligences artificielles expriment leurs inquiétudes sur le sujet. En mars, une lettre signée par plus de 1 000 d'entre eux appelait à une pause de 6 mois dans le développement de la technologie. Si les risques évoqués sont largement crédibles, la pause dans le développement de l'IA semble un vœu pieux, tant elle fait l'objet d'une course effrénée depuis qu'elle est sortie des laboratoires.

La probabilité qu'un événement grave, voire cataclysmique soit causé dans le futur par l'intelligence artificielle ne relève absolument pas de la science-fiction. Les risques, tant envisagés (deepfakes, manipulation des élections, perte de contrôle de systèmes d'armement, etc.) qu'encore inconnus sont pris très au sérieux par les chercheurs et autres acteurs du sujet. Au point de développer le concept de P(doom), qui symbolise la probabilité estimée par chacun que l'IA cause une extinction de l'humanité ou une autre catastrophe mondiale irréversible. Rares sont ceux qui placent leur P(doom) à moins de 10 %…

Sam Altman, P.D.-G. d'Open AI © TechCrunch
Sam Altman, P.D.-G. d'Open AI © TechCrunch

La dissonance cognitive des leaders de l'industrie

Seulement, il est permis d'avoir des doutes, ou au moins de s'interroger sur l'honnêteté ou les motivations de certains de ces acteurs qui, rappelons-le, vivent littéralement du développement de cette technologie. Le laboratoire OpenAI, dirigé par Sam Altman, a été créé en 2015 spécifiquement pour contrer les dérives des « mauvaises » IA, et était sans but lucratif. Ce dernier point a été rapidement abandonné à partir de 2019. Quant au premier… cela reste à voir.

Le personnage même de Sam Altman est complexe. S'il est vrai qu'il ne fait rien pour minimiser auprès du public les risques posés par son bébé ChatGPT, allant même jusqu'à appeler de ses vœux une régulation, certains critiquent ses propositions en la matière, qui ne viseraient qu'à graver dans le marbre une situation établie, dans laquelle il joue un rôle de premier plan. Il est également difficile de saisir le vrai du faux quand il explique être terrifié par ce que l'IA est capable de faire au monde, pour vanter toutes les raisons pour lesquelles elle en fera un meilleur endroit dans la phrase suivante.

Enfin, il n'est peut-être pas inutile de rappeler que, comme il l'a lui-même expliqué dans une interview, Altman est un survivaliste. Cela signifie qu'il a déjà préparé (armes et masques à gaz, entre autres) tout ce qui sera nécessaire à sa survie quand l'heure de l'Apocalypse aura sonné.

Sources : Engadget, Futurism

Vincent Mannessier

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et...

Lire d'autres articles

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et des GAFAM, mais les jeux vidéos et l'innovation numérique en général me passionnent aussi.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (11)

Goodbye
Y’a vraiment des gens qui ont peur ?
fredolabecane
Skynet?
Fab12
Les milles signataires sont tous entrain de travailler sur la IA en secret pour ne pas être en retard, ces sociétés américaines nous prend pour des c***.
Mr_Electro84
Pour information, il y a plus urgent à résoudre, notamment le dérèglement climatique qui lui commence véritablement à faire des ravages, que cette histoire d’IA potentiellement destructrice !
Arthur_12
La peur est un moyen de faire vendre, nous prendrait-il pour des idiots ?
ayaredone
Bah je pense que c’est surtout l’Homme la plus grande menace… Je me demande comment ce sera dans 100 ans et dans 1000 ans. Dommage, je ne le saurai pas
Fab12
Les multinationales s’en fiche totalement des du dérèglement, il sert a culpabiliser les pauvres pour les taxer.
baazul
L’homme n’a pas besoin de l’IA pour mettre fin au monde actuel, il se débrouille très bien tout seul… cela prend juste plus de temps.
Core-ias
L’union fait la force. L’homme n’est jamais 100% d’accord avec lui même.<br /> 50 % est l’équilibre.<br /> Pour UN individu constituant l’homme… Trop petit pour être écrit lisiblement.
arnaques_tutoriels_aide_informatique_tests
Sam altman la premier, quel hypocrite !
arnaques_tutoriels_aide_informatique_tests
Exacte
xavz78
Une chose est sûr, le pouvoir de l’IA ne doit pas être mis dans toutes les mains et devra être convenablement régulé.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet