Intelligence artificielle : faut-il s'inquiéter des mises en garde des scientifiques ?

le 04 décembre 2014 à 11h32
0
En matière d'intelligence artificielle, le scientifique britannique Stephen Hawking persiste et signe : l'humanité est en danger. Un discours de plus en plus fréquent dans la bouche des chercheurs. Faut-il vraiment s'en inquiéter ?

« Les êtres humains sont limités par une évolution biologique lente, ils ne peuvent pas suivre la cadence et pourraient être dépassés » estime Stephen Hawking, éminent physicien britannique. Quelques mois seulement après une tribune écrite à l'aide de trois autres scientifiques, il pointe à nouveau du doigt les risques liés au développement de l'intelligence artificielle, dans une interview accordée à la BBC.

Le soulèvement des machines ?



« L'intelligence artificielle pourrait se développer d'elle-même, se restructurer de son propre chef à un rythme de plus en plus rapide » explique Hawking. Une théorie proche de celle de Raymond Kurzweil, qui parle de Singularité technologique. Pour ce théoricien américain, il arrivera un point où l'évolution technologique donnera à un ordinateur plus de puissance de calcul et de réflexion qu'au cerveau humain, et permettra même d'y télécharger une conscience humaine. A ce stade, la machine n'aura plus besoin de l'homme pour fonctionner, et pourra même construire une nouvelle version plus perfectionnée d'elle-même, laissant l'être humain sur la touche. Un vrai récit de science-fiction - c'est notamment le discours du récent film Transcendance - mais Raymond Kurzweil estime qu'il pourrait devenir réalité aux alentours de 2045.

0320000007375069-photo-raymond-kurzweil-courbe-singularit.jpg
La courbe de la Singularité de Raymond Kurzweil

Une date à la fois loin et proche d'une époque où le développement de l'intelligence artificielle va de pair avec celle des robots. Si on pense rapidement aux androïdes qui ressemblent à l'être humain, à la manière de ceux de la série Real Humans, c'est plutôt du côté des algorithmes de plus en plus poussés qu'il faut aujourd'hui se tourner.

En effet, si la robotique parvient à développer des machines humanoïdes, tantôt attachantes - comme Nao - tantôt flirtant avec la vallée dérangeante en raison d'une similitude particulière avec l'être humain, ce ne sont finalement que des machines « sans âme ». Mais l'un des objectifs du développement de l'intelligence artificielle est justement de permettre aux machines d'avoir une réaction logique, comme pourrait en avoir un être humain.

Le travail en ce sens est long et complexe, et les entreprises focalisées sur le développement de l'IA, se penchent sur des problématiques qui les intéressent dans un contexte précis.

Le jeu de l'imitation



Parmi les évolutions notables dévoilées ces derniers mois, on trouve le travail de Microsoft sur la reconnaissance d'images, par exemple : le projet Adam, une intelligence artificielle capable d'apprendre de nouvelles informations par le biais d'une immense banque d'images. De son côté, Chematria, développé par des chercheurs de l'Université de Toronto, est capable d'analyser des modèles statiques de molécules pour déterminer l'efficacité potentielle d'un médicament avant même qu'il ne soit conçu. Et puis il y a Watson, le logiciel d'IBM, qui après avoir participé à l'émission américaine Jeopardy, est désormais destiné aux entreprises pour les aider à prendre des décisions.

03E8000007793423-photo-ibm-watson.jpg

Microsoft, Google, Facebook, IBM, Nokia... nombreuses sont les entreprises qui travaillent aujourd'hui sur le développement de l'intelligence artificielle. Mais si les progrès ont été conséquents ces dernières années, on est encore loin du moment où la machine bernera l'homme.

Car il existe un moyen de tester la « conscience » d'une IA : le test de Turing. Imaginé par le mathématicien britannique Alan Turing en 1950, il consiste à confronter des êtres humains à une entité virtuelle ou à un autre humain dans un test à l'aveugle. Si au moins 30% des « testeurs » ne parviennent pas à déterminer avec certitude s'il s'agit d'un homme ou d'une machine en face d'eux, alors le test est considéré comme réussi.

A ce jour, une seule IA a officiellement passé le test de Turing : un adolescent virtuel, Eugene Goostman, conçu par des développeurs russes. Mais la validation de ce test, réalisée 60 ans jour pour jour après la disparition de Turing, fait polémique pour son côté opportuniste, et par le fait que le panel de testeur n'était composé que de 3 personnes, dont une seule a eu un doute quant à l'identité réelle de l'interlocuteur. Difficile, à ce stade, de parler d'une menace à la Skynet... mais l'intelligence artificielle capable de berner un humain semble, cependant, en bonne voie.

Science sans conscience...



« Développer avec succès l'intelligence artificielle pourrait être le plus grand événement dans l'histoire de l'humanité. Malheureusement, ce pourrait aussi être le dernier » estimaient en mai dernier Stephen Hawking, Stuart Russel, Max Tegmark et Fran Wilczek. « L'incidence à court terme de l'intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de la possibilité concrète de la contrôler. Nous devrions tous nous demander ce que nous pouvons faire maintenant pour augmenter les bénéfices et esquiver les risques. » Une pensée partagée par Elon Musk, le patron de SpaceX, qui déclarait il y a peu « Je pense que nous devrions être très prudents à propos de l'intelligence artificielle. Si je devais miser sur ce qui constitue notre plus grande menace existentielle, ce serait probablement ça. »

0320000007793491-photo-terminator.jpg

Le fait que des chercheurs et des entrepreneurs du secteur des nouvelles technologies tirent la sonnette d'alarme ne sous-entend pas qu'il faut stopper le développement des intelligences artificielles, bien au contraire. Ce que soulignent ces intervenants, c'est davantage le fait que ce développement n'est pas encadré à ce jour, et que les entreprises qui y travaillent sont dans une course à l'évolution technologique qui pourrait bien finir par les dépasser. « Dans toutes les histoires mettant en scène un type avec un pentagramme et de l'eau bénite, il est sûr et certain qu'il va pouvoir contrôler le démon. Sauf qu'il n'y arrive pas  » illustre Elon Musk.

Malgré les alertes lancées ces derniers mois, l'amorce d'un encadrement peine grandement à arriver. Si l'Europe investit désormais dans le développement de la robotique civile, l'intelligence artificielle est un sujet qui ne semble pas vraiment passionner les foules, malgré les inquiétudes soulevées en mai dernier par les Nations Unies, concernant les « robots tueurs » et leur utilisation dans les conflits armés. Il y a donc fort à parier que les scientifiques vont continuer à multiplier les mises en garde, jusqu'à être entendus... pour le bien de l'humanité ?
Modifié le 01/06/2018 à 15h36
Cet article vous a intéressé ?
Abonnez-vous à la newsletter et recevez chaque jour, le meilleur de l’actu high-tech et du numérique.
Sélection Clubic VPN 2019

Les dernières actualités

Uber veut livrer des Big Mac par drone d'ici trois ans
IBM fait débattre une IA sur la légalisation du cannabis
Doom Eternal supportera aussi le Ray Tracing
Debian 10
Google Street View vous permet d’entrer dans la maison d’Anne Frank
Du sel découvert sur la surface d'Europe, la lune de Jupiter
Cyberpunk 2077 : le jeu pourra être terminé sans tuer personne
WhatsApp veut assainir l'utilisation de sa plateforme, en commençant par les entreprises
DJI se met aux robots de combat... éducatifs
Test E-Road Lytrot V3 : une excellente alternative à la trottinette Xiaomi
scroll top