Intelligence artificielle : faut-il s'inquiéter des mises en garde des scientifiques ?

04 décembre 2014 à 11h32
0
En matière d'intelligence artificielle, le scientifique britannique Stephen Hawking persiste et signe : l'humanité est en danger. Un discours de plus en plus fréquent dans la bouche des chercheurs. Faut-il vraiment s'en inquiéter ?

« Les êtres humains sont limités par une évolution biologique lente, ils ne peuvent pas suivre la cadence et pourraient être dépassés » estime Stephen Hawking, éminent physicien britannique. Quelques mois seulement après une tribune écrite à l'aide de trois autres scientifiques, il pointe à nouveau du doigt les risques liés au développement de l'intelligence artificielle, dans une interview accordée à la BBC.

Le soulèvement des machines ?

« L'intelligence artificielle pourrait se développer d'elle-même, se restructurer de son propre chef à un rythme de plus en plus rapide » explique Hawking. Une théorie proche de celle de Raymond Kurzweil, qui parle de Singularité technologique. Pour ce théoricien américain, il arrivera un point où l'évolution technologique donnera à un ordinateur plus de puissance de calcul et de réflexion qu'au cerveau humain, et permettra même d'y télécharger une conscience humaine. A ce stade, la machine n'aura plus besoin de l'homme pour fonctionner, et pourra même construire une nouvelle version plus perfectionnée d'elle-même, laissant l'être humain sur la touche. Un vrai récit de science-fiction - c'est notamment le discours du récent film Transcendance - mais Raymond Kurzweil estime qu'il pourrait devenir réalité aux alentours de 2045.

0320000007375069-photo-raymond-kurzweil-courbe-singularit.jpg
La courbe de la Singularité de Raymond Kurzweil

Une date à la fois loin et proche d'une époque où le développement de l'intelligence artificielle va de pair avec celle des robots. Si on pense rapidement aux androïdes qui ressemblent à l'être humain, à la manière de ceux de la série Real Humans, c'est plutôt du côté des algorithmes de plus en plus poussés qu'il faut aujourd'hui se tourner.

En effet, si la robotique parvient à développer des machines humanoïdes, tantôt attachantes - comme Nao - tantôt flirtant avec la vallée dérangeante en raison d'une similitude particulière avec l'être humain, ce ne sont finalement que des machines « sans âme ». Mais l'un des objectifs du développement de l'intelligence artificielle est justement de permettre aux machines d'avoir une réaction logique, comme pourrait en avoir un être humain.

Le travail en ce sens est long et complexe, et les entreprises focalisées sur le développement de l'IA, se penchent sur des problématiques qui les intéressent dans un contexte précis.

Le jeu de l'imitation

Parmi les évolutions notables dévoilées ces derniers mois, on trouve le travail de Microsoft sur la reconnaissance d'images, par exemple : le projet Adam, une intelligence artificielle capable d'apprendre de nouvelles informations par le biais d'une immense banque d'images. De son côté, Chematria, développé par des chercheurs de l'Université de Toronto, est capable d'analyser des modèles statiques de molécules pour déterminer l'efficacité potentielle d'un médicament avant même qu'il ne soit conçu. Et puis il y a Watson, le logiciel d'IBM, qui après avoir participé à l'émission américaine Jeopardy, est désormais destiné aux entreprises pour les aider à prendre des décisions.

03E8000007793423-photo-ibm-watson.jpg

Microsoft, Google, Facebook, IBM, Nokia... nombreuses sont les entreprises qui travaillent aujourd'hui sur le développement de l'intelligence artificielle. Mais si les progrès ont été conséquents ces dernières années, on est encore loin du moment où la machine bernera l'homme.

Car il existe un moyen de tester la « conscience » d'une IA : le test de Turing. Imaginé par le mathématicien britannique Alan Turing en 1950, il consiste à confronter des êtres humains à une entité virtuelle ou à un autre humain dans un test à l'aveugle. Si au moins 30% des « testeurs » ne parviennent pas à déterminer avec certitude s'il s'agit d'un homme ou d'une machine en face d'eux, alors le test est considéré comme réussi.

A ce jour, une seule IA a officiellement passé le test de Turing : un adolescent virtuel, Eugene Goostman, conçu par des développeurs russes. Mais la validation de ce test, réalisée 60 ans jour pour jour après la disparition de Turing, fait polémique pour son côté opportuniste, et par le fait que le panel de testeur n'était composé que de 3 personnes, dont une seule a eu un doute quant à l'identité réelle de l'interlocuteur. Difficile, à ce stade, de parler d'une menace à la Skynet... mais l'intelligence artificielle capable de berner un humain semble, cependant, en bonne voie.

Science sans conscience...

« Développer avec succès l'intelligence artificielle pourrait être le plus grand événement dans l'histoire de l'humanité. Malheureusement, ce pourrait aussi être le dernier » estimaient en mai dernier Stephen Hawking, Stuart Russel, Max Tegmark et Fran Wilczek. « L'incidence à court terme de l'intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de la possibilité concrète de la contrôler. Nous devrions tous nous demander ce que nous pouvons faire maintenant pour augmenter les bénéfices et esquiver les risques. » Une pensée partagée par Elon Musk, le patron de SpaceX, qui déclarait il y a peu « Je pense que nous devrions être très prudents à propos de l'intelligence artificielle. Si je devais miser sur ce qui constitue notre plus grande menace existentielle, ce serait probablement ça. »

0320000007793491-photo-terminator.jpg

Le fait que des chercheurs et des entrepreneurs du secteur des nouvelles technologies tirent la sonnette d'alarme ne sous-entend pas qu'il faut stopper le développement des intelligences artificielles, bien au contraire. Ce que soulignent ces intervenants, c'est davantage le fait que ce développement n'est pas encadré à ce jour, et que les entreprises qui y travaillent sont dans une course à l'évolution technologique qui pourrait bien finir par les dépasser. « Dans toutes les histoires mettant en scène un type avec un pentagramme et de l'eau bénite, il est sûr et certain qu'il va pouvoir contrôler le démon. Sauf qu'il n'y arrive pas  » illustre Elon Musk.

Malgré les alertes lancées ces derniers mois, l'amorce d'un encadrement peine grandement à arriver. Si l'Europe investit désormais dans le développement de la robotique civile, l'intelligence artificielle est un sujet qui ne semble pas vraiment passionner les foules, malgré les inquiétudes soulevées en mai dernier par les Nations Unies, concernant les « robots tueurs » et leur utilisation dans les conflits armés. Il y a donc fort à parier que les scientifiques vont continuer à multiplier les mises en garde, jusqu'à être entendus... pour le bien de l'humanité ?
Modifié le 01/06/2018 à 15h36
0 réponses
0 utilisateurs
Suivre la discussion

Les actualités récentes les plus commentées

La dernière mise à jour de Windows 10 causerait des pannes de carte réseau
De nouveaux modèles climatiques ont été créés... et la situation est pire que prévue
Maladies pulmonaires : les enquêteurs américains n'écartent aucune cigarette électronique
Un démantèlement des GAFA ?
La Suisse veut forcer les compagnies aériennes à renseigner les émissions CO2 sur les billets d'avion
Le trou noir au centre de notre galaxie semble avoir de plus en plus faim
Des chercheurs remettent sur la table la solution de l'ascenseur vers la Lune
Le saviez-vous ? Un Game Boy, meurtri, a survécu à la guerre du Golfe
Le GPS européen Galileo est désormais utilisé sur un milliard de smartphones
Nintendo s'attaque à nouveau à un site de partage de ROM

Notre charte communautaire

1. Participez aux discussions

Nous encourageons chacun à exprimer ses idées sur les sujets qui l'intéressent, et à faire profiter l'ensemble de la communauté de son expertise sur un sujet particulier.

2. Partagez vos connaissances

Que vous soyez expert ou amateur passionné, partagez vos connaissances aux autres membres de la communauté pour enrichir le niveau d'expertise des articles.

3. Échangez vos idées

Donnez votre opinion en étayant votre propos et soyez ouverts aux idées des autres membres de la communauté, même si elles sont radicalement différentes des vôtres.

4. Faites preuve de tolérance

Qu'il s'agisse de rédacteurs professionnels ou amateurs, de lecteurs experts ou passionnés, vous devez faire preuve de tolérance et vous placer dans une démarche d'entraide.

5. Restez courtois

Particulièrement lorsque vous exprimez votre désaccord, critiquez les idées, pas les personnes. Évitez à tout prix les insultes, les attaques et autres jugements sur la forme des messages.

6. Publiez des messages utiles

Chaque participation a vocation à enrichir la discussion, aussi les partages d'humeurs personnelles ne doivent pas venir gêner le fil des échanges.

7. Soignez votre écriture

Utilisez la ponctuation, prohibez le langage SMS et les majuscules, relisez-vous afin de corriger un peu les fautes de frappe et de français : trop de fautes n’engagent ni à lire le message, ni à répondre à une question.

8. Respectez le cadre légal

Ne publiez pas de contenus irrespectueux, racistes, homophobes, obscènes ou faisant l'apologie de courants radicaux, qu'ils soient politiques ou religieux. N'utilisez pas plusieurs comptes utilisateurs.

9. Ne faites pas de promotion

Ne profitez pas d'une discussion pour faire la publicité d'un produit, d'un service ou même de votre site web personnel.

10. Ne plagiez pas

Exprimez uniquement vos opinions ou partagez des idées en citant vos sources.

scroll top