IA et robots tueurs : Musk, Hawking et bien d'autres signent une lettre ouverte

28 juillet 2015 à 13h01
0
Elon Musk, Stephen Hawking, Noam Chomsky et bien d'autres représentants des sciences et des nouvelles technologies ont signé une lettre ouverte mettant en garde contre l'usage de l'intelligence artificielle pour alimenter des armes autonomes. Il s'agit d'une nouvelle tentative de mobilisation vis-à-vis des risques de l'IA.

A l'heure où la robotique et l'intelligence artificielle ne cessent d'évoluer et se rapprochent de plus en plus, les grands pontes des sciences et des technologies continuent d'évoquer les risques liés à un développement de l'intelligence artificielle mal encadré. C'est sur le site du Future of Life Institute, l'organisme qu'Elon Musk a récemment financé à hauteur de 10 millions de dollars, que l'on trouve depuis lundi une lettre ouverte destinée aux « chercheurs en robotique et intelligence artificielle ».

« Les kalachnikovs de demain »

Éliminer des cibles sans intervention humaine, avec une précision chirurgicale et en toute autonomie : les machines intelligentes développées par les armées pourraient bientôt devenir réalité selon cette lettre ouverte. « L'intelligence artificielle et la technologie ont atteint un point tel que le déploiement de ce type de système devrait - techniquement, sinon légalement - être réalisable dans les années, et non les décennies, à venir. Les enjeux sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la guerre, après la poudre et les armes nucléaires. »

Si la lettre ne manque pas de souligner que l'usage de telles armes intelligentes pourrait permettre de minimiser les pertes humaines en temps de guerre, elle met en garde contre une course à l'armement qui pourrait s'engager à partir du moment où une puissance militaire commencerait à présenter des technologies de ce type. « La conclusion d'une telle situation serait évidente : les armes autonomes deviendraient les kalachnikovs de demain. »

035C000008122850-photo-terminator.jpg

Partant du principe que développer ce type d'armes serait moins coûteux et compliqué que de concevoir des armes nucléaires, il sera plus aisé pour des organisations de tous bords, y compris terroristes, d'en disposer. Une accélération non encadrée d'un tel développement pourrait, par ailleurs, échapper à tout contrôle : c'est l'une des principales craintes des détracteurs de l'IA, qui ont peur que cette dernière ne finisse par dépasser dangereusement l'humain.

Un sujet évoqué aux Nations Unies

Signée par plusieurs centaines de chercheurs et scientifiques, cette lettre ouverte cherche, une nouvelle fois, à mobiliser les chercheurs et l'opinion publique contre les dangers d'une « science sans conscience ». Ce n'est pas la première initiative ou intervention de ce genre. Ces dernières années, de grands noms comme Stephen Hawking, Elon Musk ou encore Bill Gates ont fait part de leurs inquiétudes concernant l'évolution rapide des intelligences artificielles.

Quant au sujet des « robots tueurs » capables de prendre leurs propres décisions, il a fait l'objet d'un débat au sein des Nations Unies en 2014, même si ce dernier n'a pas fait autant de bruit qu'espéré. Cette nouvelle mise en garde mettra peut-être de l'huile sur le feu.

A lire également :
Modifié le 01/06/2018 à 15h36
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités du moment

Acer X34 : le 34 pouces incurvé décliné en FreeSync
337,2 millions de smartphones vendus au second trimestre
SFR demande un demi-milliard d'euros de dommages et intérêts à Orange
Star Wars : Les modifications des films de 1977 à 2011
Apple, Google et Microsoft : 140 milliards de dollars contre le réchauffement climatique
Orange est bien en train de redresser la barre
Samsung pourrait dévoiler ses Galaxy Note 5 et S6 Edge Plus le 13 aout
Twitch : la barrière de la langue pour lutter contre les trolls
Arrow : un nouveau launcher Android signé Microsoft
WWE 2K16 : Quand Terminator prend la place de Hulk Hogan
Haut de page