La ministre française des Armées ne veut pas des technologies autonomes dans les conflits

18
Florence Parly
Alexandros Michailidis / Shutterstock.com

Florence Parly a apporté toute la modération possible quant à l'utilisation de l'intelligence artificielle dans les conflits armés, dans un discours prononcé vendredi.

« Pas un jour ne passe sans qu'on ne parle d'intelligence artificielle, de ce qu'elle promet de révolutionner dans nos vies quotidiennes, des investissements massifs réalisés par toutes les grandes puissances étatiques comme économiques ». Dans un discours prononcé à Saclay le 5 avril 2019, la ministre des Armées, Florence Parly, a renouvelé la volonté de l'État de miser sur l'intelligence artificielle, dans le sillage de ce que souhaite le président Emmanuel Macron. Mais sans pour autant tomber dans certains excès.

Une IA qui s'avère indispensable pour lutter sur le plan international

Consciente des bénéfices potentiels de l'intelligence artificielle pour le ministre des Armées et ses nombreux acteurs, Florence Parly a rappelé que les Armées françaises continueront d'investir dans l'IA, jugée « indispensable pour garantir notre supériorité opérationnelle ».

Grâce à l'IA, les possibilités sont infinies. Elle permet d'anticiper des situations qui pourraient devenir fâcheuses. Florence Parly prend notamment l'exemple d'un projet que développe la Marine Nationale. Celle-ci travaille sur une plateforme d'analyse en temps réel du trafic maritime au niveau planétaire, qui lui permettra bientôt de détecter des navires qui dévieraient de leur trajectoire habituelle sans prévenir. D'autres situations pourraient être appréhendées grâce à l'utilisation de l'intelligence artificielle intégrée à la robotique, comme l'évacuation des blessés ou le déminage d'un terrain.

« L'IA ce n'est ni plus ni moins que la garantie du plus haut niveau de protection des Français », martèle la ministre.

« Terminator ne défilera pas au 14 juillet »

Seulement, l'État français s'estime responsable et se veut précautionneux. Se pose notamment la question de systèmes d'armes létaux, les fameux SALA (Systèmes d'armes létales autonomes), parfois surnommés « robots-tueurs ». Ces engins intelligents pourraient adapter leur comportement à une situation sur zone, sans supervision humaine. À ce sujet, Florence Parly adopte une position claire : « La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain. [...] Terminator ne défilera pas au 14 juillet ».

Pour prévenir toute utilisation extérieure de tels robots, la France milite pour un consensus solide avec les autres États du globe, à qui elle voudrait imposer trois principes fondamentaux en matière d'intelligence artificielle dans les Armées : le respect du droit international, le maintien d'un contrôle humain suffisant et la permanence de la responsabilité du commandement.

Florence Parly a par ailleurs annoncé la création dès 2019 d'un comité d'éthique ministériel sur les sujets de défense. Outre les interrogations éthiques, l'organe devrait aider à la décision et à l'anticipation.

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
18
0
Voir tous les messages sur le forum

Actualités du moment

L'excellent The Witness est gratuit sur l'Epic Store
Accusés de censure, Google, Facebook et Twitter comparaîtront devant le Sénat américain
L'accès anticipé à The Elder Scrolls : Blades désormais ouvert à tous
USA : la Tesla Model 3 représente 60% du marché de l'électrique au premier trimestre
🔥 Ventes flash de printemps chez Amazon : 11 produits High-Tech à prix cassé
🔥 Ventes flash Amazon: 10 promos enceintes Bluetooth Ultimate Ears à ne pas manquer !
3dRudder : un accessoire PlayStation VR pour jouer avec les pieds
Croulant sous la demande, Tesla n'arrive pas à livrer ses véhicules et chute en bourse
Haut de page