Drones : l'IA de l'Air Force a-t-elle décidé d'éliminer un humain pour accomplir sa mission ?

05 juin 2023 à 14h30
9
© Studio Canal
© Studio Canal

Une simulation menée par l'armée de l'air américaine aurait vu un drone contrôlé par intelligence artificielle abattre son opérateur, selon un de ses dirigeants.

Le colonel Hamilton est le « Chief of AI test and operations » au sein de l'US Air Force. Alors quand un tel personnage annonce qu'une simulation montre la possibilité qu'un drone tue son opérateur humain parce qu'il « l'empêche d'accomplir sa mission », forcément, on le prend au sérieux. Mais Hamilton a depuis expliqué s'être mal exprimé, et qu'une telle expérimentation n'avait jamais eu lieu.

L'IA, coupable ou non coupable ?

Lors d'un sommet sur les systèmes de combats aériens du futur, le colonel Hamilton a raconté une anecdote glaçante. Ainsi, une simulation aurait été effectuée, au cours de laquelle un système de drones – contrôlé par IA mais supervisé par un opérateur humain – était chargé de détruire un site de lancement de missiles. Devant le refus de l'opérateur de donner l'ordre d'attaque, l'IA aurait compris que l'humain l'empêchait de faire son travail, et l'aurait donc abattu.

Seulement, après que cette histoire a été relatée par plusieurs médias, Hamilton a tenu à la rectifier. Dans son communiqué, il explique s'être mal exprimé, que ce test n'avait jamais eu lieu, et qu'il s'agissait en réalité d'une expérience de pensée, basée sur des scénarios possibles. Cela ne rend pas l'idée moins perturbante, puisque, comme Hamilton l'explique lui-même : « Nous n'avons jamais fait cette expérience, et n'en avons pas besoin pour déterminer que ce résultat est une véritable possibilité. »

Finalement, cette anecdote faisait partie d'un argumentaire plus large du colonel, qui souhaitait que, dès l'origine, un important contrôle soit apposé et que des systèmes d'armement ne reposent jamais trop sur l'intelligence artificielle.

© Shutterstock
© Shutterstock

L'IA tue des humains, on en est (bientôt ?) là

Pourtant, la vraie histoire est peut-être là. Car si, dès le début, le monsieur IA de l'armée de l'air américaine tente d'en prévenir les risques, il est désormais établi que l'intelligence artificielle aura, dans un futur proche, un certain contrôle sur les systèmes d'armement. La preuve, il existe un monsieur IA de l'armée de l'air américaine. L'information n'était pas exactement confidentielle, mais on découvre également à cette occasion que ce poste est loin d'être récent : ainsi, en 2020, les avions de combat F-16 de l'US Air Force contrôlés par IA ont battu à au moins cinq reprises leurs homologues pilotés par des humains dans le cadre de dogfights sur simulateur.

Et il faudra peut-être plus que les appels du colonel Hamilton à développer une IA éthique pour ce type d'usage pour que cette perspective ne soit pas terrifiante. Même si, pour le patron d'Open AI, c'est loin d'être le seul scénario dans lequel l'IA pourrait causer l'extinction de l'humanité.

Sources : Motherboard, Yahoo

Vincent Mannessier

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et...

Lire d'autres articles

Rédacteur indépendant depuis des années, j'ai rédigé plus de 1.000 articles sur Internet sur une large variété de sujets. J'aime tout particulièrement écrire sur les actualités des réseaux sociaux et des GAFAM, mais les jeux vidéos et l'innovation numérique en général me passionnent aussi.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (9)

kiddass33
Une simulation menée par l’armée de l’air américaine, qui n’a en fait pas eu lieu, aurait (peut-être) vu un drone contrôlé par intelligence artificielle abattre son opérateur, ou pas, selon l’imagination d’un de ses dirigeants.
Than
@andbor33 : beau résumé du « contenu » de l’article. :’)<br /> Sinon on peut m’expliquer; sérieusement, ce que signifie « éthique » quand on parle d’armement et de guerre ? Dont l’objectif se résume généralement au moins pire à intimider, mais dans la plupart des cas à faire usage des armes avec la possibilité non nulle d’éliminer des infrastructures ou de tuer des humains ?<br /> Quelqu’un pense sérieusement que si le camp d’en face ne se pose pas de limites, celui qui s’en pose a les mêmes chances ?<br /> La guerre c’est pas un duel réglementé par une organisation façon fédération sportive… tous les coups tordus font partie de l’arsenal.<br /> On se targue de faire des guerres « propres » tant qu’on contrôle l’issue. Dès que c’est plus le cas, j’ai rarement vu (jamais) de « belles » guerres…
fredolabecane
Va falloir remettre les lois d’Isaac Asimov en première ligne…
ovancantfort
Peut être que le colonel en question a trop regardé cette simulation ?
ovancantfort
C’est clair que la « guerre propre », cela n’existe pas. C’est un concept purement inventé à fin de propagandes, pour convaincre les population qu’elles sont dans le « camp du bien ». Dans toute guerre, il y a des atrocités commises des deux cotés.<br /> Si intéressé, je vous conseille le livre « Principes élémentaires de propagande de guerre ». Cela donne un tout autre regard sur l’actualité…
Than
Ah bien vu. Rien que les noms des 10 chapitres sont déjà un excellent résumé !<br /> Dans la continuité de l’expression « guerre propre », j’ai toujours trouvé étrange l’emploi « d’armes autorisées », sous-entendu « c’est bon, ça on a le droit, et ça on a pas le droit d’utiliser ». Mais au final c’est pour faire plus ou moins le même mal.<br /> Je dis pas que c’est pas bien d’essayer d’endiguer les types d’armements, mais j’ai l’impression que ça n’a jamais réellement été suivi ou respecté. Parce que la guerre, c’est rarement l’expression du respect de l’adversaire… c’est pas le premier truc qui vient à l’esprit, sinon on userait pas de propagande, déjà.
Core-ias
Donc au final, même pour un humain ou une machine autonome cela revient à choisir de mettre défaillant " l’humain dangeureux " ou l’arme autonome.
Fab12
Donc le colonel a imaginé une histoire et tout le médias le partage comme une histoire vraie , de toute façon l’armée américaine exploite sûrement et déjà l’IA depuis longtemps.
Biggs
Plus une guerre est amenée à durer, plus on s’éloigne de toute humanité. Au départ tout le monde part confiant, «&nbsp;on est tous d’accord pour ne pas mettre de lames crantées sur les baïonnettes, ça fait des blessures vraiment trop moches&nbsp;», et puis les conflits s’enlisent, s’éternisent et à la fin on a le gaz moutarde, le lance-flamme, les kamikazes et le carpet bombing de villes entières (à l’arme atomique si besoin). Parce qu’à un moment, il faut gagner. À tout prix.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet