C'est un feuilleton qui devrait faire couler encore beaucoup d'encre. Alors que l'administration Trump a décidé de couper toute relation avec Anthropic, on apprend que l'armée américaine a utilisé Claude lors de son offensive en Iran.

Des Marines américains. ©Rawpixel.com / Shutterstock
Des Marines américains. ©Rawpixel.com / Shutterstock

Les relations entre la start-up d'intelligence artificielle (IA) et le gouvernement américain se sont envenimées début janvier, lorsque l'on a appris qu'un modèle d'Anthropic avait été utilisé lors de la capture de Nicolás Maduro. Un bras de fer s'est tenu pendant plusieurs semaines entre les deux parties : quand le gouvernement exigeait l'accès illimité à Claude à « toutes fins légales », l'entreprise, elle, refusait les usages liés à la surveillance de masse et surtout, à des décisions autonomes dans un contexte militaire.

Claude utilisé par l'armée américaine pendant encore six mois

Vous connaissez sans doute la suite. Personne n'a cédé, et l'administration Trump a donc banni Anthropic de toutes les agences fédérales ce 27 février, considérant la firme comme « un danger pour la chaîne d'approvisionnement ». Mais selon plusieurs médias américains, l'armée des États-Unis a exploité les capacités de Claude dans le cadre de l'opération Epic Fury en Iran, lancée au lendemain de cette décision, le samedi 28 février.

Le timing a de quoi surprendre, d'autant plus lorsque l'on sait que Pete Hegseth, secrétaire de la Défense américain, a estimé qu'Anthropic « a donné une véritable leçon d'arrogance et de trahison ». En réalité, le recours à Claude était prévisible, les technologies de l'entreprise étant profondément intégrées dans les opérations militaires des États-Unis.

« Anthropic continuera à fournir ses services au ministère de la Guerre pendant une période maximale de six mois afin de permettre une transition en douceur vers un service meilleur et plus patriotique », a d'ailleurs précisé le dirigeant.

Dario Amodei, P.-D.G d'Anthropic. ©El editorial / Shutterstock
Dario Amodei, P.-D.G d'Anthropic. ©El editorial / Shutterstock

Choix des cibles et simulations

Concrètement, le commandement militaire américain a utilisé les outils d'Anthropic à des fins de renseignement, ainsi que pour la sélection de cibles et la réalisation de simulations de champ de bataille. Des usages auxquels la société ne s'est pas opposée.

De son côté, Dario Amodei, P.-D.G de la start-up, a indiqué dans une interview diffusée ce dimanche 1er mars être « toujours intéressé par une collaboration avec le département de la Défense, tant que cela reste conforme à nos lignes directrices ».

« Si nous parvenons à nous mettre d'accord pour voir les choses de la même manière, alors peut-être pourrons-nous trouver un terrain d'entente. Pour notre part, et dans l'intérêt de la sécurité nationale des États-Unis, nous continuons à vouloir faire en sorte que cela fonctionne », a-t-il poursuivi. Visiblement, la décision du gouvernement risque de très lourdement affecter Anthropic…

  • Upload de fichiers pouvant aller jusqu'à 100 000 tokens (75 000 mots environ)
  • Personnalisation avancée
  • Conception éthique
9 / 10

Sources : Axios, The Guardian