Le Pentagone vient d'établir qu'une entreprise peut être blacklistée pour avoir dit non à l'armée. La première à monter au créneau ? Celle qui, justement, n'a jamais dit non à personne.

Microsoft © Shutterstock
Microsoft © Shutterstock

Tout commence début mars 2026. Anthropic refuse de signer un blanc-seing au Département de la Défense. La startup exige des garanties contractuelles : sa technologie ne doit pas servir à des armes entièrement autonomes ni à de la surveillance de masse sur le territoire américain. Le Pentagone réplique en désignant Anthropic comme « risque pour la chaîne d'approvisionnement », un mécanisme habituellement réservé aux entreprises étrangères suspectes. Comme le rapportent plusieurs médias américains, Anthropic dépose le lundi 9 mars deux recours judiciaires fédéraux, dénonçant une « campagne de représailles illégale ».

Quand Microsoft dépose un mémoire contre son propre client

Le mardi 10 mars, Microsoft fait un pas inattendu. La firme de Redmond dépose un mémoire d'amicus curiae devant un tribunal fédéral californien. L'objectif : soutenir la demande d'Anthropic de suspendre temporairement la désignation du Pentagone. Microsoft argue que sans cette injonction, les contractants gouvernementaux devront intégrer « un nouveau risque dans leur planification commerciale ». Des chercheurs en IA chez Google et OpenAI ont également déposé un mémoire similaire. Selon les propres dépôts judiciaires d'Anthropic, la désignation pourrait amputer ses revenus de plusieurs milliards de dollars en 2026.​​

Ce soutien n'est pas désintéressé. Microsoft et Anthropic sont partenaires commerciaux depuis un an. Mais cette démarche fait écho à un front plus large. Des centaines d'ingénieurs chez Google et OpenAI s'étaient déjà mobilisés pour bloquer l'utilisation militaire de leurs outils. Et Apple, NVIDIA et Amazon avaient également pris position quand le Pentagone a blacklisté Anthropic.

Le vrai calcul de Microsoft

C'est ici que l'angle business dépasse l'angle éthique. Microsoft est le premier fournisseur informatique de l'armée américaine. Son programme IVAS, des visières de réalité augmentée pour soldats, est valorisé jusqu'à 21,9 milliards de dollars. Azure Government sert de colonne vertébrale cloud à des dizaines d'agences fédérales et de contractants de défense. La firme n'a jamais posé de conditions éthiques à ses partenariats militaires. Plus éloquent encore : selon Wired, le Pentagone testait des modèles OpenAI via Azure avant même qu'OpenAI ait levé son interdiction d'usage militaire.

Mais le dossier le plus accablant est ailleurs. Des documents internes révélés par The Guardian en janvier 2025 montrent qu'Azure a servi à l'Unité 8200, le renseignement militaire israélien, à traiter et archiver des millions d'appels interceptés de Palestiniens, sans aucune clause éthique imposée en amont. L'utilisation du cloud Microsoft par l'armée israélienne a bondi de 155% au pic de l'offensive, selon les mêmes sources. Microsoft n'a mis fin à une partie de ces services qu'en septembre 2025, sous la pression d'une enquête journalistique, pas par principe.

Or, la ligne rouge posée par Anthropic était précisément celle-là : pas de surveillance de masse. Ce que Microsoft a facilité pendant des années, sans condition, est exactement ce qu'Anthropic a refusé de cautionner au Pentagone. Ce que Microsoft défend aujourd'hui, ce n'est donc pas l'éthique d'Anthropic. C'est un principe commercial simple : aucun contractant privé ne doit pouvoir être blacklisté pour avoir fixé des limites, car si ce précédent tient, toute clause de conformité dans un contrat gouvernemental devient un motif d'exclusion potentiel.

Le Pentagone a utilisé contre Anthropic un mécanisme conçu pour Huawei. Il a tracé une ligne que personne dans la Silicon Valley ne peut ignorer : les contrats gouvernementaux comportent désormais une clause tacite d'obéissance totale.