Un juge fédéral a ordonné le 27 mars à l’administration Trump de lever ses restrictions contre Anthropic, qualifiant la désignation de « risque pour la chaîne d'approvisionnement » d’atteinte à la liberté d’expression.

Quand le Pentagone tente de mettre au pas une entreprise d’IA en la traitant comme un ennemi, et qu’un juge fédéral lui répond que ça ressemble à « une tentative de paralyser Anthropic », le bras de fer prend une tout autre dimension. Le 27 mars, la juge Rita F. Lin, du tribunal fédéral du district nord de Californie, a accordé une injonction préliminaire en faveur du fabricant de Claude, ordonnant à l’administration Trump de retirer sa désignation de « risque pour la chaîne d'approvisionnement » et de cesser d’exiger des agences fédérales qu’elles coupent tout lien avec la société. Un revers cinglant pour le Pentagone, et un précédent potentiellement lourd de conséquences pour l’ensemble du secteur de l’IA.
Anthropic face au Pentagone : retour sur une escalade rapide
Tout part d’une formulation jugée trop vague dans un contrat. Lors des négociations pour son renouvellement, le Département de la Défense exigeait qu’Anthropic accepte que ses outils puissent être utilisés pour « tout usage légal », une clause que le PDG Dario Amodei a refusée. L’entreprise craignait, légitimement selon la juge, que cette formulation ouvre la porte au déploiement de ses modèles dans des systèmes d’armes autonomes ou dans des dispositifs de surveillance de masse, deux applications explicitement contraires à ses principes éthiques.
Face à ce refus, l’administration Trump a banni Claude de toutes les administrations en février, et le Pentagone a sorti l’artillerie lourde : la désignation de « risque pour la chaîne d'approvisionnement », une étiquette normalement réservée aux entreprises de pays adverses. Résultat, les agences fédérales se voyaient contraintes de couper leurs liens avec Anthropic. La société a alors poursuivi le Département de la Défense en justice, arguant que ces mesures constituaient des représailles inconstitutionnelles.
Une décision judiciaire qui remet l’IA au cœur du débat constitutionnel
La juge Lin n’a pas mâché ses mots. Elle a estimé que les actions du gouvernement dépassaient largement ce qui serait nécessaire pour protéger un intérêt national légitime, et que la rhétorique employée par la Maison-Blanche, qualifiant Anthropic de société « woke » et « gauchiste » menaçant la sécurité nationale, trahissait une motivation politique plutôt que sécuritaire. En clair : une violation du Premier Amendement. Selon TechCrunch, la juge a explicitement parlé de « représailles classiques du Premier Amendement ».
Concrètement, cette injonction préliminaire permet à Anthropic de continuer à fournir ses technologies aux agences gouvernementales et aux entreprises partenaires de l'armée pendant la durée du procès. C’est une victoire d’étape, pas un jugement définitif. Mais elle envoie un signal fort : les entreprises d’IA qui posent des garde-fous éthiques sur l’usage de leurs modèles ne peuvent pas être sanctionnées pour cela par voie administrative. OpenAI, qui avait accepté les conditions du Pentagone là où Anthropic avait refusé, observe sans doute la situation avec attention.
Cette affaire pose une question qui dépasse largement le cas Anthropic : jusqu’où un gouvernement peut-il contraindre une entreprise privée à renoncer à ses principes éthiques pour accéder aux marchés publics ? La juge Lin a tranché provisoirement, mais le procès au fond reste à venir.
Si Anthropic obtient gain de cause sur le fond, cela pourrait redéfinir les règles du jeu pour toute l’industrie de l’IA face aux commandes militaires, aux États-Unis comme ailleurs.