Alors qu'Anthropic s'est retrouvé banni des systèmes militaires américains après avoir refusé de supprimer ses garde-fous éthiques, OpenAI a conclu un accord avec le même Pentagone en maintenant les siens. Mais pourquoi donc ?

Le Défense américaine a désigné Anthropic comme "risque pour la chaîne d'approvisionnement nationale", une classification jusque-là réservée aux entreprises étrangères sous influence gouvernementale hostile (comme Huawei). Au même moment, OpenAI publiait les détails d'un accord signé avec le Pentagone, tout en demandant publiquement à Washington de lever les sanctions contre son concurrent.
Quand Anthropic a refusé de retirer ses limites techniques
Le Pentagone avait approché Anthropic pour déployer son modèle Claude dans des environnements classifiés. La société a refusé de signer les conditions proposées, estimant qu'elles impliquaient de retirer les restrictions qui empêchent Claude d'être utilisé pour piloter des armes autonomes ou surveiller des civils américains à grande échelle.
Le "secrétaire à la Guerre" Pete Hegseth a répondu par une interdiction totale. Sa désignation "Supply-Chain Risk to National Security" n'avait jamais été appliquée à une entreprise américaine. Hegseth a justifié sa décision en accusant les dirigeants d'Anthropic de vouloir "déterminer le destin des forces armées" à la place du commandant en chef, Donald Trump. Comme nous le rapportions, Trump avait banni Anthropic et son IA Claude de toutes les administrations américaines
Anthropic a annoncé vouloir contester cette désignation en justice, mais est resté silencieux pendant le week-end. Ironiquement, l'administration Trump a rapporté que les technologies d'Anthropic étaient utilisées dans des opérations contre l'Iran, ce qui suggère donc que le ban ne concerne pas toutes les branches de l'exécutif. Saluée pour avoir maintenu ses positions, Anthropic a vu le nombre de téléchargements de Claude s'affoler au sein de l'App Store pour prendre la première place.
L'accord OpenAI : trois lignes rouges gravées dans l'architecture
OpenAI annonce qu'elle aussi a posé trois restrictions fermes dans son contrat : pas de surveillance de masse sur le territoire américain, pas de pilotage de systèmes d'armes autonomes, et pas de décisions automatisées à enjeux élevés (comme des systèmes de "crédit social"). La société affirme avoir maintenu l'intégralité de sa "safety stack", c'est-à-dire le filtre technique qui contrôle ce que les modèles peuvent ou ne peuvent pas faire.
Ce qui distingue cet accord de celui refusé par Anthropic, c'est finalement la manière dont il est mis en œuvre. Les modèles sont déployés uniquement via le cloud, sans installation possible sur des appareils embarqués. Concrètement, cela signifie qu'un drone ou un système d'armes ne peut pas être piloté depuis un modèle hébergé à distance. Au-delà du simple contrat, OpenAI a donc voulu que cette limite soit également physique. Une clause de l'accord protège également contre d'éventuels glissements législatifs futurs : les lois sur la surveillance et les armes autonomes sont figées à leur état actuel. Si Washington venait un jour à les assouplir, les usages autorisés ne bougeraient pas. Ils resteraient définis par les textes qui étaient en vigueur le jour de la signature.
Reste la question centrale : pourquoi le Pentagone a-t-il accepté l'accord d'OpenAI là où il avait rompu avec Anthropic, et pourquoi Sam Altman n'encourt pas la même désignation ? OpenAI n'a pas refusé de collaborer, elle a proposé un cadre qui rend techniquement impossibles les usages les plus sensibles. Le Pentagone obtient l'accès aux modèles, OpenAI conserve le contrôle de son infrastructure. Anthropic, elle, n'avait pas réussi à trouver cet équilibre avec le DoW. Sam Altman lui-même reconnaît sur X que son concurrent "n'a pas non plus bien géré" la situation, même s'il juge la réaction du gouvernement "extrêmement effrayante".
