Pendant que P.-D.G. tenait tête à Hegseth en face à face, Anthropic effaçait discrètement sa promesse fondatrice sur la sécurité de l'IA. Coincidence de calendrier ou capitulation masquée ?

Depuis 2023, Anthropic se distinguait de ses rivaux par une promesse ferme : ne jamais entraîner un modèle d'IA plus puissant sans avoir d'abord vérifié que des garde-fous adéquats étaient en place. Cette Responsible Scaling Policy était la colonne vertébrale de son identité de « société d'IA avec une âme ». Comme le rapporte Time, cette colonne vient de se fracturer. Pour comprendre la portée de ce glissement, il faut revenir sur plusieurs mois d'un bras de fer qui n'a cessé de monter en intensité entre la start-up californienne et le Pentagone.
Quand une politique de sécurité devient une variable d'ajustement
Le 24 février, Anthropic a publié la version 3.0 de sa RSP sur son blog officiel. L'engagement central de la version originale, celui qui prévoyait un arrêt conditionnel du développement si les risques dépassaient les mesures de sécurité disponibles, n'y figure plus. À sa place, un cadre décrit comme plus « adaptatif » et « transparent », mais dépourvu du caractère contraignant de l'ancien texte.

- Upload de fichiers pouvant aller jusqu'à 100 000 tokens (75 000 mots environ)
- Personnalisation avancée
- Conception éthique
Le directeur scientifique d'Anthropic, Jared Kaplan, a justifié ce virage dans une déclaration à Time : « Nous avons décidé que bloquer unilatéralement l'entraînement de nos modèles n'aiderait personne, alors que les concurrents avancent sans ces contraintes. » Un argument qui tranche avec le discours fondateur de l'entreprise, qui avait précisément été créée par d'anciens d'OpenAI au nom d'exigences éthiques plus strictes.
Ce changement de doctrine survient dans un contexte de pression commerciale croissante. Anthropic cherche une entrée en Bourse et voit ses rivaux OpenAI et xAI accepter les conditions du gouvernement américain sans réserve, comme nous l'avions déjà documenté lors du tournant majeur du bras de fer avec le Pentagone. OpenAI a notamment autorisé ses modèles pour « tous les usages légaux », selon un responsable du Pentagone.
Une coïncidence de calendrier qui interroge
Le même mardi, Dario Amodei était reçu au Pentagone par Pete Hegseth. Selon plusieurs médias dont la BBC et AP News, la rencontre a certes été cordiale, mais s'est soldée par un désaccord persistant sur les deux lignes rouges qu'Anthropic refuse toujours de franchir : l'usage de ses modèles dans des systèmes d'armes létales autonomes et la surveillance domestique de masse de citoyens américains. Hegseth avait fixé une échéance au vendredi 27 février pour obtenir satisfaction, sous peine de représailles.
Ces représailles ne sont pas abstraites. Le Pentagone brandissait deux leviers : l'invocation du Defense Production Act de 1950, qui permettrait à la Maison-Blanche de contraindre Anthropic à livrer une version de Claude sans restrictions, et la qualification de l'entreprise comme « risque pour la chaîne d'approvisionnement », une sanction habituellement réservée aux entités étrangères. Le contrat en jeu représente 200 millions de dollars, signé avec le CDAO (Chief Digital and Artificial Intelligence Office) du Département de la Défense en juillet 2025.
Anthropic insiste sur un point : la révision de sa RSP serait sans rapport avec les négociations militaires, selon une source interne citée par CNN. Mais la simultanéité des deux événements est difficile à ignorer. D'autant que l'argument avancé par Kaplan pour justifier l'abandon des garde-fous historiques, à savoir l'impossibilité de rester seul vertueux face à des concurrents sans scrupules, est précisément celui que le Pentagone utilisait pour presser Anthropic de s'aligner sur OpenAI et xAI.
Certains observateurs, y compris Dean Ball, ancien conseiller IA de l'administration Trump, ont qualifié la posture du Pentagone d'« incohérente ». Ce qui est cohérent, en revanche, c'est qu'Anthropic vient d'offrir à ses détracteurs la preuve que ses principes sont négociables, et que personne n'a eu besoin de le forcer officiellement.
La société qui promettait de ne jamais construire quelque chose qu'elle ne pourrait pas contrôler vient de retirer la seule clause qui l'y obligeait.