L’administration Trump envisagerait un décret imposant un contrôle gouvernemental des modèles d’IA avant leur mise sur le marché. Le catalyseur ? Le modèle Mythos d’Anthropic, jugé trop dangereux par l’entreprise elle-même.

©Shutterstock
©Shutterstock

Difficile d’imaginer scénario plus ironique : l’administration qui a abrogé dès janvier 2025 le décret Biden sur la sécurité de l’IA serait désormais tentée de faire exactement ce qu’elle avait enterré. L’info vient du New York Times et de plusieurs officiels américains anonymes. Selon eux, la Maison-Blanche discuterait d’un ordre exécutif imposant une évaluation obligatoire des modèles d’IA avant leur déploiement public. Un virage à 180 degrés, déclenché en grande partie par Anthropic elle-même.

Mythos, le modèle qui a tout déclenché

Le modèle Mythos d’Anthropic est au cœur de l’affaire. La société l’a présenté comme capable d’identifier des milliers de vulnérabilités logicielles critiques, et l'a jugé trop dangereux pour une diffusion publique. Ce positionnement, aussi habile qu’ambigu sur le plan marketing, a immédiatement attiré l’attention des agences fédérales. La NSA aurait d’ailleurs déjà utilisé Mythos pour évaluer des failles dans les déploiements Microsoft de l’administration, pendant que d’autres agences restaient coupées des outils Anthropic. À nuancer toutefois : certains analystes contestent la dangerosité réelle de Mythos, plusieurs études montrant que des modèles bien moins chers obtiennent des résultats comparables sur ce type de tâches.

Ce n’est pas le seul contentieux entre Washington et la startup. Anthropic a refusé de retirer les garde-fous de ses modèles pour les armes autonomes et la surveillance de masse. Réaction du Pentagone : la désigner comme risque pour la chaîne d’approvisionnement, faisant capoter un contrat de 200 millions de dollars. Un juge fédéral a depuis qualifié cette décision d’« orwellienne ». Autant dire que le contexte entre les deux parties est pour le moins tendu.

Un contrôle pré-release sur le modèle britannique

Le mécanisme envisagé s’inspirerait de l’AI Security Institute britannique. Un groupe de travail réunirait des dirigeants tech et des officiels gouvernementaux : NSA, directeur national du cyber, directeur du renseignement national. Sa mission : évaluer les modèles frontier via des benchmarks de sécurité, avant et après déploiement. Point crucial : le système accorderait au gouvernement un accès anticipé aux modèles sans pour autant bloquer leur mise sur le marché. Des représentants d’Anthropic, Google et OpenAI auraient déjà été briefés sur ces plans la semaine dernière.

© Shutterstock
© Shutterstock

Ce projet intervient dans un vide politique notable. David Sacks, le responsable IA de l’administration Trump, a quitté son poste en mars, laissant la cheffe de cabinet et le secrétaire au Trésor prendre les rênes de la politique IA. Un ancien conseiller senior de l'administration résume l’enjeu : trouver un « équilibre délicat » pour éviter la surréglementation et rester au niveau de la technologie. La Maison-Blanche, elle, qualifie officiellement ces informations de « spéculation », précisant que toute annonce viendrait de Trump en personne. Reste que le sujet est suffisamment sérieux pour que la question de la sécurité des modèles d’IA soit désormais traitée au plus haut niveau de l’exécutif américain.

Anthropic voulait une régulation sous Biden, elle pourrait l’obtenir sous Trump, mais cette fois sans en tenir les rênes. Reste un angle mort de taille : pendant que Washington légifère, les modèles open source progressent en dehors de tout cadre.