Presque mille salariés de Google et d'OpenAI ont signé une lettre commune pour dire non à leurs propres employeurs. Ce n'est pas une grève. C'est peut-être pire.

La situation était prévisible depuis plusieurs semaines. Quand le Pentagone a désigné Anthropic comme « risque pour la chaîne d'approvisionnement nationale » après que l'entreprise a refusé de retirer les garde-fous empêchant ses modèles d'armer des systèmes autonomes ou de surveiller des citoyens américains, un signal a été envoyé à toute la Silicon Valley. Google et OpenAI sont désormais en négociation pour reprendre le contrat qu'Anthropic a refusé. C'est précisément ce contexte, brûlant, qui a poussé les ingénieurs à agir.
Ce que dit concrètement la lettre ouverte
La lettre, hébergée sur notdivided.org et intitulée « We Will Not Be Divided », a été signée par des employés actuels et anciens de Google et d'OpenAI. Chaque signature est vérifiée : les signataires doivent prouver qu'ils détiennent une adresse courriel @google.com ou @openai.com. Le texte pose une accusation directe : des responsables gouvernementaux tenteraient de mettre les deux entreprises en concurrence sur le plan éthique pour les pousser à abandonner leurs propres lignes rouges.
« Ils essaient de diviser chaque entreprise en leur faisant craindre que l'autre cède. Cette stratégie ne fonctionne que si aucun d'entre nous ne sait où se situent les autres », stipule la lettre. Les signataires réclament que leurs employeurs résistent à la pression du « Département de la Guerre », refusent d'autoriser la surveillance de masse sur le sol américain et s'opposent au déploiement d'armes létales autonomes pilotées par des systèmes d'intelligence artificielle.
Pourquoi cette mobilisation dépasse le symbole
On serait tenté de ranger cette initiative dans la catégorie des pétitions oubliées le lendemain matin. Ce serait une erreur d'analyse. En 2018, des milliers d'employés de Google avaient protesté contre le projet Maven, un contrat avec le Pentagone portant sur l'analyse automatique d'images de drones. La direction avait finalement laissé le contrat expirer et publié un ensemble de principes éthiques sur l'usage de l'intelligence artificielle. Huit ans plus tard, ces mêmes principes sont sous pression, et l'histoire se répète avec une intensité supérieure : les modèles d'aujourd'hui sont autrement plus capables qu'un outil d'analyse vidéo de 2018.
Ce qui rend la situation particulièrement tendue, c'est la mécanique décrite dans la lettre elle-même : jouer sur la rivalité commerciale entre Google et OpenAI pour obtenir des concessions qu'aucune des deux n'aurait accordées seule. OpenAI a bien conclu un accord avec le Pentagone en maintenant officiellement ses propres restrictions techniques, notamment en interdisant le pilotage à distance d'armes ou la surveillance de masse. Mais des doutes subsistent sur la robustesse réelle de ces garde-fous face aux évolutions législatives futures, notamment concernant les décrets autorisant la NSA à surveiller des citoyens via des infrastructures situées hors du territoire américain. Et quand des simulations ont montré que des IA plongées dans des scénarios de crises nucléaires choisissaient systématiquement l'escalade plutôt que la désescalade, confier à ces mêmes systèmes des décisions de défense nationale prend une tout autre dimension.
La question n'est donc pas de savoir si cette lettre changera quoi que ce soit dans les salles de négociation. C'est de comprendre pourquoi les ingénieurs qui construisent ces outils jugent nécessaire de se retourner contre leurs propres employeurs pour le dire publiquement.