Des offres d'emploi intrigantes (et potentiellement inquiétantes) émanent des géants de l'intelligence artificielle (IA). Anthropic et OpenAI recherchent un expert en armes chimiques.

©Virrage Images / Shutterstock
©Virrage Images / Shutterstock

Depuis l'émergence de ChatGPT et des grands modèles de langages, les experts tirent la sonnette d'alarme quant à leur capacité à abaisser le seuil d'accès aux connaissances nécessaires à la fabrication d'armes chimiques, biologiques ou radiologiques.

Ainsi, des informations autrefois confinées aux laboratoires militaires ou aux publications scientifiques hautement spécialisées deviennent potentiellement accessibles à quiconque sait poser les bonnes questions à un chatbot.

Des offres d'emploi

Et c'est justement ce que veulent prévenir les start-up. Anthropic, la société mère de Claude, a publié une offre d'emploi pour un expert en armes chimiques et explosifs à haut rendement, appelé à rejoindre son équipe de politique de sécurité. Le poste, rémunéré jusqu'à 255 000 dollars par an, vise explicitement à tester les limites des modèles d'IA face à des requêtes sensibles. L'idée, concrètement, est de comprendre ce qu'ils savent, peuvent livrer, et ce qu'il doivent absolument refuser.

Même son de cloche chez OpenAI. Le développeur de ChatGPT a affiché une proposition similaire pour un chercheur spécialisé dans les risques biologiques et chimiques, avec une rémunération pouvant atteindre, cette fois, les 455 000 dollars.

Les logos de Claude et ChatGPT. ©Tada Images / Shutterstock
Les logos de Claude et ChatGPT. ©Tada Images / Shutterstock

Une pratique très risquée

Mais une telle démarche ne fait l'unanimité, d'autant qu'il n'existe aucun cadre réglementaire international spécifique à l'IA dans ce domaine. La docteur Stephanie Hare, spécialisée dans la technologie, craint au micro de la BBC qu'elle n'ait l'effet inverse en conférant aux modèles un accès à des informations extrêmement sensibles, même si ces derniers sont instruits de ne pas les utiliser. « Tout cela se passe hors de la vue du public », rappelle-t-elle.

Une information encore moins à prendre à la légère au vu du contexte géopolitique et du rôle croissant des IA dans la guerre. Si le Pentagone a placé Anthropic sur liste noire pour son refus de coopérer sur les armes autonomes et la surveillance de masse, ses modèles ont malgré tout été utilisés en Iran. OpenAI, elle, a récemment décroché un contrat majeur avec le département de la Défense américain. Et ce n'est que le début : la Maison-Blanche poursuit sa quête pour intégrer l'IA au maximum dans l'ensemble des activités de l'armée US.

À découvrir
Quels sont les 5 meilleurs chatbots à intelligence artificielle ? Comparatif 2026
04 février 2025 à 14h11
Comparatifs services

Source : BBC