L’intelligence artificielle est capable de concevoir et piloter des dizaines de milliers d’expériences biologiques en totale autonomie. Une révolution scientifique dont les mêmes outils pourraient, entre de mauvaises mains, accélérer la mise au point d’agents pathogènes mortels.

Les experts tirent la sonnette d'alarme. ©DavidBautista / Shutterstock
Les experts tirent la sonnette d'alarme. ©DavidBautista / Shutterstock

C’est un risque évoqué depuis l’émergence des IA génératives : leur capacité à confectionner différents types d’armes, offrant des connaissances jusqu’alors inaccessibles à n’importe quel individu. Ce n’est, d’ailleurs, pas pour rien si OpenAI et Anthropic recherchent chacune des experts en armes chimiques pour mieux contrôler leurs modèles.

Dans une longue analyse publiée dans The Conversation, Stephen D. Turner, professeur associé en science des données à l’Université de Virginie, alerte sur un danger émergent, facilité par l’IA : le bioterrorisme.

Le double usage

Car l’IA s’est imposée dans les laboratoires de biologie, notamment parce qu’elle permet d’anticiper certains comportements moléculaires ultra rapidement, là où les humains peuvent prendre des années. La technologie est ainsi capable de concevoir de toutes nouvelles protéines, qui assurent la quasi-totalité des fonctions vitales de nos cellules, en quelques heures.

De quoi aider les chercheurs à développer des médicaments plus vite et des vaccins moins coûteux, octroyant une capacité de réponse accrue face aux épidémies. Mais c’est une révolution à double tranchant. Ces mêmes outils peuvent être détournés à des fins malveillantes, un phénomène que les spécialistes appellent le « problème du double usage ».

Et les études récentes sont préoccupantes. L’une d’elles, menée par l’entreprise d’IA Scale AI et l’ONG SecureBio, spécialisée dans la biosécurité, a montré que des personnes sans formation en biologie, simplement armées d’un grand modèle de langage, parvenaient à réaliser des tâches complexes de virologie avec quatre fois plus de succès qu’un groupe sans assistance IA.

Plus inquiétant encore : près de 90 % d’entre elles ont réussi à contourner les filtres de sécurité des modèles pour obtenir des informations sensibles sur des agents pathogènes dangereux.

Une personne en train d'utiliser ChatGPT. ©Yarrrrrbright / Shutterstock
Une personne en train d'utiliser ChatGPT. ©Yarrrrrbright / Shutterstock

Les garde-fous ne sont pas assez robustes

Dans le même temps, les garde-fous peinent à suivre. La Convention sur les armes biologiques, signée en 1975, ne fait évidemment aucune mention de l’intelligence artificielle. Et les entreprises américaines qui fabriquent et vendent des séquences d’ADN synthétique, pouvant ensuite être utilisées pour créer ou modifier des organismes, sont censées vérifier que leurs produits ne tombent pas entre de mauvaises mains. Mais ce processus repose sur le bon vouloir des acteurs du secteur : aucune loi ne les y oblige.

Mais ce n’est pas tout. Dans la grande majorité, les évaluations de sécurité que les entreprises d’IA réalisent avant de lancer leurs modèles manquent souvent de transparence, et ne sont pas conçues pour mesurer des risques biologiques réels. Si certaines, comme Anthropic, tentent d’agir, ces initiatives restent volontaires et fragmentées. Le P.-D. G, Dario Amodei, a lui-même reconnu que le rythme du développement de l’IA pourrait bientôt dépasser la capacité de n’importe quelle entreprise à en évaluer les dangers. Un aveu rare, et révélateur de l’ampleur du défi…

Foire aux questionsContenu généré par l’IA
Que signifie le « problème du double usage » en biologie assistée par IA ?

Le double usage décrit une technologie capable de servir à la fois des objectifs bénéfiques (recherche médicale, vaccins, diagnostic) et des usages malveillants (conception d’agents pathogènes ou optimisation de leur diffusion). En biologie, les mêmes modèles peuvent aider à concevoir des protéines thérapeutiques ou, en changeant l’intention, à explorer des caractéristiques utiles à un agent dangereux (stabilité, transmissibilité, résistance). Le point critique est que l’IA abaisse la barrière d’entrée : elle accélère l’accès aux méthodes, aux hypothèses et aux protocoles, parfois au-delà du niveau d’un non-spécialiste. La gestion du double usage implique donc des contrôles à la fois techniques (filtres, évaluation des modèles) et organisationnels (procédures, audits, traçabilité).

Pourquoi la conception de protéines par IA change-t-elle l’échelle et la vitesse des expériences biologiques ?

Les modèles d’IA peuvent proposer rapidement des séquences de protéines candidates et prédire certaines propriétés (structure, stabilité, interaction), ce qui réduit fortement le cycle “idée → test”. Couplés à des plateformes automatisées (robotique de laboratoire, microfluidique, planification d’expériences), ils permettent de lancer en parallèle des milliers d’essais plutôt que quelques dizaines. Cette accélération vient du fait que l’IA sert d’outil de design et d’optimisation, en itérant sur des variantes avant même la validation en laboratoire. Le gain est majeur en R&D, mais la même capacité d’itération rapide peut aussi être détournée pour explorer des pistes à risque si les contrôles sont insuffisants.

En quoi consistent les filtres de sécurité des grands modèles de langage, et comment peuvent-ils être contournés ?

Les filtres de sécurité combinent en général des règles (listes de sujets interdits), des modèles de modération et des techniques d’alignement visant à refuser ou encadrer certaines requêtes sensibles. Leur limite est qu’ils évaluent surtout la forme et l’intention apparente de la demande, alors que des informations dangereuses peuvent être obtenues par reformulation, demandes fragmentées ou contexte trompeur. Des contournements peuvent aussi venir de questions très techniques formulées de manière “légitime”, ou de l’utilisation de modèles moins filtrés. Pour réduire ce risque, il faut tester les modèles avec des scénarios réalistes, mesurer la capacité à produire des instructions actionnables, et renforcer la détection sur les chaînes de requêtes plutôt que sur une seule question isolée.