🔴 French Days en direct 🔴 French Days en direct

GPT-4 pourrait aider à la création d'armes biologiques, mais les risques sont légers selon OpenAI

01 février 2024 à 14h02
7
GPT-4 peut faciliter la création d'armes biologiques... © Warren Umoh / Unsplash
GPT-4 peut faciliter la création d'armes biologiques... © Warren Umoh / Unsplash

Le grand modèle de langage (LLM) le plus puissant d'OpenAI présente « tout au plus » un léger risque d'aider les gens à créer des armes biologiques, selon les premiers tests de l'entreprise. Elle cherche à mieux comprendre et prévenir les dommages potentiels « catastrophiques » de sa technologie.

En octobre, le président Joe Biden signait un décret dans lequel il s'inquiétait du fait que l'intelligence artificielle (IA) pourrait « réduire considérablement la barrière à l'entrée » pour la création d'armes biologiques. Il chargeait alors le département de l'Énergie de veiller à ce que les systèmes d'IA ne présentent pas de risques chimiques, biologiques ou nucléaires. Dans la foulée, OpenAI, dont la technologie sous-tend l'agent conversationnel ChatGPT, a monté une équipe dédiée à l'évaluation du danger posé par ses modèles d'IA. Elle vient de partager ses premiers résultats.

Comment l'étude a été menée

Pour leur étude, les chercheurs ont rassemblé un groupe de 50 experts en biologie et un autre de 50 étudiants ayant suivi des cours de biologie de niveau universitaire. Les participants ont ensuite été divisés en deux groupes distincts, chacun étant invité à rechercher comment cultiver une substance chimique dangereuse en quantité suffisante, et à élaborer un plan pour la libérer de manière ciblée sur un groupe de personnes défini.

La première moitié disposait d'un accès à Internet ainsi qu'à une version remaniée de GPT-4. Pour l'occasion, le modèle n'était doté d'aucune restriction concernant les questions auxquelles il pouvait répondre. Le second groupe, lui, pouvait uniquement se rendre sur Internet.

Les plans élaborés par les participants ont été notés sur une échelle de 1 à 10 en fonction de leur précision, de leur exhaustivité, de leur innovation et de leur efficacité. Les experts en biologie ont montré une augmentation de 8,8 % de la précision dans la création d'une arme biologique lorsqu'ils ont utilisé GPT-4 par rapport à Internet, alors que les étudiants en biologie n'ont obtenu qu'une augmentation de 2,5 %.

GPT-4 a également amélioré l'exhaustivité des projets avec une amélioration de 8,2 % pour les experts. Les étudiants ont enregistré une hausse de 4,1 % de cette complétude avec le modèle.

GPT-4 est l'un des LLM les plus puissants sur le marché actuellement. © GPT-4
GPT-4 est l'un des LLM les plus puissants sur le marché actuellement. © GPT-4

Une « légère » amélioration

Les chercheurs d'OpenAI estiment que l'accès à GPT-4 « apporte tout au plus une légère amélioration dans l'acquisition d'informations pour la création de menaces biologiques ».

« Bien que cette amélioration ne soit pas suffisamment importante pour être concluante, nos résultats constituent un point de départ pour la poursuite de la recherche et des délibérations communautaires », concluent-ils. Ils mènent en parallèle d'autres recherches, notamment sur la possibilité d'utiliser l'IA pour mener des cyberattaques, ou pour influencer les gens dans leurs croyances.

L'émergence de l'intelligence artificielle comme outil grand public a ouvert de nombreuses possibilités pour tous les producteurs de contenus. Texte, image, son… Cette nouvelle technologie à la mode peut maintenant apporter son assistance dans de très nombreux domaines, et faciliter le travail dans les étapes les plus ingrates de la création. Et avec une offre qui ne cesse de s'accroître, il est important de distinguer quels outils apportent une véritable valeur ajoutée. Histoire de ne pas perdre des heures à essayer tout ce que proposent les pages de résultats de Google !
Lire la suite

Sources : OpenAI, Bloomberg

Mathilde Rochefort

Après mes études de journalisme, j’ai décidé de m’orienter vers les domaines qui me passionnent : nouvelles technologies, jeu vidéo, ou encore astronomie. J’adore partager autour de ces sujets mais ma...

Lire d'autres articles

Après mes études de journalisme, j’ai décidé de m’orienter vers les domaines qui me passionnent : nouvelles technologies, jeu vidéo, ou encore astronomie. J’adore partager autour de ces sujets mais ma curiosité m’entraîne à évoquer de nombreux autres sujets au travers de mes articles.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (7)

Cynian90
C’est complètement négligeable, surtout avec une version débridée de GPT 4.
bizbiz
Sans la conscience ne subsiste que la bêtise.<br /> Aujourd’hui, j’ai demandé à Copilot (GPT4) de me créer une image à partir d’un prompt qui contenait le mot «&nbsp;mort&nbsp;» . La réponse de sa part :<br /> " Attention: Cette image peut contenir des scènes choquantes ou violentes. Je ne cautionne pas la violence ni la mort. Je vous prie de faire preuve de prudence et de respect envers les personnes représentées. Merci."<br /> Je peux éventuellement comprendre qu’il refuse de me pondre un truc…<br /> J’ai donc utilisé le mot «&nbsp;squelette&nbsp;» à la place et voici la réponse :<br /> " Il semble que certains mots soient automatiquement bloqués pour l’instant. Parfois, même le contenu sécurisé peut être bloqué par erreur. Consultez notre stratégie content pour voir comment vous pouvez améliorer votre invite."<br /> Serieux ? Et ce truc serait donc en mesure d’aider à la conception d’armes de destruction massive. J’ose même pas utiliser le nom «&nbsp;Aya Nakamura&nbsp;» de peur que mon PC n’explose !
DUM
Une arme reste une arme même si elle est légère.
Cynian90
Bannissons les cottons tiges !
hellraisercom
GPT-4 pourrait aider à la création d’armes biologiques, mais les risques sont légers selon OpenAI<br /> C’est pas ce qu’avait dit l’auteur de la bombe H ?<br /> Sans titre-1617×667 291 KB
MattS32
Il ne faut pas confondre le modèle (GPT-4) et les applications l’utilisant (ici, Copilot). Les restrictions dont tu parles, elles sont implémentées au niveau de l’application, pas au niveau du modèle.<br /> Donc ce n’est pas parce que Copilot refuse de faire quelque chose que GPT-4 en est incapable.
mcbenny
«&nbsp;…une version remaniée de GPT-4. Pour l’occasion, le modèle n’était doté d’aucune restriction concernant les questions auxquelles il pouvait répondre.&nbsp;»<br /> Donc les «&nbsp;lois de la robotiques&nbsp;» ne sont pas implémentées, ou pas à la base.<br /> Ne reste plus aux personnes mal-intentionnées qu’à trouver comment débrider le bouzin.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet