La France annonce samedi le lancement d'une commission d'experts chargée d'évaluer les risques de l'intelligence artificielle générative pour le grand public. Un rapport est attendu dès mai 2026.

La France lance une commission d'experts sur les dangers de l'intelligence artificielle générative. © Iva Gomez / Shutterstock
La France lance une commission d'experts sur les dangers de l'intelligence artificielle générative. © Iva Gomez / Shutterstock

Soixante jours, c'est le temps qu'il a fallu à ChatGPT pour atteindre 100 millions d'utilisateurs, là où Instagram avait mis 30 mois pour en faire autant. Une adoption fulgurante qui dit tout sur la vitesse à laquelle l'IA générative a envahi nos vies, et sur l'urgence, pour les pouvoirs publics, de prendre la mesure de ce qui se passe vraiment. C'est précisément l'objet d'une commission d'experts lancée ce samedi 21 février par la ministre déléguée en charge de l'Intelligence artificielle et du Numérique, Anne Le Hénanff, dont les conclusions sont attendues dans trois mois à peine.

Une commission pluridisciplinaire pour cartographier les dangers de l'IA générative

En quelques années, l'IA générative a généré une multitude d'applications dans le quotidien, avec des chatbots pour répondre à vos questions, des générateurs d'images, des compagnons virtuels ou encore des jouets connectés pour les enfants. Des usages très différents, qui touchent des publics très différents. C'est la logique qui a guidé la composition de la commission « IA générative et vulnérabilités », lancée par le gouvernement. Celle-ci mêle psychiatrie, addictologie et recherche en intelligence artificielle.

Trois experts aux parcours bien distincts coprésident la commission. On retrouve Serena Villata, chercheuse en intelligence artificielle au CNRS et à l'INRIA, Amine Benyamina, spécialiste des addictions, et Raphaël Gaillard, psychiatre, ces deux derniers exerçant à l'Université Paris Cité. Autour de ce trio, une dizaine d'experts indépendants viendront compléter le groupe de travail. Tous ont été sélectionnés pour leurs compétences spécifiques dans leurs domaines respectifs.

Pour piloter ces travaux, la commission s'appuiera sur le CIANum, le Conseil de l'intelligence artificielle et du numérique, qui en assurera la coordination au quotidien. Elle travaillera également main dans la main avec le Comité consultatif national d'éthique du numérique. Deux institutions dont la présence montre que derrière cette commission, il y a une vraie volonté d'aboutir à des résultats concrets, pas un rapport de plus destiné à prendre la poussière.

Quatre missions et un objectif, pour passer de l'état des lieux aux mesures concrètes

Avant de légiférer, il faut comprendre. C'est justement tout l'enjeu de la première mission confiée à la commission, qui consiste à dresser un panorama complet de ce que recouvre aujourd'hui l'IA générative dans la vie quotidienne des Français. Outils d'aide à l'apprentissage, chatbots, compagnons virtuels… Qui les utilise ? Dans quel contexte ? À quelle fréquence ? Autant de questions auxquelles la commission devra répondre avant même d'aborder la question des risques.

Deuxième mission, et pas des moindres : identifier précisément quels sont les risques que fait peser l'IA générative sur ses utilisateurs. Santé mentale fragilisée, développement cognitif perturbé chez les enfants, cybercriminalité, désinformation, discrimination, vie privée exposée… Le spectre est large, et la ministre déléguée le dit elle-même dans sa lettre de mission, ces vulnérabilités « n'épargnent personne ». Une attention toute particulière sera portée aux effets sur les mineurs, un sujet qui tient visiblement beaucoup à cœur à l'exécutif.

Reste enfin à faire le point sur les lois et régulations déjà en place, en France comme au niveau européen, pour identifier ce qui fonctionne, ce qui manque, et ce qu'il faudrait renforcer. C'est la troisième mission. La quatrième, et ultime, consiste à traduire tout ce travail en propositions concrètes et applicables. Le rapport principal est attendu en mai 2026, donc assez tôt, avec possiblement des recommandations supplémentaires à la rentrée. La ministre est claire sur les intentions : « Ce travail scientifique va directement guider notre action et se traduira en mesures concrètes. » Il n'y a plus qu'à désormais, en espérant que ce qui sera proposé restera pertinent.