La France lance un appel scientifique international pour mesurer les dangers de l'IA générative sur les enfants, avec une annonce faite ce 18 février par la ministre Anne Le Hénanff au sommet de l'IA à New Delhi.

L'intelligence artificielle générative s'est installée dans le quotidien des enfants, mais la recherche scientifique peine encore à mesurer concrètement ses effets. C'est pour combler ce vide que la France a lancé, depuis New Delhi, un appel à contributions scientifiques internationales, avec la volonté de mobiliser toute la communauté mondiale. Les données collectées dans ce cadre alimenteront une commission d'experts chargée de produire des recommandations, dont les conclusions seront présentées lors de la présidence française du G7, autrement dit avant la fin de l'année.
Un appel scientifique international pour mieux comprendre les risques de l'IA générative sur les enfants
C'est à New Delhi, en marge de l'India AI Impact Summit 2026, qu'Anne Le Hénanff, ministre déléguée chargée de l'Intelligence artificielle et du Numérique, a officiellement lancé un appel à contributions scientifiques internationales. L'objectif est de cartographier précisément les risques et vulnérabilités que l'IA générative grand public fait peser sur les mineurs, un angle encore trop peu documenté pour permettre une régulation sérieuse.
L'événement, intitulé « Protéger les enfants à l'âge de l'IA » et organisé sous l'égide de la présidence française du G7, a rassemblé un panel éclectique avec le directeur de l'ENS Paris, des représentants du secteur tech et acteurs du Forum de Paris, ainsi que des diplomates indiens.
Voilà des profils volontairement variés, pour embrasser un sujet qui, lui, ne connaît pas les frontières. Et un événement qui n'est pas sans fondement, puisqu'il fait suite au Forum officiel franco-indien préparatoire, qui avait lieu le 19 janvier 2026 au Campus Cyber, à Puteaux.
Une commission d'experts pour transformer la recherche en régulation concrète
Les données et travaux recueillis grâce à cet appel international nourriront une commission d'experts souhaitée par le président de la République. Sa mission sera de formuler des recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7. Un agenda resserré, mais signe d'une volonté politique réelle d'aller vite.
La France n'arrive en tout cas pas les mains vides dans ce débat. L'Assemblée nationale a, sans faire polémique, récemment voté une loi pour bloquer l'accès aux réseaux sociaux aux moins de quinze ans, une première concrète saluée lors du panel, mais perçue comme un début plutôt qu'une fin. La ministre l'a dit clairement encore aujourd'hui : la protection de l'enfance en ligne doit devenir « une priorité absolue, en s'appuyant sur la science et la coopération internationale au service de l'intérêt général. »
L’IA générative désigne des modèles capables de produire du texte, des images, de l’audio ou de la vidéo à partir d’instructions (prompts). “Grand public” implique des interfaces simples (applications, messageries, moteurs de recherche) et un accès massif, souvent via le cloud. Techniquement, ces systèmes reposent souvent sur de grands modèles de fondation (LLM, modèles de diffusion) entraînés sur de vastes corpus. Le point clé est que l’outil ne se limite pas à classer ou recommander : il synthétise du contenu nouveau, parfois plausible mais inexact.
Qu’est-ce qu’une “cartographie des risques et vulnérabilités” en IA ?C’est une méthode de structuration qui recense les types de risques, leurs causes, leurs populations exposées et les contextes d’usage. Elle distingue généralement risques directs (contenus inadaptés, manipulation, hallucinations) et risques indirects (dépendance, atteintes à la vie privée, biais). Elle peut intégrer une évaluation de probabilité, de gravité et de “surface d’attaque” (points d’entrée : chat, image, audio, recommandations). L’objectif est de prioriser des mesures de mitigation (filtres, garde-fous, contrôles d’âge, transparence) plutôt que de produire une liste vague de dangers.
Qu’est-ce qu’un “appel à contributions scientifiques” international ?C’est un dispositif où une institution sollicite des travaux existants ou des propositions d’études selon un cadre défini (questions de recherche, méthodes attendues, critères de qualité). Les contributions peuvent inclure des données, des protocoles expérimentaux, des revues de littérature, ou des résultats reproductibles. L’intérêt d’un format international est de comparer des contextes culturels, juridiques et techniques différents, et d’augmenter la puissance statistique des analyses. La valeur dépend fortement de la rigueur : définition des indicateurs, transparence des jeux de données, et gestion des biais d’échantillonnage.
Qu’est-ce qu’une commission d’experts et à quoi sert-elle en matière de régulation numérique ?Une commission d’experts est un groupe pluridisciplinaire (scientifiques, juristes, praticiens) chargé de transformer des résultats de recherche en recommandations opérationnelles. Elle clarifie des définitions (ex. “préjudice”, “exposition”, “âge”), propose des métriques et suggère des obligations ou bonnes pratiques vérifiables. Dans le numérique, elle sert souvent d’interface entre l’état des connaissances et des instruments concrets : normes, lignes directrices, exigences d’audit, ou cadres d’évaluation des risques. Son efficacité dépend de son mandat (périmètre, calendrier), de l’accès aux données des plateformes et de la capacité à faire appliquer les recommandations.