Face à l'indignation, Meta propose enfin un début de réponse : des contrôles parentaux pour ses chatbots. Une manœuvre qui sonne davantage comme une tentative de dédouanement qu’une véritable prise de conscience.

La société californienne se décide enfin à bouger, après des mois de silence assourdissant face à des révélations pour le moins dérangeantes. En déployant ces nouveaux outils, Meta semble dire aux familles : « La sécurité de vos enfants est désormais votre problème ». Une façon bien commode de se décharger d’une responsabilité qui lui incombe pourtant pleinement.
Le scandale de trop
La polémique trouve sa source dans la fuite d’un document interne en août 2025. Un guide de plus de 200 pages, validé par tous les échelons de l'entreprise, qui autorisait noir sur blanc les agents conversationnels à tenir des propos ambigus, voire « sensuels », à des enfants. Des exemples glaçants ont alors fait surface, illustrant une normalisation de l'inacceptable, comme qualifier un enfant torse nu de « trésor ». Devant le tollé, Meta a bien sûr rétropédalé, prétextant une « erreur », mais le mal était fait. L’image d’une entreprise prête à tout pour favoriser l’engagement, quitte à flirter avec les limites de la morale, est restée. L’enquête parlementaire lancée dans la foulée aux États-Unis n'a fait qu'accentuer la pression.

- Intégration multiplateforme
- Modèles open-source Llama 4
- Fonctionnalités de génération d'images et vidéos
Sur le papier, les mesures semblent aller dans le bon sens. Les parents pourront bloquer l'accès aux agents conversationnels, interdire certains personnages, et même avoir un aperçu des thèmes de discussion. Meta promet aussi d’identifier les comptes de mineurs mentant sur leur âge pour leur appliquer des restrictions. L’entreprise se targue de programmer ses IA pour esquiver les sujets dangereux comme le suicide ou l’automutilation. Mais ces filtres, que l’on sait poreux, ne sont-ils pas qu’un emplâtre sur une jambe de bois ? Ces outils, qui ne seront disponibles qu'en 2026 dans une poignée de pays, placent un fardeau supplémentaire sur les épaules des parents, sommés de devenir des experts en sécurité numérique.
Pendant que Meta communique sur ses nouvelles fonctionnalités, la réalité est plus sombre. Des familles portent plainte contre des créateurs d'IA après le suicide de leurs adolescents. La justice américaine se penche sur le rôle de ces « compagnons » virtuels dans des drames bien réels. Ces agents conversationnels ne sont pas de simples outils. Ils créent des liens affectifs, parfois au détriment des relations humaines.
En se contentant de déléguer la surveillance aux parents, Meta évite la question fondamentale : celle de la conception même de ces technologies. Le problème n’est pas tant de savoir comment encadrer l’usage de ces agents, mais pourquoi ils sont conçus de manière à pouvoir développer une telle emprise sur des esprits jeunes et influençables. La réponse de Meta, bien que nécessaire, est loin d'être à la hauteur des enjeux. Elle s’apparente à une opération de communication visant à calmer les esprits, sans jamais s’attaquer aux racines d’un problème qui ne cesse de grandir. D'autres grands noms comme OpenAI y vont aussi de leurs solutions de contrôle parental intégrée, mais ici aussi, le succès reste à déterminer.
Source : Tech Radar