Le contrôle parental a toujours été un exercice de funambule entre protection de son enfant et respect de sa vie privée. Meta veut résoudre

Meta étoffe le contrôle parental pour Instagram et refond son tableau de bord dédié aux parents. © Meta
Meta étoffe le contrôle parental pour Instagram et refond son tableau de bord dédié aux parents. © Meta

Meta a lancé ses « comptes adolescents » en septembre 2024, avec restrictions par défaut, supervision parentale optionnelle et détection d'âge par IA. Depuis, l'entreprise empile les couches de protection à un rythme que même les régulateurs ont du mal à suivre. Ce 12 mai 2026, nouvelle brique : les parents superviseurs peuvent désormais consulter les catégories d'intérêts que leur ado a ajoutées à son algorithme.

Des étiquettes, pas des contenus

Concrètement, le dispositif passe par le Family Center (qu'on pourrait résumer comme le tableau de bord parental de Meta, désormais consolidé pour Instagram, Facebook, Messenger et Meta Horizon). Les parents y découvrent des étiquettes génériques : basketball, photographie, comédies musicales, jeux vidéo. Des catégories, autrement dit. Pas les posts consultés, pas les recherches effectuées, pas les conversations privées. La nuance est de taille.

Dans les prochains mois (le calendrier exact n'est pas précisé), une notification atterrira chez le parent lorsque l'ado ajoute un nouvel intérêt. © Meta
Dans les prochains mois (le calendrier exact n'est pas précisé), une notification atterrira chez le parent lorsque l'ado ajoute un nouvel intérêt. © Meta

Sauf qu'un procès en cours à Los Angeles a révélé l'existence de Project MYST, un programme de recherche interne mené avec l'université de Chicago. Sa conclusion (que Meta n'a jamais publiée, on se demande pourquoi) : la supervision parentale a très peu d'effet mesurable sur l'usage compulsif des adolescents.

Le calendrier des bonnes intentions

La Commission européenne a ouvert une procédure formelle contre Meta en mai 2024, étendue en 2025, portant sur la protection des mineurs au regard du DSA. L'article 28 du règlement impose aux très grandes plateformes des obligations spécifiques envers les utilisateurs mineurs. Les conclusions préliminaires de Bruxelles ne sont pas tendres : les mécanismes de vérification d'âge actuels ne seraient pas conformes.

  • Des interactions faciles par de nombreux canaux (publications, Stories, messagerie, etc.)
  • Un réseau social adapté aux préférences des utilisateurs dans la gestion de leur compte
  • De nombreux types de contenus à créer, à partager et à consulter
9 / 10

En France, la loi Studer de juillet 2023 fixe la majorité numérique à 15 ans et impose vérification d'âge et consentement parental en dessous. Le décret d'application ? Toujours en discussion (la compatibilité avec le DSA est pendante devant la CJUE). L'Arcom pousse de son côté pour que la vérification soit déléguée aux stores d'applications plutôt qu'aux plateformes elles-mêmes.

Chaque nouvelle fonctionnalité parentale annoncée par Meta suit ce calendrier réglementaire avec une ponctualité suspecte. Les comptes ados Facebook et Messenger, c'était juste avant une échéance DSA. Les insights sur les conversations avec l'IA, juste après une audition au Parlement européen. TikTok (Family Pairing, 2020) et Snapchat (Family Center, 2022) proposent des outils comparables depuis bien plus longtemps, ce qui ne les a pas épargné des foudres des régulateurs récemment. TikTok a été épinglée par la Commission européenne pour son design addictif en début d'année, et Snapchat est scrutée pour vérifier si l'application en fait assez pour protéger ses utilisateurs mineurs.

Enfin, le projet de loi sur l'interdiction des réseaux sociaux aux moins de 15 ans continue de faire son chemin après son adoption par le Sénat en mars. Dans ce cadre, montrer patte-blanche avec un contrôle parental revu ne sera pas suffisant, que ce soit pour Meta, TikTok ou Snap.