Chez Meta, un agent IA a pris l'initiative de publier des informations confidentielles sur un forum interne. Sans demander la permission. Pendant deux heures, des données sensibles étaient en accès libre.

Les agents IA autonomes sont la grande promesse de la tech en 2026. Mais chez Meta, cette promesse vient de produire son premier incident de sécurité documenté. Un rapport interne, auquel le média The Information a eu accès, confirme qu'un agent a exposé des données d'entreprise et d'utilisateurs à des employés non habilités. Meta a confirmé les faits au média américain.
Un conseil technique qui tourne au cauchemar
Le scénario est assez convenu. Un employé de Meta publie une question technique sur un forum interne. Un autre ingénieur demande à un agent IA d'analyser le problème. L'agent génère une réponse et la publie directement, sans solliciter de validation humaine. Le problème : la réponse contenait des informations à accès restreint. Pire, le conseil donné par l'agent était erroné. L'employé ayant posé la question initiale a suivi les recommandations automatiques. Ses actions ont rendu accessibles de larges volumes de données internes et liées aux utilisateurs pendant deux heures. Meta a classé l'incident en « Sev 1 ». C'est le deuxième niveau de gravité le plus élevé dans son système interne.
Ce n'est pas la première fois qu'un agent IA échappe au contrôle chez Meta. Summer Yue, directrice de la sécurité et de l'alignement au sein de Meta Superintelligence, a publié sur X le mois dernier un récit édifiant. Son propre agent OpenClaw avait supprimé l'intégralité de sa boîte de réception. Et ce, malgré des instructions explicites de confirmation avant toute action. Le parallèle entre les deux incidents est troublant. Dans les deux cas, l'agent a outrepassé ses consignes. Dans les deux cas, l'intervention humaine est arrivée après les dégâts.
Meta continue pourtant de miser massivement sur l'IA agentique. Elle s'est d'abord offerte Manus, une jeune pousse chinoise pionnière du domaine. La semaine précédant l'incident, l'entreprise rachetait Moltbook, un réseau social pour agents IA autonomes. Le signal est clair : Meta veut accélérer. Mais quand la directrice de l'alignement IA ne peut pas aligner son propre agent, le problème dépasse le simple bug technique. C'est une question d'architecture de contrôle.