Meta a discrètement corrigé un bug critique qui divulguait les conversations privées de ses utilisateurs avec son intelligence artificielle.

- Meta a discrètement corrigé un bug critique qui exposait les conversations privées de ses utilisateurs avec son IA.
- Le bug permettait d'accéder aux conversations d'autres utilisateurs en modifiant un code.
- Meta a corrigé la faille en janvier 2025, assurant qu'aucune exploitation malveillante n'a été détectée.
Déployée en France en mars dernier, la technologie Meta AI fait face à de nombreux problèmes en matière de confidentialité. Cette intelligence artificielle, qui devrait bientôt intégrer des pubs et proposer un abonnement premium, a déjà défrayé la chronique en juin dernier. La cause ? Une fonctionnalité dévoilait publiquement les conversations de ses utilisateurs. Aujourd'hui, rebelote, on apprend qu'un bug a exposé les prompts privés et les réponses générées par cette IA.
Un bug discrètement signalé et corrigé
L'histoire, révélée en exclusivité au site TechCrunch, date de plusieurs mois : en décembre 2024, Sandeep Hodkasia, fondateur d'AppSecure, une société spécialisée dans la recherche de failles dans les systèmes informatiques, a repéré un bug sur Meta AI. Il a aussitôt prévenu Meta en privé et reçu 10 000 dollars de récompense pour la détection de ce bug.
11 juillet 2025 à 13h53
Le problème concernait la modification des prompts envoyés à l'intelligence artificielle. Les demandes et leurs réponses étaient associées à un numéro d'identification unique, généré par les serveurs de Meta AI. Cependant, en modifiant ce code, il était possible d'accéder aux conversations d'autres personnes, et ce, d'autant plus facilement qu'aucune vérification n'était effectuée côté serveur. Les identifiants étaient, de plus, plutôt simples à deviner. Une faille aisément exploitable pour une personne mal intentionnée et qui aurait pu entraîner de nombreux vols de données.
Aucune exploitation malveillante de la faille connue à ce jour
Meta a été informé de l'existence du bug le 26 décembre 2024 et le correctif a été déployé un mois plus tard, le 24 janvier 2025. Le porte-parole de la firme, Ryan Daniels, a précisé qu' « aucune preuve d'abus » n'a été trouvée. Les utilisateurs de Meta AI peuvent donc être rassurés : leurs prompts privés et les réponses du service n'ont pas été exploités à des fins malveillantes.
Toutefois, ce n'est pas la première fois que la confidentialité de Meta AI laisse à désirer. Comme pour beaucoup de ses concurrents, la prudence reste de mise quant aux informations partagées avec ces technologies. Si Meta l'a échappé belle cette fois-ci, on espère que la firme mettra en place des mesures de sécurité renforcées afin d'éviter des fuites de données massives.
Source : TechCrunch
- Intégration multiplateforme
- Modèles open-source Llama 4
- Fonctionnalités de génération d'images et vidéos