Des vidéos captées par les lunettes connectées Meta Ray-Ban seraient envoyées à des annotateurs humains au Kenya, et cela comprend des scènes très intimes. Un niveau de collecte que Meta n'a jamais clairement communiqué à ses utilisateurs.

Les Meta Ray-Ban s'imposent comme la référence des lunettes connectées. En 2025, l'entreprise a écoulé 7 millions de paires, soit trois fois plus que les deux années précédentes combinées. Un succès porté en grande partie par la fonction d'intelligence artificielle (IA) intégrée, qui permet de demander à voix haute des traductions, des informations sur ce que l'on voit, ou d'identifier des objets en temps réel.
À savoir que les lunettes peuvent enregistrer de la vidéo de deux façons : manuellement, en appuyant sur un bouton physique, ou automatiquement, lorsque l'utilisateur active l'assistant IA avec la commande vocale « Hey Meta ». C'est cette deuxième option qui pose problème : pour fonctionner, elle nécessite que les images captées soient envoyées aux serveurs de la firme. Et ce que les utilisateurs ignorent souvent, c'est que ce traitement ne serait pas uniquement automatisé…
Des vidéos qui transitent par le Kenya
« Si les gens savaient l'étendue de la collecte, personne n'oserait utiliser les lunettes », indique un annotateur interrogé par SVD. Dans une vaste enquête, le média suédois, qui s'est entretenu avec plus de 30 personnes proches du dossier, révèle ce qui pourrait bien être le plus grand scandale autour des lunettes connectées.
Car le traitement des images captées ne serait pas uniquement algorithmique : une partie des vidéos serait acheminée vers des annotateurs humains employés par Sama, un sous-traitant basé à Nairobi, au Kenya. Leur mission : visionner le contenu, puis identifier et étiqueter manuellement les objets visibles afin d'entraîner les IA de Meta.
Si la société précise bien, dans ses conditions d'utilisation, que certaines interactions avec l'IA peuvent faire l'objet d'une « revue manuelle humaine », la formulation est suffisamment vague pour passer inaperçue. D'autant qu'elle ne précise ni la nature des contenus concernés, ni leur durée de conservation, ni l'identité des personnes qui y ont accès.

Les filtres automatiques pèchent
Et parmi les vidéos, figurent des contenus que Meta est clairement censée filtrer avant transmission. Les travailleurs interrogés par SVD décrivent des scènes très intimes, voire problématiques : sexe, personnes dénudées et inconscientes, numéros de carte bancaire, discussions sur des sujets très sensibles, etc.
D'anciens employés de Meta aux États-Unis confirment que ces données sensibles ne sont pas supposées atteindre les annotateurs. Les filtres automatiques, chargés de les bloquer, échouent parfois, notamment en mauvaises conditions d'éclairage.
De possibles manquements en Europe
Ce manque de transparence pourrait coûter cher à Meta. Kleanthi Sardeli, avocate spécialisée en protection des données au sein de l'organisation NOYB, qui a déjà engagé plusieurs procédures contre l'entreprise, estime que si ces pratiques concernent des utilisateurs européens, elle est en défaut à la fois de transparence et de base légale. Car un consentement explicite devrait être requis dès lors que des données personnelles servent à entraîner une IA.
De même, le Kenya ne dispose d'aucune décision d'adéquation de l'Union européenne, ce qui signifie que le transfert de données vers ce pays n'offre pas les garanties exigées par le RGPD. Contactée pendant deux mois par SVD, Meta n'a jamais répondu aux questions précises des journalistes, se contentant de renvoyer vers ses conditions d'utilisation et sa politique de confidentialité.
C'est un nouveau scandale qui risque de réveiller de vieux démons chez Meta, qui tente de se refaire une jeunesse grâce à l'IA et la réalité augmentée. Pour rappel, l'entreprise envisagerait, aussi, d'introduire la reconnaissance faciale dans ses lunettes intelligentes.
Source : SVD