Meta lance une offensive contre les applications qui génèrent des images nues sans consentement grâce à l’IA. Le groupe cible les publicités pour ces services et partage désormais ses informations avec d’autres entreprises du secteur.

- Meta s'attaque aux applications IA qui créent des images nues sans consentement, ciblant publicités et développeurs.
- Le géant californien utilise une technologie avancée pour détecter et supprimer les publicités trompeuses sur ses plateformes.
- Meta collabore avec d'autres entreprises pour bloquer ces services, partageant des URL problématiques via le programme Lantern.
Les applications « nudify » se multiplient sur les réseaux sociaux. Elles utilisent l’IA pour transformer des photos en images de nudité, souvent sans l’accord des personnes concernées. Meta décide d’agir. Elle attaque en justice les créateurs de ces services et renforce ses outils pour limiter leur diffusion. En janvier, un blog spécialisé a recensé plus de 8 000 publicités pour une seule de ces applications sur Facebook et Instagram. Les équipes de modération interviennent, mais les développeurs changent régulièrement de tactique pour contourner les filtres. Le géant des GAFAM annonce une série de mesures pour mieux protéger ses utilisateurs.

- Connectivité globale sur le web
- Accès à l'Information et aux contenus
- Des interactions faciles par de nombreux canaux (publications, Stories, messagerie, etc.)
- Un réseau social adapté aux préférences des utilisateurs dans la gestion de leur compte
- De nombreux types de contenus à créer, à partager et à consulter
- Chiffrement de bout en bout.
- Appels audio et vidéo gratuits.
- Compatibilité multiplateforme.
Meta renforce sa riposte contre les applications de nudification par IA
Le géant californien vise Joy Timeline HK Limited, société derrière CrushAI. Cette application crée des images sexuellement explicites à partir de photos banales. Les publicités pour ces services circulent en masse sur les plateformes du groupe. Les équipes spécialisées suppriment les annonces, les pages et les comptes liés à ces apps. Les développeurs persistent et reviennent avec de nouveaux noms de domaine ou de nouveaux comptes.
Meta a mis au point une technologie qui détecte les publicités pour ces applications, même sans nudité visible. Les annonceurs utilisent souvent des images neutres pour tromper les filtres. Les équipes élargissent la liste des mots-clés, expressions et émojis surveillés. Depuis le début de l’année, quatre réseaux distincts de comptes qui diffusaient ces publicités ont disparu. La société précise aussi que les termes de recherche comme « nudify », « se déshabiller » ou « supprimer les vêtements » n’apparaissent plus dans les résultats sur Facebook et Instagram.
Dans son communiqué, l’entreprise insiste : « Nous avons des règles strictes contre les images intimes non consensuelles, qu’elles soient réelles ou générées par l’IA, y compris la promotion d’applications nudify ». Elle ajoute : « Nous continuerons à prendre les mesures nécessaires – qui pourraient inclure des poursuites judiciaires – contre ceux qui abusent de nos plateformes de cette manière ».
La lutte s’étend au-delà de la planète Meta
Le groupe de Menlo Park partage désormais ses informations avec d’autres acteurs du numérique. Il transmet les URL des sites concernés via le programme Lantern de la Tech Coalition. Depuis fin mars, plus de 3 800 adresses ont été envoyées à des partenaires. L’objectif reste de permettre à d’autres entreprises de bloquer ces services ou de supprimer les contenus associés. Les règles de Meta interdisent la publication ou la promotion d’images intimes non consensuelles, qu’elles soient réelles ou générées par l’IA. L’entreprise rappelle aussi l’existence d’outils comme StopNCII.org ou Take It Down, qui servent à signaler et à retirer ce type de contenus.
Les créateurs de ces applications changent souvent de noms de domaine et adaptent leurs méthodes pour tromper la détection. L’entité de Mark Zuckerberg adapte ses outils en continu et collabore avec des experts externes pour élargir la liste des signaux surveillés. Le géant des GAFAM soutient aussi une législation plus stricte. La loi américaine TAKE IT DOWN vise à mieux protéger les victimes de diffusion d’images intimes et à donner aux parents plus de contrôle sur les applications téléchargées par leurs adolescents.
Les équipes ont déjà repéré plus de 8 000 publicités pour ces applications en seulement quelques mois. Plus de 3 800 adresses web passent désormais d’une entreprise à l’autre pour faciliter leur blocage. Malgré tout, des services similaires restent accessibles sur d’autres plateformes ou dans certains app stores.
07 février 2025 à 17h46