La popularité inquiétante des applis "Nudify" qui déshabillent les femmes grâce à l'IA sans leur consentement

Mélina LOUPIA
Publié le 20 mai 2024 à 09h42
Les "Nudify" envahissent le Web © M-Production / Shutterstock
Les "Nudify" envahissent le Web © M-Production / Shutterstock

Les applications d'intelligence artificielle permettant de « déshabiller » numériquement les femmes sans leur consentement, également appelées « Nudify », connaissent une popularité loin de faire l'unanimité. Au-delà des dérives éthiques et juridiques évidentes, ce phénomène soulève de nombreuses interrogations sur la protection des données personnelles et du droit à l'image.

Alimentées par les progrès fulgurants de l'intelligence artificielle générative, les applications Nudify se multiplient sur Internet. Leur fonctionnement est simple, mais pose d'importants problèmes éthiques. En effet, il suffit d'uploader la photo d'une personne pour que l'algorithme génère une version où celle-ci apparaît dénudée, et ce, sans son accord.

Selon la société d'analyse Graphika, qui a publié une étude en décembre 2023, pas moins de 24 millions de personnes ont visité des sites proposant ce type de service rien qu'en septembre 2023. Une industrie florissante s'est ainsi développée autour de cette pratique de pornographie non consensuelle, soulevant de vives inquiétudes quant au respect de la vie privée et des droits individuels.

Les plateformes et réseaux sociaux impuissants ou inactifs face au développement inquiétant des Nudify

Pour faire simple, la technique du Nudify utilise deux technologies principales pour générer des images de la personne nue à partir de photos d'elle habillée. La première est l'IA générative, avec des algorithmes qui analysent des millions d'images de corps nus pour apprendre à identifier les formes et les textures réalistes, et la seconde est les deepfakes, lorsque l'IA superpose des corps nus anonymes sur la photo habillée de la cible, en tenant compte de la carnation, de la posture et d'autres détails pour un résultat crédible. L'utilisateur fournit une photo et choisit des options comme le type de corps et le style (réaliste ou anime). L'IA génère ensuite l'image nue en quelques minutes.

Si certaines plateformes comme TikTok ou Meta (Facebook, Instagram) commencent à bloquer les mots-clés associés aux applications Nudify, leurs efforts restent largement insuffisants face à l'ampleur du phénomène. En effet, ces services utilisent habilement les réseaux sociaux pour leur marketing, et le nombre de liens les annonçant a bondi de plus de 2 400 % cette année, selon Graphika. Pire, certaines applis parviennent même à se faire de la publicité sur YouTube en contournant les règles des diffuseurs.

Les géants de la tech, pourtant mieux armés que quiconque pour lutter contre ces dérives, semblent impuissants, ou en tout cas peu réactifs. Si Google affirme « examiner » et « supprimer » les publicités qui les deepfakes en tout genre, la firme ne fait bien souvent que les déclasser. Beaucoup d'autres plateformes n'ont pas encore pris de mesures concrètes. Ce constat est d'autant plus alarmant que ces mêmes entreprises ont les moyens techniques et financiers de mettre en place des garde-fous efficaces en ce qui concerne la modération des contenus et la protection des utilisateurs, lorsqu'on sait que ces images où l'on voit des personnes déshabillées sont souvent à l'origine de sextorsion ou de cyberharcèlement.

Pour la création de Nudify, le consentement des victimes est bafoué © DANIEL CONSTANTE / Shutterstock

Le consentement au centre des crispations autour des applications de type Nudify

Au-delà des interrogations sur la responsabilité des plateformes, c'est surtout la notion même de consentement qui est bafouée par ces applis. En effet, les images générées représentent des personnes dénudées à leur insu et sans leur accord. C'est là une atteinte majeure à leur droit à l'image et à leur dignité, et cela peut avoir un impact psychologique dévastateur, comme en témoignent de nombreuses victimes.

La lutte s'annonce d'autant plus complexe que le cadre juridique actuel peine à suivre la cadence des innovations technologiques. Aux États-Unis par exemple, aucune loi fédérale n'interdit formellement la création de ces deepfakes pornographiques. En France, la CNIL joue son rôle de garde-fou en punissant d'une amende de 12 000 euros la diffusion publique d'images « déshabillées », selon l'article 32 de la loi du 29 juillet 1881. Le RGPD, quant à lui, est intraitable sur le consentement, comme le dispose son article 6 : « Le traitement [des données personnelles] doit être licite : il doit être fondé sur l'une des 6 bases légales fixées par le RGPD notamment le consentement de la personne concernée […]»

Malgré tout, les victimes demeurent bien démunies face à ces dérives, la plupart du temps confrontées à des forces de l'ordre peu réactives et à des procédures coûteuses.

DALL·E
  • Ergonomique et intuitif
  • Comprend le langage naturel
  • Comprend le français
Adobe Firefly
  • Création d'image rapidement à partir d'une description.
  • L'outil de recoloration pour les images vectorielles.
  • L'offre gratuite avec 25 crédits mensuels.
Midjourney
  • Droits commerciaux inclus dans tous les forfaits payants
  • Pertinence dans la compréhension des prompts
  • Tarifs accessibles

Sources : Time, Graphika

Par Mélina LOUPIA

Modératrice, contributrice et community manager pour le regretté OVNI Le Post, puis journaliste société spécialisée dans la parentalité et la psychologie notamment sur Le HuffPost, l'univers du Web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet s'inscrit dans le champ de mes sujets préférés.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
bizbiz

Ils peuvent pas faire la même chose pour gratter virtuellement les tickets de la FDJ ?

Sinon, habitant à quelques minutes d’un centre naturisme, il faudrait plutôt une appli pour rhabiller certaines personnes… ou bien porter des lunettes avec les verres en bois… ^^

Neferith

Donc dessiner un femme toute nue ce serait la déshabiller sans son consentement ? On peut le faire aussi avec du collage et du découpage. Alors attention, je vais reformuler. Je ne trouve pas ça très sain comme pratique, je vais pas rentrer dans les détails. Mais je trouve les termes assez mal choisi. D’autant que je pense que le vrai probleme n’est pas la création d’image en soi (On pourra pas empecher ça), mais plutot sa diffusion, principalement si cette image est assez réaliste pour faire croire qu’elle est vraie. Là oui, ça peut etre très problématique, mais le problème se limite pas au nude.

MattS32

Ah ben si, ils peuvent. Mais ça sera bien la même chose : un truc totalement « imaginaire », pas du tout la réalité de ce qu’il y a sous les « habits » :rofl: Pas sûr que ça permette de trouver les tickets gagnants :sweat_smile:

MisterDams

Disons qu’effectivement, les questions qui se posent sont la licéité de l’acquisition de l’image d’origine (dont le droit d’utiliser la photo qui a servi au paramétrage), puis le droit de diffusion de l’image finale.

Mais à partir du moment où l’on diffuse la photo sans consentement de la personne reconnaissable, j’aurai tendance à dire que ça devient assez immédiatement a minima de la diffamation. Et ça, que ce soit une image d’IA ou une vraie photo.

En revanche la question se pose dans un cadre « individuel » de savoir si c’est légalement répréhensible ou pas. Je pense qu’on est pas à l’abri de voir débarquer un détraqué qui sera accusé d’avoir agressé une personne dont il aura édité des « variantes » sur un outil génératif pour alimenter son fantasme, et là il pourrait y avoir un retour de bâton pour l’outil.

Neferith

Si des gens générent des fausses photos pour nuire à une personne, je pense qu’on a déjà un systeme de loi qui permet ça à ma connaissance. Et une plateforme pourrait effectivement être puni pour avoir participé indirectement à cela.
Reste que pour moi c’est pas juste le probleme de générer des nudes sans consentement, qui pour moi est un phénomène qui innonde de toute manière déjà un certain internet et qui la majorité du temps ne va pas plus loin que la génération d’une image. L’IA pose un probleme c’est sur, mais je pense qu’on va arriver un temps où quand tu verras une photo sur internet, il faudra d’abord se demander si elle est vraie ou non (Bon en fait c’est déjà le cas)

Bidouille

Malheureusement, la connerie humaine est sans limite. Donc à chaque fois qu’une nouveauté peut être détournée, des troupeaux d’andouilles sautent dessus pour se faire plaisir.
Mais que peut on faire contre ces troupeaux d’imbéciles ?

pecore

Ou vivre les volets fermés.

MisterDams

Ha ça c’est sûr qu’il y a un vrai sujet sur ce point. Et pour moi c’est assez lié aussi à la façon dont le partage des contenus multimédias aujourd’hui passe principalement par la duplication : quand tu « repartages » quelque chose, tu réalises en fait souvent une copie sans perte plutôt qu’une diffusion de l’image d’origine. Donc, tu perds le lien qui garanti son authenticité.

Si on changeait notre façon de gérer le média pour mutualiser son stockage, on pourrait les diffuser sans pour autant les copier, pour en garantir l’origine et pour garder le contrôle dessus (je supprime, ça disparait sur tous les supports relais). Ça n’éviterait pas évidemment la possibilité pour quelqu’un de « pirater » le contenu pour le rediffuser, mais ça permettrait au moins de pouvoir garantir l’origine d’un média.

En gros, partager ses médias comme un lien Teams ou Dropbox, mais que ça puisse s’intégrer de façon fluide n’importe où (post Facebook, site web, etc.), un peu à la Gravatar, mais dans un usage beaucoup plus large.
J’ai jamais trop compris pourquoi les GAFAM se sont jamais penchés sur le sujet, surtout vu le gain considérable en espace de stockage qu’on pourrait attendre à arrêter de copier la copie de la copie copiée. Peut-être parce qu’on a pas de fournisseur de réseau social qui soit intéressé aussi à vendre du stockage cloud. Ça aurait pu être une évolution de Google+ et Google Photos par exemple.

On travaille bien sur des « hash » de signature (C2PA), mais ça n’a pas forcément les mêmes avantages. Pour supprimer un contenu, il faudrait scanner le web à la recherche de la signature…

Neferith

Je dis pas que sur le papier y a pas une bonne idée. Mais je pense que le problème c’est surtout déjà se poser la question de l’origine de la source. Et là malheureusement, une attestation de véracité ne suffira pas. C’est déjà un reflexe qu’il faut prendre. On se fait d’ailleurs tous berner à un moment ou à un autre (certains plus souvent que d’autres), mais c’est bien d’avoir le reflexe de juste de se poser la question : est ce que c’est vrai ?

MisterDams

Sauf que même quand on se pose la question, ça devient de plus en plus « comment puis-je savoir si c’est vrai ? », et le seul moyen c’est de pouvoir remonter facilement à la source.

Quand je vois par exemple les cas qu’on a eu avec des photos dramatiques d’explosion qui sont authentiques mais utilisées complètement hors de leur contexte (genre l’explosion a bien eu lieue, mais c’était il y a 10 ans et dans un autre pays). Avoir une philosophie quasi permanente de garder le lien avec le fichier d’origine, ça a une vraie pertinence justement. Et ça peut aussi aider les futures IA qui vont scruter le web à nos côtés pour nous alerter sur les fakes news justement.