Après l'art, l'IA Stable Diffusion fait maintenant dans le porno

11 octobre 2022 à 17h10
15
© Shutterstock
© Shutterstock

C'était l'une des craintes principales des créateurs de Stable Diffusion. C'est désormais une réalité : l'IA de la plateforme sert désormais à générer du contenu pornographique.

De fait, la cause provient de la disponibilité d'une version open-source de Stable Diffusion, mise en ligne… par les créateurs du projet.

Stable Diffusion n'échappe pas à la règle 34…

Si vous n'avez pas (encore) entendu parler de Stable Diffusion, vous pourriez bien vous laisser tenter par la possibilité de générer une création artistique sans avoir à manipuler un appareil photo ni un pinceau. Si, à l'instar de Dall-E ou de Midjourney, de nombreux filtres empêchent de créer du contenu pornographique par le biais de la version standard de Stable Diffusion, les choses sont différentes avec la version open-source.

Accessible à tous depuis le 22 août dernier, cette dernière ne fait pas les affaires des créateurs de Stable Diffusion. Ils ont ainsi publié plusieurs messages d'avertissement, notamment par le biais de Twitter, pour inviter les internautes à ne pas générer d'images à caractère pornographique.

Or, tout comme le rappelle (tristement) L'ADN à propos de la « règle 34 d'Internet » : « Si quelque chose existe, il en existe une version porno. Sans exception. » Ainsi, de nombreuses personnes se sont empressées d'employer la version open-source de Stable Diffusion pour parvenir à leurs fins les plus coquines. Les possibilités de créations porno proviennent notamment de Large-scale Artificial Intelligence Open Network (LAION), une organisation à but non lucratif qui porte sur l'intelligence artificielle et qui détient dans sa base de données open-source 5B pas moins de 5,6 milliards d'images collectées sur Internet.

Des risques majeurs de dérive

Or, les créateurs de Stable Diffusion ont entraîné l'IA de leur suite avec LAION 5B, tout en ayant conscience de la présence de nombreuses images indécentes dans la base de données. En conséquence, l'échantillon d'images a été réduit à seulement 120 millions de contenus, et une IA a été entraînée pour noter les images de manière à éliminer au maximum celles à caractère pornographique. Hélas, cela n'a pas empêché malgré tout les internautes de créer du contenu plus ou moins coquin, et d'ouvrir la voie à deux dérives majeures.

La première concerne le « deepfake », à savoir le fait de générer par l'IA une image fausse… qui a tout d'une vraie. Le problème ici concerne surtout les célébrités, avec des deepfakes qui permettent de créer du faux contenu porno en employant leur image. Même si le serveur Discord Unstable Diffusion, sur lequel les internautes diffusent les contenus créés à partir de la version open-source de Stable Diffusion, prohibe ces contenus, on en trouve de nombreux sur 4Chan, Reddit et d'autres plateformes. Il vous suffit de taper « Stable Diffusion Porn » dans Google Images pour trouver pas moins de 5 détournements de l'actrice britannique Emma Watson dans les 30 premiers résultats de recherche…

La seconde dérive est celle de la pédopornographie. Si ces contenus sont également bannis du serveur Discord, l'existence de « prompts », des textes employés pour aider l'IA à générer l'image désirée, peut permettre d'en créer. Déjà décrié dans de nombreux milieux artistiques, le fait de générer des images par le biais de l'IA ne va pas faire que des émules avec de telles nouvelles.

Sources : L'ADN, Le Big Data

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (15)

Arthur_12
Aie, cela dérive vraiment dans la mauvaise direction quand cela sert aux pédocriminels…
gamez
l’article ne parle pas du tout des pédophiles…
Droz
Ils ont juste inventé le pinceau auto censuré avec ces IA.<br /> Le contraire de l’art et de la liberté.
Wen84
Bah après perso, justement pour tester, je me souviens avoir juste tapé « s*x » en trois lettres, ce qui n’est pas un mot forcement pornographique et ça m’a généré une image porno. Alors oui, j’ai cherché la petite bete… mais j’insiste c’est pas un mot forcement lié au porno xD<br /> Pour moi ce genre d’outils ne doit pas etre mis entre toutes les mains, notamment pas les enfants
kroman
Du p0rn avec des monstres à 3 jambes ?<br /> Pour avoir testé, ces IA ont l’air incapables de faire des rendus photoréalistes d’humains (corps complet). Il y a toujours un truc difforme.
crush56
L’article parle bien de pédopornographie
GRITI
IMG_20221011_2034341080×389 116 KB<br />
gamez
oui mais pas des pédophiles
gamez
oui et…?
crush56
Ah effectivement la pédopornographie et les pédophiles n’ont STRICTEMENT aucun rapport<br /> Mauvaise foi quand tu nous tiens …
Keepah
A quand les android comme ghost in the shell, on s’en fout de ce bordel, moi je pensais en 2022 on aurait de la vraie tech, je suis sur le même écran plan 2d qu’il y a 25 ans, la loose.
_Troll
L’AI va simplifier la vie des actrices de film de serie x mais aussi prendre leur travail. J’ai lu qu’une actrice pourtant hautement specialisee dans le domaine avait du s’entrainer six mois pour realiser le film ‹ Gorge profonde › de 1972 sans s’etouffer.
GRITI
_Troll:<br /> J’ai lu qu’une actrice pourtant hautement specialisee dans le domaine avait du s’entrainer six mois pour realiser le film ‹ Gorge profonde › de 1972 sans s’etouffer.<br /> «Chaque fois que quelqu’un regarde ce film, il me voit en train d’être violée», expliquait l’actrice en 1986, arguant qu’elle avait tourné Gorge Profonde contre son gré, après que son mari l’avait initiée aux drogues et hypnotisée pour «augmenter son appetit sexuel et ses performances» comme le rapportait en mars 2012 le Daily Mail.<br /> source
dancod
Elle a surtout essayé de se racheter une virginité après avoir rejoint une secte ultra-conservatrice.<br /> Mais le doute reste permis, c’est vrai…
dancod
Je résonne peut-être un peu « out of the box », mais si cela permet aux pédophiles d’avoir leur dose de pédo-pornographie sans qu’aucun enfant ne soit impliqué, c’est peut-être une pas une si mauvaise chose?
GRITI
Euh c’est vraiment à moi que tu voulais faire cette réponse?
crush56
Ha non désolé je me suis trompé, c’était pour « gamez «
Voir tous les messages sur le forum