Stable Diffusion se met à jour... et empêche de générer des contenus dits "adultes"

Mathilde Rochefort
Publié le 28 novembre 2022 à 12h00
© Shutterstock
© Shutterstock

Stability AI, entreprise qui finance et diffuse l’IA de génération d’images Stable Diffusion, a annoncé la mise à jour de cette dernière qui est passée en V2. Parmi les nouveautés, on retrouve l’impossibilité de générer du contenu pour adulte, au grand dam de certains utilisateurs…

Plus tôt cette année, les créateurs de Stable Diffusion regrettaient que leur plateforme soit utilisée pour générer de la pornographie, ils ont donc décidé d’y remédier.

Une décision contestée

En effet, l’intelligence artificielle a notamment permis à certains utilisateurs de créer des images pornographiques ressemblant à de véritables personnes, ainsi que des visuels pédopornographiques. Pour éviter que cela ne se reproduise, les images pornographiques ou nues ont tout bonnement été retirées des données qui permettent d’entraîner l’intelligence artificielle.

Or, contrairement à sa rivale Dall-E, Stable Diffusion est un modèle open source permettant à des personnes d’améliorer l’outil et aux développeurs de l'intégrer gratuitement dans leurs produits. Or, la nature ouverte de l’IA constitue un argument pour critiquer la décision de bannir les contenus pour adultes selon certains utilisateurs. Sur Reddit, un internaute a déclaré que cette décision était de la « censure » et allait « à l'encontre de la philosophie de la communauté open source ».

Pour l’heure, il est difficile de savoir si les filtres ajoutés à Stable Diffusion pour éviter la production de contenu pornographique seront efficaces ; comme le rappelle un autre utilisateur, le fait que l’IA soit open source signifie que les données sur lesquelles elle s’entraîne peuvent facilement être modifiées dans ses versions tierces.

Stable Diffusion s’attaque aussi aux problèmes de violation des droits d’auteur

À travers sa mise à jour, Stable Diffusion a également décidé de s’attaquer à un second problème de taille posé par les IA génératrices d’images : la violation des droits d’auteur. Les images qui ressemblent trop à l’œuvre de certains artistes sont désormais « ringardisées » afin de ne plus pouvoir être apparentées au style de ces derniers. C’est par exemple le cas de l’artiste numérique Greg Rutkowski, souvent utilisé en tant que source d’inspiration par les utilisateurs de cette technologie. Par le passé, Rutkowski a critiqué l’usage de ces intelligences artificielles, à l’instar de plusieurs communautés artistiques en ligne qui combattent leur démocratisation.

La V2 de Stable Diffusion amène bien entendu des améliorations, notamment une qualité accrue des images générées par la V1, ainsi que des fonctionnalités plus poussées en général. Le logiciel peut par exemple produire du contenu correspondant à la profondeur d'une image existante tout en étant bien différent de celle-ci.

Sources : Engadget, The Verge

Mathilde Rochefort
Par Mathilde Rochefort

Avide de nouvelles technologies et particulièrement férue de la marque à la pomme, j’en fais mon métier depuis près d’une décennie. Réseaux sociaux, IA et autres applications… Je partage mon expertise quotidiennement sur le World Wide Web.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
gothax

La pedopornographie tombe sous le coup de la loi et est interdit
La pornographie n’est pas interdite

Que des crétins fassent des images pedopornographiques ils doivent tomber sous le coup de la loi point
Pour le reste si modification du code alors il n’est plus open-source

A cause de crétins on a des restrictions dans tous les domaines. Bientôt on brûlera des livres d’anatomie ou des oeuvre d’art car on voit un sein

gemini7

@gothax

D’accord avec toi, chez moi, à Bruxelles, orange diffuse deux chaînes porno, une de soft porn, Penthouse Passion et une de hard porn, Penthouse Gold, bref, pas besoin d’internet pour le porn, et en plus c’est gratuit.

Kriz4liD

Oui mais si tu cherches un truc bien spécifique ?
On a tout ce qu’il faut diffusé à la tv, avec ta logique on a pas besoin de Netflix ou de Disney plus ou de Amazon !

PirBip

Désolée d’avance du pinaillage mais là c’est trop grave.

Ce qui caractérise un code open-source n’est absolument pas ce qui est modifié dans la source ou non mais son caractère accessible. Une modification du code source n’est certainement pas sujette à en vider sa substance open-source, au contraire. Rien n’empêche les personnes opposées à ces développements d’aller récupérer le code, dans sa version V2, d’en faire un fork et d’y retirer les paramètres qui les gênent.

Mieux que ça, le code est sous licence MIT, diffusé sur GitHub, donc il y a moyen d’analyser les branches et de faire des revert et des stashs des différentes modifications qu’on ne veut plus inclure.

Wen84

« Pour le reste si modification du code alors il n’est plus open-source » => Euh… Hein ?

gemini7

Ce n’est pas de la logique, je dis juste que j’ai du porno gratos, si tu cherches un truc « Gay », du fétichisme spécial ou du SM ou autre, là oui, il te faudra chercher sur internet.
Je n’ai pas dit, regarder Orange, vous faites tout ce que vous voulez.
Moi, je me contente de ce qui a sur ces chaînes, hétéro, donc c’est bon. :smiling_face:
Le plaisir seul compte.

Blap

Est ce vraiment de la pedo-pornograhie si les sujets n’existent pas et sont une construction numérique ?
Ce genre de contenus virtuels a la maison permettraient de protéger des enfants justement victimes de personnes faisant réellement ce genre de contenus habituellement.
Le problème de la diffusion reste par contre.

C’est peut-être dérangeant de penser comme ca mais ca existe et ce n’est pas en interdisant que quelque chose comme ca disparait, et leur aide et suivi psychologique est très important.

Martin_Penwald

Ouuuh ! Cachez ce sein que je ne saurais voir !

Martin_Penwald

Oui, selon la loi française, il est interdit de dessiner des scènes pédopornographiques, et ce même si aucun sujet n’a servi au dessin. Personnellement, à la base, je m’en fous, mais ça pose une question : pourquoi est-ce interdit si personne n’en souffre ? Parce que représenter un meurtre ou un viol d’adulte, qui sont également des crimes, n’est pas interdit.

Si c’est pour éviter d’inciter des criminels à passer à l’acte, pourquoi autoriser la représentation des crimes précités ?

Je me demande si il y a une étude qui lie la disponibilité d’œuvres pédopornagraphiques aux crimes sexuels contre les enfants.

À ma connaissance, au Japon, ce n’est pas interdit de représenter des scènes pédopornographiques, ce qui a valu à des importateurs quelques problèmes il me semble.

gothax

Pour le côté open source je me suis mal exprimé pardon : si les créateurs bloquent une partie du code pour ne pas faire telle ou telle chose alors cette partie du code sort de l’Open Source.
Si j’ai bien compris alors la v2 serait bloquée pour empêcher la génération de photos pour adulte ; soit il laisse le code en open source et un fork est possible soit il l’enlève de l’Open source car du code est bloqué.
Non?