🔴 French Days en direct 🔴 French Days en direct

L'Union Européenne va criminaliser les deepfakes pornographiques

07 février 2024 à 16h19
12
© Getty Images
© Getty Images

L'Union Européenne s'empare du dossier des deepfakes pornographiques. Et tous ceux produits dans l'idée de harceler ou de blesser une personne seront à l'avenir criminalisés.

L'affaire des deepfakes pornographiques de Taylor Swift, qui ont eu un retentissement mondial, et qui ont même entraîné la mise en place de mesures d'urgence sur X.com, a illustré les dangers des images pornographiques générées par IA. Cette technologie peut en effet être très facilement utilisée pour humilier ou harceler une personne, en imitant ses moments les plus intimes. Raison pour laquelle Bruxelles a décidé qu'il ne fallait plus à l'avenir laisser impuni ce genre d'initiatives.

Bruxelles veut sévir

À côté de tous ses apports, l'IA générative pose aussi un certain nombre de problèmes. Elle peut notamment être utilisée pour facilement produire des images dégradantes, et ce, à l'aide d'outils peu chers et faciles d'utilisation. C'est en prenant en compte cet aspect que l'Union Européenne a décidé d'intégrer des mesures de contrôle et de criminalisation dans son projet de directive destinée à combattre la violence domestique et les différentes formes de violences faites aux femmes.

Seront ainsi à l'avenir rendus illégaux les deepfakes pornographiques non sollicités par la personne éventuellement représentée. Il faut dire qu'au-delà de Taylor Swift, de nombreuses personnalités publiques se sont déjà plaintes de ce genre de production, sans compter le nombre inconnu de particuliers aussi victimes de la technologie.

Certaines choses seront interdites à l'avenir © Shutterstock.com
Certaines choses seront interdites à l'avenir © Shutterstock.com

Aider les victimes de l'UE sans voie légale

Avec ce nouveau cadre légal, la notion de revenge porn pourrait ainsi changer. Une personne pourra être condamnée pour cette infraction, même si elle ne publie pas un contenu sexuel véritable, mais une simple représentation obtenue grâce à l'IA.

La directive criminalise par ailleurs d'autres atteintes comme le cyberharcèlement, le cyber-stalking, les propos de haine misogynes ou l'envoi non consenti de « nudes ». L'objectif de Bruxelles est d'offrir une possibilité de recours légal aux personnes vivant dans des pays de l'Union où ces atteintes ne sont pas punies par le droit pénal. « Il s'agit d'une question urgente, étant donné la propagation exponentielle et l'impact dramatique de la violence en ligne » a indiqué la Commission européenne dans son annonce.

Source : Engadget

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (12)

dredd
Quid de la criminalisation des Deeffakes de vraies actrices porno qui vont pas tarder à nous arnaquer en collant leur tronche sur des actrices sous payées qui ferront les films à leur place ? Je veux que l’U.E. s’attaque à ce grave danger en priorité !
Proutie66
Tu as raison. On ne parle pas assez des vrais sujets.
Cynian90
On entre clairement dans un nouveau monde, espérons que les jeunes se lasseront vite de ces deepfakes et qu’une fille pourra simplement réagir avec un « haha très drôle. ». Autrement c’est la porte ouverte aux traumatismes en tous genres pour les plus vulnérables.
Goodbye
Oui aujourd’hui on entend parler des deepfakes sur une femme, mais je connais un cas dans mon cercle d’amis qui est un homme, et je vous laisse imaginer les photos de lui qui ont été publiées…<br /> Je ne vois pas trop comment ils vont bloquer cela, y’a tellement d’outil et c’est tellement simple, mais c’est une bonne chose d’avoir une base légale pour les victimes.<br /> Non ça ne sera jamais drole, les gens vont prendre conscience petit à petit que c’est très grave et ça va se calmer j’imagine.
MattS32
Goodbye:<br /> Non ça ne sera jamais drole, les gens vont prendre conscience petit à petit que c’est très grave et ça va se calmer j’imagine.<br /> Il faudra sans doute quelques condamnations avant que ça se calme du côté des deepfakes pornos, mais tu as raison, ça finira sans doute par se calmer.<br /> Mais il y a autrement plus grave, et contre quoi il va être extrêmement difficile de lutter, vu que les intérêts en jeu sont énormes : les deepfakes politiques…
gnouman
Si ce genre d’article t’amuse je crois que qu’il a effectivement un vrai problème dans notre société.
Palou
L’UE va aussi criminaliser les sextapes qu’il y a au Sénat ?
gothax
@MattS32 : tu parles de Benjamin Griveaux ???
Belgarath
C’est marrant, jusqu’à maintenant, je n’avais jamais entendu parler de Taylor Swift, alors encore moins de ses productions. Je ne savais même pas qu’elle existait. Depuis 15 jours, je n’entends parler que d’elle, je vois sa tête partout, et à toutes les sauces.
Mel92
Cette nouvelle me choque :<br /> je ne vois pas en quoi les deepfake porno, qui ne sont que des photomontages, posent le moindre problème si ce n’est celui de la diffusion anarchique d’images pornographiques dans l’espace public<br /> je ne vois pas en quoi il est dans la compétence de l’Europe de légiférer sur le sujet car on est très très loin de la libre circulation des personnes et des biens.<br />
MattS32
Mel92:<br /> je ne vois pas en quoi les deepfake porno, qui ne sont que des photomontages, posent le moindre problème si ce n’est celui de la diffusion anarchique d’images pornographiques dans l’espace public<br /> Fondamentalement, c’est interdit de diffuser l’image de quelqu’un sans son accord. Donc la diffusion de n’importe quel deepfake est de base illégale.<br /> Ensuite, ces deepfakes pornos, ça peut donner une image dégradante de la personne qui est dessus. Parce que ça peut être diffusé en faisant croire que c’est vraiment la personne, sans dire que c’est un montage. Ça peut réellement ruiner la vie de quelqu’un, jusqu’au suicide parfois.<br /> Mel92:<br /> car on est très très loin de la libre circulation des personnes et des biens<br /> La compétence de l’UE ne se limite pas à ça.
vinicss
Lorsque tu verras un jour ton propre visage sur des scènes dégradantes sans qu’on arrive a différencier le vrai du faux et qu’en faisant une recherche sur ton nom, on tombera sur ce genre de video, tu commenceras peut être à comprendre le problème.
Mel92
Ce qui me gène profondément c’est que ma bobine se retrouve sur Internet, mais si tu la trouve et que tu veux en faire une version porno ou autre, fais toi plaisir. Si quelqu’un pense que j’ai approuvé cette image, c’est que c’est un imbécile plus ou moins pervers, et donc je me moque totalement ce qu’il peut imaginer. Si ça peut l’aider à se faire du bien, ma foi qu’il en profite; ça ne me regarde pas.<br /> vinicss:<br /> sans qu’on arrive a différencier le vrai du faux<br /> C’est une remarque juste : en réalité je ne connais aucune des personnes qui pourraient se faire « deepfaker » et cela n’a donc aucune importance. Par exemple, je ne connais pas Taylor Swift (puisque je suppose qu’elle est à l’origine de cette loi). Et en y pensant bien, je me dis que je n’ai même aucun moyen de savoir si elle exprime une personne réelle où s’il s’agit d’une actrice qui joue un rôle dicté par d’habiles scénaristes et producteurs. Pire même, je ne suis même pas certain que la fille qui s’appelle Taylor Swift et que je peux voir sur mon écran n’est pas physiquement profondément modifiée pour plaire au plus grand nombre. Dans le doute, je dirais que l’intégralité de ce qui m’est présenté de cette personne est faux. Aussi faux qu’un personnage de dessin animé. De mon point de vue, un deepfake de Taylor Swift, c’est comme un deepfake de Blanche Neige. Ça va faire l’objet d’une loi ça aussi ?
Mel92
MattS32:<br /> Ça peut réellement ruiner la vie de quelqu’un, jusqu’au suicide parfois.<br /> À ma connaissance, aucun deepfake n’a jamais ruiné la vie de personne. Ça n’a même pas gêné la carrière, au contraire même. Mais si tu as un exemple ?
MattS32
Il y a des cas de suicides suite à du revenge porn.<br /> Alors oui, c’est pas exactement la même chose, mais le deepfake porno, ça peut très vite devenir un moyen de faire du revenge porn sans même avoir de photos intimes de la victime à la base.<br /> Mel92:<br /> Ce qui me gène profondément c’est que ma bobine se retrouve sur Internet, mais si tu la trouve et que tu veux en faire une version porno ou autre, fais toi plaisir. Si quelqu’un pense que j’ai approuvé cette image, c’est que c’est un imbécile plus ou moins pervers, et donc je me moque totalement ce qu’il peut imaginer. Si ça peut l’aider à se faire du bien, ma foi qu’il en profite; ça ne me regarde pas.<br /> Imagine qu’un de tes voisins t’en veuille pour une raison ou pour une autre, et fasse un deepfake de toi en plein acte pédophile ou zoophile et la colle partout dans ton immeuble et dans ton quartier. Vraiment, ça ne te regarderai pas ? Ça ne te dérangerai pas ? Ça n’aurait pas d’impact délétère sur ta vie quotidienne ?
Mel92
MattS32:<br /> Imagine qu’un de tes voisins t’en veuille pour une raison ou pour une autre, et fasse un deepfake de toi en plein acte pédophile ou zoophile et la colle partout dans ton immeuble et dans ton quartier. Vraiment, ça ne te regarderai pas ?<br /> Tu changes de sujet placarder un deepfake pédophile dans mon quartier, c’est comme lancer une rumeur particulièrement malveillante. Et bien sûr que ça me gênerais. Mais ce n’est pas lié au fait que c’est une image, une feuille placardée sur tous les réverbères de mon quartier qui décriraient textuellement mes supposées turpitudes serait tout aussi insupportable.<br /> Par contre, mettre ma tête sur le corps de Rocco en pleine action, bof, rien à faire si ce n’est que j’aime pas l’idée de voir ma tête affichée partout (au contraire des personnes qui se disent victimes de deepfake et dont l’affichage de la bobine fait le fond de commerce). Et la seule personne qui pourrait être touchée par ce genre de photo, n’y croirait pas une seconde. Elle rigolerait même bien en les voyant (ce qui en soit est effectivement un peu gênant).<br /> Si je résume : la dénonciation calomnieuse, c’est mal. Le deepfake porno, non, sinon bien sûr les problèmes liés à l’affichage de d’images à caractère sexuel dans l’espace public.
MattS32
Mel92:<br /> une feuille placardée sur tous les réverbères de mon quartier qui décriraient textuellement mes supposées turpitudes serait tout aussi insupportable.<br /> Non, un deepfake, c’est bien pire. Parce que ça fait réel… Comme si c’était une preuve. Donc beaucoup plus de gens vont y croire que si c’est un simple mot.<br /> Tiens, pour citer un cas réel, tu crois que la carrière de Griveau aurait autant été dégommée si une illustre inconnue qui n’a jamais été vue avec lui avait juste dit qu’il a eu une relation extraconjugale avec elle, sans apporter la moindre preuve ? Ça n’aurait clairement pas eu le même impact.<br /> Avec le deepfake, on peut monter une telle affaire en version avec «&nbsp;preuve&nbsp;»…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet