OpenAI va ajouter un filigrane permettant d'identifier les images générées par Dall-E 3

07 février 2024 à 13h21
3
OpenAI applique la norme promue par plusieurs acteurs de l'industrie. © Vitor Miranda / Shutterstock
OpenAI applique la norme promue par plusieurs acteurs de l'industrie. © Vitor Miranda / Shutterstock

À son tour, OpenAI annonce une mesure pour permettre aux plateformes et internautes de mieux identifier les visuels générés par l'intelligence artificielle (IA). Un enjeu primordial, alors que des élections majeures seront organisées dans plusieurs pays en 2024.

Les générateurs d'images produisent des visuels de plus en plus réalistes, faisant craindre une forte hausse de la propagation de fausses informations. Joe Biden pointait du doigt l'importance d'identifier les contenus générés par l'IA dans un décret portant sur la technologie en octobre dernier. Face à ce défi, plusieurs acteurs majeurs comme Adobe, Microsoft et plus récemment Meta appellent à l'adoption de la norme C2PA. Cette dernière permet aux éditeurs d'intégrer des métadonnées dans les médias afin de vérifier leur origine et les informations qui s'y rapportent.

La norme C2PA appliquée aux images générées par Dall-E 3.

OpenAI a décidé de l'adopter dans son IA Dall-E 3. Dès le 12 février prochain, les filigranes C2PA apparaîtront dans les images générées via ChatGPT ainsi que dans l'API du générateur d'œuvres d'art. Ils comprendront à la fois des métadonnées invisibles et un symbole CR, qui s'affichera dans le coin supérieur gauche de chaque image.

L'ajout du filigrane aura un « effet négligeable sur la latence et n'affectera pas la qualité de la génération d'images », assure la start-up. Grâce à ce standard, les grandes plateformes en ligne seront en mesure d'identifier les fichiers générés par l'IA, afin de l'indiquer aux utilisateurs.

Malheureusement, cette technologie présente encore des limites, les filigranes pouvant être effacés assez simplement, par une simple capture d'écran par exemple. « Nous pensons que l'adoption de ces méthodes d'établissement de la provenance et l'encouragement des utilisateurs à reconnaître ces signaux sont essentiels pour accroître la fiabilité de l'information numérique », indique tout de même OpenAI.

Une image photoréaliste générée par Dall-E 3.
Une image photoréaliste générée par Dall-E 3.

Un défi majeur

L'initiative d'OpenAI intervient après une annonce similaire de la part de Meta. Le réseau social a en outre indiqué que des mentions seraient ajoutées aux images générées par l'IA sur l'ensemble de ses réseaux sociaux.

De nombreux défis subsistent pour empêcher l'exploitation malveillante de ce type de contenu, la tâche s'avérant bien plus complexe lorsqu'il s'agit de fichiers audio ou vidéo. Des deepfakes audio sont d'ores et déjà utilisés aux États-Unis pour influencer les électeurs des primaires démocrates.

En collaborant, les acteurs majeurs du secteur espèrent aborder le problème plus efficacement. Plusieurs pays dont l'Inde, l'Indonésie et les États-Unis se rendront aux urnes cette année.

L'émergence de l'intelligence artificielle comme outil grand public a ouvert de nombreuses possibilités pour tous les producteurs de contenus. Texte, image, son… Cette nouvelle technologie à la mode peut maintenant apporter son assistance dans de très nombreux domaines, et faciliter le travail dans les étapes les plus ingrates de la création. Et avec une offre qui ne cesse de s'accroître, il est important de distinguer quels outils apportent une véritable valeur ajoutée. Histoire de ne pas perdre des heures à essayer tout ce que proposent les pages de résultats de Google !
Lire la suite

Sources : OpenAI, The Verge

Mathilde Rochefort

Après mes études de journalisme, j’ai décidé de m’orienter vers les domaines qui me passionnent : nouvelles technologies, jeu vidéo, ou encore astronomie. J’adore partager autour de ces sujets mais ma...

Lire d'autres articles

Après mes études de journalisme, j’ai décidé de m’orienter vers les domaines qui me passionnent : nouvelles technologies, jeu vidéo, ou encore astronomie. J’adore partager autour de ces sujets mais ma curiosité m’entraîne à évoquer de nombreux autres sujets au travers de mes articles.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (3)

SlashDot2k19
les filigranes pouvant être effacés assez simplement, par une simple capture d’écran par exemple<br /> Leur filigranes c’est seulement pour qu’ils se couvrent d’éventuelles poursuites judiciaires
Stellvia
Foutage de gueule puissance 10 000.<br /> Le filigrame qui fait chier tous les utilisateurs legit, mais par contre celui qui veut fake news va juste recadrer. Quand à l’autre filigrame invisible il y aura des logiciels pour l’effacer.<br /> Une belle solution de merde en bref, bravo, vraiment.
helina
Et inversement, on arrivera à mettre un filigrane (watermark) sur une vraie image pour dire que c’est un fake … Le serpent qui se mord la queue… De toute manière on sera tous manipulé au final. Il faut juste regarder qui contrôle le média
Voir tous les messages sur le forum
Haut de page

Sur le même sujet