ChatGPT va cacher une signature dans les contenus créés par l'IA pour les différencier de ceux des humains

Mallory Delicourt
Publié le 04 janvier 2023 à 14h45
© Les Échos
© Les Échos

OpenAI, l'organisme derrière le populaire ChatGPT, a entrepris de développer un outil permettant de discrètement signer le contenu généré par l'IA. Un prototype serait d'ailleurs déjà fonctionnel.

Cette signature propre à l'intelligence artificielle ChatGPT pourrait permettre de détecter la triche à un examen ou du contenu malveillant crédible, mais qui génère encore des doutes.

Différencier l'humain de la machine, un enjeu majeur

Lancé en décembre 2022 par OpenAI, ChatGPT est loin d'être passé inaperçu. Capable de générer du texte à partir de nombreuses questions et d'adapter le tout instantanément, il a fait l'objet d'une attention toute particulière. On peut lui demander à peu près n'importe quoi, même d'écrire une dissertation avec un style donné ou de débusquer une erreur dans du code. L'outil reste néanmoins perfectible, et il faut prendre les résultats avec précaution.

Cependant, ChatGPT est suffisamment avancé pour occasionner des craintes en ce qui concerne la génération de contenus malveillants ou l'origine réelle des textes produits. Une appréhension partagée par les universités qui craignent particulièrement la triche.

OpenAI cherche donc des solutions pour qu'il soit possible d'identifier un contenu produit part ChatGPT, avec de discrets marqueurs. Scott Aaronson, actuellement chercheur invité chez OpenAI, a indiqué que l'entreprise travaillait sur l'intégration d'un « signal secret imperceptible ». Un prototype fonctionnel est déjà prêt, avec l'objectif d'éviter que du contenu généré ne soit considéré comme une création humaine.

« Cela pourrait être utile pour prévenir le plagiat universitaire, évidemment, mais aussi, par exemple, la génération massive de propagande - vous savez, spammer chaque blog avec des commentaires apparemment sur le sujet soutenant l'invasion de l'Ukraine par la Russie sans même un bâtiment plein de trolls à Moscou. Ou utiliser le style d'écriture de quelqu'un afin de l'incriminer », explique le chercheur.

Des mesures insuffisantes ?

Doté d'une approche crytographique, l'outil que souhaite proposer OpenAI aurait également des limites. Scott Aaronson a refusé d'en dire plus, et OpenAI s'est contentée de révéler que ce filigrane faisait partie d'un faisceau de solutions à l'étude permettant d'identifier un contenu généré par ChatGPT ou d'autres générateurs de texte. On reste donc un peu dans le flou, mais plusieurs universitaires et experts ont émis des doutes. Tout d'abord, en étant localisé sur les serveurs, l'outil pourrait ne pas fonctionner partout. De plus, il serait encore assez aisé de contourner la détection, avec des synonymes par exemple.

De son côté, Jack Hessel, chercheur à l'Allen Institute for AI, estime qu'un marqueur trop évident pourrait dégrader le contenu, tandis qu'un trop discret laisserait trop de place au doute lors de l'authentification. Il estime aussi que seul OpenAI pourrait être capable de fournir un outil de détection précis pour ChatGPT, là où l'indépendance serait de mise. Autrement dit, une empreinte trop discrète pourrait tromper l'observateur.

Chez AI21 Labs, concurrent d'OpenAI, on prône l'utilisation de plusieurs filigranes, liés à différentes parties des textes, associée à une mise en avant des sources. Quoi qu'il en soit, la traçabilité et la qualité des contenus générés sont de vrais enjeux pour les mois et années à venir.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Techcrunch

Par Mallory Delicourt

Historien finalement tombé dans le jeu vidéo, je me passionne pour ces deux domaines ainsi que pour l'espace, les sciences en général, la technologie et le sport. Streameur en pointillé, j'ai tellement de jeux à faire que j'ai dû créer un tableur. Rédacteur newseur depuis 6 ans, j'aime faire vivre l'actualité aux lecteurs.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Sodium

Il suffira donc de reformuler le propos, je n’ai pas l’impression que ça résolve grand-chose, c’est ce qu’on faisait avec Wikipedia lorsque j’étais au lycée…

Bombing_Basta

Euuu, et ça va signer un texte recopié à la main, genre dissert, comment ?

jvachez

En même temps un devoir universitaire c’est forcément du plagiat ou de la reformulation suivant comment on voit les choses. Rien n’est inventé par l’étudiant sinon il serait plus intelligent que son prof.

dredd

Ça va être compliqué.

Mais je dois avouer que pour l’avoir tâter un peu depuis quelques semaines, ça m’a l’air d’être un formidable outil avec plein d’applications concrètes me concernant. Ça va accélérer beaucoup de chose dans mon boulot de tous les jours, watermark ou pas.

dredd

Des algos qui vont repérer des morceaux de phrases, des répétitions, des synonymes et des constructions placées là volontairement sans dénaturer le résultat mais qui seront trouvable par les outils d’analyse. Un peu comme des bouts d’ADN.

TonTonFomoso

Bon la signature se contourne facilement il suffit de réécrire

se qui est triste c’est pour les lettre de motivation soyons honnête personne n’est motiver a a faire une lettre de motivation pour un emploie
dans des situation bien triste ChatGpt apporte une grande aide

Bombing_Basta

Pas sûr que les profs perdent leur temps à numériser des copies pour les faire mouliner dans un soft d’analyse m’enfin bon…

fredolabecane

Moi je trouve que cette technologie fout les jetons, j’ai l’impression que Skynet est là avant l’heure, donnez du pouvoir a ce genre de chose et Asimov pourra aller se rhabiller.

dredd

C’est pas vraiment les devoirs de lycéens qu’il ont en tête je pense :smiley:

Plus les thésards, les scientifiques, les auteurs de livres etc.

bennukem

Étape suivante, ils vont ensuite faire un site pour faire les vérifications et évidemment payantes