OpenAI affirme que le New York Times aurait "hacké" ChatGPT !

28 février 2024 à 13h22
8
© T. Schneider / Shutterstock.com
© T. Schneider / Shutterstock.com

La guerre entre le New York Times et OpenAI continue. Et cette fois, c'est au tour de la firme de Sam Altman de mettre son adversaire en accusation.

Le New York Times fait partie des premiers journaux à avoir donné l'alerte quant à l'utilisation en masse des articles de journaux par OpenAI pour alimenter ChatGPT. Depuis cet été, les relations entre l'institution new-yorkaise et OpenAI sont ainsi devenues exécrables, au point que l'accès aux données du journal a été bloqué pour ChatGPT, puis, quelques mois plus tard, qu'une action en justice a été intentée par le journal américain contre OpenAI. Et aujourd'hui, cette dernière contre-attaque.

Le New York Times aurait engagé une personne pour « hacker » ChatGPT

Qu'on se le dise, la plainte du New York Times contre OpenAI est sans fondements. Et la raison est simple, selon une motion déposée auprès d'une cour fédérale de Manhattan par la société de Sam Altman. « La vérité, qui sera révélée au cours de cette affaire, est que le Times a payé quelqu'un pour hacker les produits d'OpenAI » est-il indiqué dans le document juridique.

Pour l'entreprise à l'origine de ChatGPT, le New York Times aurait engagé une personne particulièrement versée dans la technologie IA. Celle-ci aurait ensuite mis au point « des prompts trompeurs qui violent de manière flagrante les conditions d'utilisation d'OpenAI » afin d'obtenir une régurgitation d'articles du New York Times par ChatGPT.

© Alexandre Boero pour Clubic
© Alexandre Boero pour Clubic

Le terme hack fait polémique

Une défense assez originale, que ne semble pas prendre au sérieux le conseil du journal new-yorkais. « Ce qu'OpenAI qualifie bizarrement à tort de "hacking" consiste simplement à utiliser les produits d'OpenAI pour rechercher des preuves qu'ils ont volé et reproduit le travail protégé par le droit d'auteur du Times » explique ainsi l'avocat Ian Crosby.

De nombreuses personnes et entités ont, en 2023, annoncé leur intention d'attaquer OpenAI en justice pour violation des droits d'auteurs. Pour celles-ci, la société aurait utilisé indûment leur travail afin d'alimenter ChatGPT, et lui permettre d'atteindre le niveau d'efficacité que l'on connaît actuellement. Le problème est devenu tel qu'OpenAI s'est mis au début de l'année à contacter des éditeurs pour obtenir légalement le droit d'utiliser leur travail, moyennant finance.

Source : Reuters

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

dredd
«&nbsp;OpenAI aurait engagé une personne pour «<br /> hacker » ChatGPT&nbsp;»<br /> Vivement la relecture par ChatGPT ?
kast_or
Si je peux me permettre, l’article n’est pas super bien rédigé.<br /> On comprend pas trop «&nbsp;qui fait quoi&nbsp;» dans l’histoire.<br /> Entre le « OpenAI aurait engagé une personne pour «<br /> hacker » ChatGPT » et le «&nbsp;Qu’on se le dise, la plainte du New York Times contre OpenAI est sans fondements.&nbsp;», on a un peu du mal à suivre.
Samir.R
Coquille corrigée, merci de l’avoir noté
Bombing_Basta
Celle-ci aurait ensuite mis au point « des prompts trompeurs qui violent de manière flagrante les conditions d’utilisation de l’OpenAI » afin d’obtenir une régurgitation d’articles du New York Times par ChatGPT.<br /> lol elle est bonne celle-là<br /> Sinon :<br /> « des prompts trompeurs qui violent de manière flagrante les conditions d’utilisation de l’IA »<br /> Plutôt non ?
MisterDams
J’ai trouvé ça un peu confus aussi, c’est donc pas juste ma fatigue !<br /> De ce que je comprends, Open AI a porté plainte contre le NY Times qui a utilisé des méthodes «&nbsp;non conformes aux CGU de chatGPT&nbsp;» pour obtenir les preuves utilisées dans sa propre plainte contre Open AI.<br /> Bref, c’est une tentative d’allumer un contre-feu pour faire échouer la plainte du NY Times (preuve non recevable). Ça me semble plutôt banal, c’est apparemment assez courant comme technique aux USA (en tout cas dans les procès tech on en en voit plein passer). Vu l’enjeu de ce procès en cas de culpabilité d’Open AI, ils ont intérêt à tout tenter car cette plainte pourrait bien inspirer de nombreux autres médias, qui ont aussi nourris le modèle de données sans donner leur autorisation.
Aegis
Ça ouvre un sujet passionnant : qu’est-ce que le hacking pour une intelligence artificielle ?<br /> Pour revenir à la base, le hacking est un accès illégal à un système d’information. Jusqu’à maintenant, cet accès se faisait en utilisant un mot de passe volé ou en exploitant une faille de sécurité. Avec les systèmes d’intelligence artificielle, l’accès se fait en utilisant la langue humaine, les prompt. Cela ressemble même parfois à du social engineering.<br /> Dans le cas d’openAI, si une personne a volontairement essayé de contourner les restrictions de sécurité, c’est probablement du hacking. Cela va être difficile à prouver lors du jugement, et plus encore auprès du public, étant donné qu’il va falloir mettre en place un précédent juridique.
Rainforce
« des prompts trompeurs qui violent de manière flagrante les conditions d’utilisation d’OpenAI »<br /> Non mais lol.
nexus84
Le titre est racoleur, utiliser un prompt avec du texte c’est pas du hacking … c’est l’essence même de leur produit
MisterDams
La capacité technique et l’usage, c’est deux choses différentes. Dans un restaurant tu vas pas reprocher au gérant de t’avoir mis sur la table le couteau que tu viens de planter dans le client de la table d’à côté.<br /> Le problème ici c’est les CGU, tu souscris à un service, tu obéis aux règles de celui-ci. En l’occurrence tu peux pas l’utiliser pour des activités illégales, pas non plus pour de la désinformation et certainement dans ce cas que tu ne dois pas pouvoir chercher à extraire des données techniques sur le fonctionnement de l’outil lui-même… Ce qui a été fait ici.<br /> Reste à définir si ça s’applique à cette situation, et si la condition qui n’a pas été respectée n’est pas abusive ou sur-interprétee.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet