Certains médias commencent à bloquer leurs contenus à OpenAI

22 août 2023 à 14h30
5
© T. Schneider / Shutterstock
© T. Schneider / Shutterstock

Le New York Times a pris de nouvelles mesures pour empêcher OpenAI de récolter ses données. Le début d'une série ?

La question des données sur lesquelles s'entraînent les intelligences artificielles fait de plus en plus débat. De nombreux producteurs de contenu se sont ainsi insurgés contre OpenAI en 2023 et ont décidé de contre-attaquer. Aujourd'hui, c'est au tour de certains médias de prendre des mesures.

Un blocage made in New York Times

Le business model des créateurs d'intelligence artificielle va-t-il pouvoir résister à leur surmédiatisation ? Difficile à dire, car l'arrivée sur le marché d'intelligences artificielles comme ChatGPT ou Google Bard a révélé à la fois l'avancée fulgurante de cette technologie, mais aussi l'étendue exceptionnelle des collectes de données destinées à entraîner les modèles d'IA.

La résistance commence à s'organiser, notamment chez les médias. C'est ainsi que le New York Times vient d'effectuer des changements dans son interface qui permet de contrôler l'activité des robots d'exploration, dont le rôle est d'indexer le contenu des sites web. Comme l'a remarqué The Verge, le robot d'exploration utilisé par OpenAI, GPTBot, est maintenant interdit d'accès.

Plus de New York Times pour ChatGPT ! © Alexandre Boero pour Clubic
Plus de New York Times pour ChatGPT ! © Alexandre Boero pour Clubic

Et ensuite, la justice ?

Ainsi, sauf nouvelle décision, ChatGPT ne pourra plus s'entraîner sur les articles du prestigieux journal américain. Cet exemple pourrait pousser d'autres médias sur cette voie, quand on connaît le pouvoir de prescription de cette autorité. Celle-ci ne devrait d'ailleurs pas s'arrêter à de simples changements de paramètres de son système.

En effet, si l'on en croit toujours The Verge, ce blocage aurait débuté le 17 août dernier, soit à peu près au moment où l'on apprenait que le journal envisageait aussi d'attaquer OpenAI en justice. Alors, la vénérable institution cherche-t-elle seulement à intimider OpenAI pour que la société de Sam Altman respecte enfin les droits d'auteurs du journal ? Ou est-elle plus sérieuse et se prépare-t-elle à aller jusqu'à une cour de justice, où elle pourrait demander des milliards de dollars de dommages et intérêts ?

Source : The Verge

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (5)

norwy
Protéger ses données personnelles et professionnelles va devenir le nouveau défi du 21ème siècle.<br /> Certains diront que si vous ne voulez pas participer au pillage numérique, c’est que vous avez quelque chose à cacher ! Toujours le même argument pour laisser la gabegie perdurer…
Goodbye
«&nbsp;Ainsi, sauf nouvelle décision, ChatGPT ne pourra plus s’entraîner sur les articles du prestigieux journal américain.&nbsp;»<br /> Il pourra le faire sur le reste du web, ou ce même article s’y trouve probablement en claire, que ce soit sur un forum, un CC, etc…<br /> L’unique moyen de ne pas avoir ces données siphonnées par une IA ou autres, c’est simplement de ne pas les poster en ligne.
eykxas
Et toujours le même argument valable. L’information n’aurait jamais dû être payante.
karmentic
Il y a des solutions techniques misent à dispositions par Open AI pour éviter le crawling de son site web : OpenAI Platform
OL556B3C4
«&nbsp;L’information n’aurait jamais dû être payante.&nbsp;»<br /> En effet, on ne voit pas pourquoi des journalistes voudraient être payés pour leur travail…
Goodbye
karmentic:<br /> crawling<br /> En effet, mais des sites comme le NYT, n’ont pas besoins de bots pour que leur articles se retrouvent en libre service sur d’autre site.
eykxas
Là tu parles d’information à valeur ajoutée. Ce n’est pas la même chose.<br /> Faire un travail de fond, d’analyse, bien sûr qu’il faut le rémunérer. Mais pour l’information « de base » il n’y a d’une part pas besoin de journaliste, et d’autre part l’humanité n’aurait jamais dû en faire commerce.<br /> Je te donne un exemple : le 24 Novembre 2023 - Starship SN25 s’est crashé, encore un nouvel échec pour SpaceX.<br /> Voilà ça c’est de l’information basique. Je suis journaliste ? Non. J’ai besoin d’être rémunéré pour ça ? Non.<br /> En bloquant les bots d’avoir accès aux articles (que ce soit ici sur le NYT ou ailleurs) même ce degrés là d’information n’est plus accessible. Et ça c’est pas normal.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet