GitHub Copilot : Microsoft poursuivie pour vol de code open-source

08 novembre 2022 à 12h45
9
© GitHub
© GitHub

Microsoft, GitHub et OpenAI se retrouvent dans le viseur de la justice vis-à-vis de Copilot, un outil de programmation basé sur l'IA.

Cette initiative provient d'une action de groupe de codeurs open-source initiée le mois dernier et dirigée par Matthew Butterick, lui-même programmeur, mais également avocat. La plainte a ainsi été déposée il y a quelques jours devant la cour américaine de Californie du Nord.

Une intelligence artificielle appelée à la barre

Lancé en juin 2021, Copilot est pour rappel un outil à but lucratif sous l'égide de Microsoft visant à compléter automatiquement des lignes de code. Pour cela, l'intelligence artificielle en son sein, basée sur Codex d'OpenAI, a été entraînée en s'inspirant de milliards de travaux open-source hébergés sur GitHub, racheté par la firme de Redmond en 2018.

Le problème étant que les licences open-source utilisées par Copilot comme GPL, Apache ou MIT nécessitent, en tout cas dans le droit américain, de créditer leur auteur. Or, lorsque l'outil complète une ligne de code, une telle attribution n'est pas comprise. Pire encore, certaines lignes de code reprises par Copilot font parfois fuiter des éléments secrets, les rendant ainsi publics sans le consentement de leur créateur.

Ceci a provoqué une levée de boucliers de codeurs open-source, parmi lesquels Matthew Butterick, également avocat de son état. En octobre dernier, celui-ci invitait d'autres programmeurs lésés à rejoindre une action de groupe visant à traduire Copilot et les entités à sa tête en justice.

9 milliards de dommages et intérêts demandés

Outre les droits de licence des codeurs open-source, Butterick indique ainsi dans les charges à l'encontre de Microsoft, GitHub et OpenAI que Copilot viole les éléments suivants :

  • Les conditions générales d'utilisation et la politique de vie privée de GitHub ;
  • La section 1202 du DMCA interdisant la suppression des informations relatives aux droits d'auteur ;
  • La loi californienne de la vie privée des consommateurs.


« Chaque fois que Copilot fournit une ligne, l'outil viole la section 1202 du DMCA à trois niveaux (l'attribution, l'information de droit d'auteur et les termes de la licence). Si chaque utilisateur de Copilot reçoit ne serait-ce qu'une seule ligne litigieuse, alors Microsoft, GitHub et OpenAI violent le DMCA 3,6 milliards de fois », précise Butterick dans sa plainte.

L'homme demande des dommages et intérêts minimums s'élevant à 2 500 dollars par violation. Selon le nombre de violations estimé, le total des dommages et intérêts s'élève donc à la somme colossale de 9 milliards de dollars.

Microsoft et GitHub ont été interrogés au sujet de cette plainte aux enjeux particulièrement importants. Seul GitHub s'est fendu de la réponse suivante : « Nous nous sommes engagés à innover de manière responsable avec Copilot depuis sa création. Nous continuerons à faire évoluer le produit pour servir au mieux les développeurs à travers le monde ».

Affaire judiciaire à suivre, donc.

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (9)

gothax
Cheh Microsoft et al.<br /> S ils ne respectent pas le lois c’est normal
Damros
Même si je trouve la techno super intéressante, je n’ai aucune pitié pour les GAFAM qui vont encore et toujours se faire des tonnes d’argent sur notre dos.
Loposo
Je serais Microsoft je foutrait un fichier text après chaque code livré et dedans je fou tous les noms et speudo des gens inscrit et boom au moins les noms sont cité.
sebstein
Le truc c’est que l’IA ne reprend pas du code tel quel, mais s’en inspire, ce que font tous les humains également.<br /> Rien n’empêche d’aller lire des code OS et de s’en inspirer pour écrire un autre code, tant qu’on ne l’utilise pas directement.<br /> font parfois fuiter des éléments secrets<br /> À partir du moment où c’est OS, ce n’est forcément pas secret…
Blap
Ce n’est pas forcément un probleme qu’il s’en «  »"« inspire »""" mais il doit quand meme respecter la licence du dit code.
sebstein
Quand un humain vu sur Github lis du code, éventuellement l’étudie, puis continue ses pérégrination, va lire du code d’une autre source, etc. Puis, des jours, des mois, des années, après écris du code, il s’inspire forcément du code qu’il a lu précédemment. Il ne sour era pas pour autant ses inspirations passées…
tfpsly
sebstein:<br /> Le truc c’est que l’IA ne reprend pas du code tel quel, mais s’en inspire<br /> Hem si : le problème est bien que Copilot reprend du code tel quel, noms de variables et commentaires inclus!<br /> twitter.com<br /> Tim Davis<br /> @DocSparse<br /> @github copilot, with "public code" blocked, emits large chunks of my copyrighted code, with no attribution, no LGPL license. For example, the simple prompt "sparse matrix transpose, cs_" produces my cs_transpose in CSparse. My code on left, github on right. Not OK. https://t.co/sqpOThi8nf<br /> 1:47 AM - 16 Oct 2022<br /> 6.2K<br /> 1.8K<br />
twist_oliver
suffit de renommer le produit en « copilot.ch » et le problème est résolu.<br /> ok je sors --&gt;[]
Voir tous les messages sur le forum
Haut de page

Sur le même sujet