YouTube étend sa technologie de détection de ressemblance par IA aux agences artistiques et sociétés de management hollywoodiennes. Créateurs, politiques, journalistes en ont bénéficié en premier. C'est au tour des célébrités. Mais détecter un deepfake et le faire disparaître n'est pas du tout la même chose.

YouTube ouvre désormais sa technologie de détection de ressemblance à l'industrie du divertissement, via les grandes agences CAA, UTA, WME et Untitled Management - ©Piotr Swat / Shutterstock
YouTube ouvre désormais sa technologie de détection de ressemblance à l'industrie du divertissement, via les grandes agences CAA, UTA, WME et Untitled Management - ©Piotr Swat / Shutterstock

C'est parti pour une croisade. YouTube ouvre désormais sa technologie de détection de ressemblance à l'industrie du divertissement, via les grandes agences CAA, UTA, WME et Untitled Management. Ces agences ont travaillé directement avec YouTube pour affiner l'outil.

Acteurs, musiciens et artistes qu'elles représentent peuvent désormais y accéder, qu'ils possèdent ou non une chaîne YouTube, ce qui va au-delà d'un simple avantage réservé aux créateurs actifs sur la plateforme.

Pour s'inscrire, chaque participant doit vérifier son identité au préalable. Les données transmises lors de cette étape servent uniquement à cette vérification et n'alimentent pas les modèles d'IA de Google.

Un Content ID pour les visages

Le principe reprend celui de Content ID, le système de détection des droits d'auteur que YouTube a mis en place depuis des années. Plutôt que comparer des extraits audio ou vidéo protégés, l'outil scanne les nouvelles mises en ligne à la recherche du visage d'une personne inscrite, dans du contenu généré par IA comme dans tout autre.

Dès qu'une correspondance apparaît, la personne reçoit une alerte et peut demander le retrait de la vidéo. Les deepfakes de célébrités prolifèrent dans des publicités frauduleuses et des usurpations commerciales.

C'est d'ailleurs pourquoi YouTube a choisi de construire cet outil avec CAA, UTA, WME et Untitled Management directement, plutôt que de le déployer sans concertation avec l'industrie. Les agences ont ainsi pu orienter la conception vers les besoins réels de leurs clients.

En 2024, Michel Barnier a été victime d'un deepfake - ©Antonin Albert / Shutterstock
En 2024, Michel Barnier a été victime d'un deepfake - ©Antonin Albert / Shutterstock

Détection ne vaut pas suppression

Si la démarche est louable, elle n'est pas accomplie. YouTube précise dans son billet officiel consacré aux responsables civiques et journalistes : une correspondance trouvée par l'outil n'entraîne pas automatiquement un retrait.

Après chaque signalement, la personne inscrite doit soumettre une demande formelle. YouTube l'examine alors au regard de ses propres règles de confidentialité. Un contenu de parodie, de satire ou de commentaire politique peut rester en ligne malgré la demande. Pour les célébrités, dont les deepfakes relèvent plutôt de l'arnaque ou de la contrefaçon commerciale, YouTube tranchera plus facilement. Mais la plateforme a une longue histoire de protection de la liberté d'expression, et elle entend la préserver.

Car YouTube adosse ce dispositif à un plaidoyer législatif. La plateforme soutient le NO FAKES Act, une proposition de loi fédérale américaine qui établirait un droit à la protection de l'image et servirait de modèle à l'international.

Amjad Hanif, vice-président des produits créateurs chez YouTube, a par ailleurs évoqué une future extension de la détection aux voix reconnaissables et aux personnages populaires.