YouTube a laissé la vidéo du meurtre du policier pendant 6 jours

15 janvier 2015 à 11h42
0
Les signalements de contenus faisant l'apologie du terrorisme et incitant à la haine se sont multipliés depuis le 7 janvier. Un vaste filet a été déployé sur le Net, mais il comporte encore de gros trous.

Qu'a fait YouTube pendant tout ce temps ? Nick Leeder, le patron de Google en France, soutenait sur les ondes de France Info, mardi 13 janvier, que la plate-forme de streaming faisait tout pour supprimer les vidéos non conformes à ses conditions d'utilisation ou au droit français. Mais, comme le signalent nos confrères du Point.fr, la vidéo non floutée montrant l'exécution du policier Ahmed Merabet, le 7 janvier, devant les locaux de Charlie Hebdo, est restée en ligne six jours sur YouTube, laissant les internautes la voir quelque 2,2 millions de fois.


0230000007857269-photo-youtube-contenu.jpg


Le filtre de YouTube est-il à géométrie variable ? Au micro de France Info, Nick Leeder souligne que la plate-forme accède aux demandes de la police au cas par cas. « Nous avons reçu quelques demandes durant le weekend dernier et avons supprimé les vidéos le plus rapidement possible », indique-t-il. « Dès qu'on reçoit une demande, on supprime la vidéo », assure le dirigeant, sans fournir le décompte des vidéos concernées.

Que fait la police ?

Si la vidéo de revendication du terroriste Amedy Coulibaly a vite été supprimée de la plate-forme, il n'en n'a pas été de même pour celle du meurtre du policier, que Lepoint.fr dit avoir signalée à YouTube - du reste, les internautes peuvent faire de même en cliquant sur le bouton « Plus » sous une vidéo, puis « Signaler ». Plutôt que de considérer qu'il fallait enlever la vidéo, YouTube y a ajouté un « Avertissement relatif au contenu ».

Finalement, elle a été bloquée « en raison d'une réclamation d'ordre juridique émise par le gouvernement ». Conformément à ce qu'affirme Nick Leeder, la plate-forme aurait réagi. Mais on s'étonne qu'elle n'ait pas pris, elle-même, l'initiative de déréférencer ce contenu manifestement violent - ou que les autorités n'aient pas été plus réactives. Nous avons demandé plus d'informations auprès de YouTube. Nous attendons une réponse.

La vis va être serrée

Questionnée par Lepoint.fr, la plate-forme rappelle que sa politique interdit « certains types de contenus comme ceux mettant en avant de la violence gratuite, des discours de haine et/ou d'incitation à commettre des actes violents, et nous supprimons les vidéos qui violent ces politiques quand elles nous sont signalées par nos utilisateurs ». Pour signaler un contenu jugé illégal, les internautes peuvent sinon se tourner vers Pharos.

La plate-forme mise en place par le gouvernement en 2009 pour lutter contre le cyber-crime a vu son nombre de demandes exploser ces derniers jours, rapporte Lemonde.fr. Elle aurait reçu plus de 20 000 signalements du 7 au 12 janvier, dont une large majorité était liée à « l'apologie du terrorisme » ou « incitant à la haine ». En réaction à ce phénomène, le gouvernement a déjà annoncé que le contrôle du Web serait bientôt renforcé.


A lire également :

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires

Haut de page

Sur le même sujet