YouTube : 8 millions de vidéos supprimées en trois mois grâce à l'IA

24 avril 2018 à 12h00
0
Sous la pression conjuguée des gouvernements et des annonceurs, YouTube accélère la suppression de contenus qui ne respectent pas sa charte communautaire. Entre octobre et décembre 2017, 8,2 millions de vidéos ont été supprimées.

YouTube annonce être en bonne voie pour remplir son engagement en matière de filtrage de contenus inappropriés.

YouTube retire les vidéos violentes plus rapidement que jamais

Les scandales autour de vidéos YouTube inappropriées sont légion ces derniers temps. Souhaitant montrer sa bonne foi, YouTube présente son premier observatoire de la modération, pour la période qui court de début octobre à fin décembre 2017. 8,2 millions de vidéos (surtout des vidéos spam et des vidéos pornographiques) ont été retirées au cours de ces trois mois. Cela peut paraître beaucoup, mais YouTube tient à nous rassurer : elles représentent moins d'1% de l'ensemble des vues sur la plateforme.

Mieux encore : les vidéos les plus dangereuses sont retirées avant qu'elles n'atteignent un nombre de vues conséquent. Ainsi, la moitié des vidéos signalées en tant que vidéos terroristes sont désormais retirées avant qu'elles n'atteignent les 10 vues. Preuve que YouTube fait un bon travail en la matière : début 2017, seules 8% des vidéos terroristes étaient retirées avant d'avoir atteint les 10 vues.

Signalement d'une vidéo YouTube


Modération de YouTube : quand l'intelligence artificielle rencontre l'humain

Beaucoup de choses ont changé, ces derniers temps, dans la manière dont YouTube traite les vidéos inappropriées. Le second semestre 2017 marque un tournant en la matière : en trois mois, 6,7 millions de vidéos ont été signalées par l'intelligence artificielle, un record. Parmi ces dernières, 76% ont été retirées avant qu'elles n'aient eu une seule vue. Le répérage de vidéos douteuses à l'aide de l'intelligence artificielle, mis en place en juin 2017, a donc un bel avenir.

Mais Youtube ne compte pas lever le pied sur le nombre de collaborateurs humains chargés du traitement de signalements de vidéos aux contenus inappropriés. Bien au contraire, leur nombre a augmenté et va encore augmenter d'ici fin 2018. Pour rappel, Google s'est engagé à bâtir une armée de 10.000 modérateurs avant la fin de l'année. Un objectif que YouTube a déjà quasiment atteint !

Modifié le 01/06/2018 à 15h36
0
0
Partager l'article :

Les actualités récentes les plus commentées

L'attaque d'un hôpital par ransomware pourrait tourner en homicide après la mort d'une patiente allemande
Allongé et endormi
Microsoft rachète Bethesda Softworks et l'ensemble de ses studios
Microsoft Flight Simulator dévoile son plan de vol pour les futurs développements
Déjà en rupture de stock, les NVIDIA RTX 3080 se vendent à prix d'or sur eBay
Airbus dévoile ses trois concepts d'avion à hydrogène, opérationnel d'ici 2035
Cyberpunk 2077 : CD Projekt RED dévoile les configurations PC requises
Batteries de voitures : et si on allait plutôt chercher les matériaux au fond des océans ?
Données personnelles : Facebook menace de retirer ses réseaux sociaux d'Europe !
L'ANFR simule l'exposition aux ondes causée par des antennes 4G et 5G et livre ses résultats
scroll top