Suite à une censure trop agressive de son IA, YouTube rappelle des modérateurs en chair et en os

22 septembre 2020 à 10h40
9

Au cœur du confinement, YouTube avait remplacé ses modérateurs humains par une intelligence artificielle chargée de gérer les contenus sensibles.

YouTube vient toutefois de déclarer au Financial Times que son algorithme avait montré une modération trop agressive, celle-ci ayant entraîné une augmentation significative des suppressions de contenus et agacé certains utilisateurs. La plateforme de streaming entend par conséquent revenir à plus de modération humaine.

Chez YouTube, les suppressions avaient doublé

Selon le Financial Times, 11 millions de vidéos ont été supprimées de YouTube entre les mois d'avril et juin, soit environ deux fois plus qu'à l'accoutumée.

Sur ces 11 millions de suppressions, 320 000 ont fait l'objet d'une réclamation, et la moitié d'entre elles ont été remises en ligne. Là encore, ces taux de réclamations et de remises en ligne ont doublé par rapport à une situation « normale ».

Pour le Financial Times, mais aussi pour YouTube, c'est bel et bien le signe d'un algorithme un peu trop zélé. Dès le mois de mars, YouTube avait toutefois assumé cette décision en sachant qu'elle pourrait générer des erreurs.

Dans un communiqué, la plateforme avait alors déclaré : « Nous reconnaissons que cela peut perturber les utilisateurs et les créateurs, mais nous savons que c'est la bonne chose à faire pour les personnes qui travaillent pour assurer la sécurité de YouTube et pour la communauté en général ».

Les limites de l'IA

Les mesures de confinement généralisé ayant désormais tendance à s'éloigner, les modérateurs humains reviennent aujourd'hui dans les bureaux de YouTube.

Un relatif aveu d'échec, donc, qui témoigne des difficultés persistantes de l'IA à repérer les subtilités du langage : si les systèmes automatisés peuvent détecter un contenu manifestement choquant, ils peinent bien plus à repérer un discours raciste ou une thèse conspirationniste, des propos qui se sont largement développés depuis le début de la crise sanitaire. Pour cela, des modérateurs humains restent indispensables.

Si l'on accordera aux grands réseaux sociaux (YouTube, mais aussi Facebook et Twitter) d'avoir été sous pression ces derniers mois, l'IA a pourtant aussi supprimé des contenus plus facilement compréhensibles. En mai dernier, YouTube a ainsi reconnu avoir supprimé des commentaires critiques envers le parti communiste chinois. La société a par la suite accusé une « erreur dans ses systèmes d'application ».

Malgré tout, Neal Mohan dit rester confiant dans la place des systèmes automatisés sur la plateforme. Pour lui, la rapidité reste leur principal atout, précisant que « plus de 50% de ces 11 millions de vidéos ont été supprimées sans une seule vue par un utilisateur réel, et plus de 80% ont été supprimées avec moins de 10 vues ».

Source : The Verge

Modifié le 22/09/2020 à 10h54
9
10
Partager l'article :
Voir tous les messages sur le forum

Actualités récentes

Les nouveaux AirPods arriveront en 2021 tandis que l'AirPods Studio est finalement repoussé
Audius, plateforme blockchain de streaming musical, se lance avec Deadmau5
Le navigateur gamer Opera GX propose de nouveaux thèmes et un outil de nettoyage
Devil May Cry 5 Special Edition : pas de ray-tracing pour la version Xbox Series S
Ambitieux, le Japon vise la neutralité carbone à 2050
Un utilisateur de crypto-monnaies déplace 1,15 milliard de dollars de Bitcoin (BTC)
Qui a peur de Huawei ? : (re)voir le reportage sur le géant chinois des télécoms en intégralité
Il y a du Cloud gaming sur Facebook, mais pas sous la forme d'un service
Test Bose QC Earbuds : d'excellents écouteurs, à un détail près
L'enceinte connectée Google Nest Mini à un excellent prix
scroll top