Le CSA tente de décrypter les algorithmes de recommandation de YouTube

14 novembre 2019 à 17h48
0
Recommandation YouTube lecture automatique

Dans une étude s'intéressant à la diversité des informations proposées sur YouTube, le CSA a analysé le comportement de ses algorithmes de recommandation. D'après l'autorité, la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ.

Les réseaux sociaux offrent-ils un espace d'information pluraliste aux citoyens ? C'est la question sur laquelle s'est penchée le Conseil supérieur de l'audiovisuel (CSA), en concentrant son étude sur YouTube. Plus précisément, l'autorité a tenté de comprendre les algorithmes sélectionnant les vidéos qui se lancent en lecture automatique, une fonctionnalité qui « se rapproche ainsi de la diffusion linéaire en télévision ».

YouTube constitue-t-il un média d'information fiable ?

Pour cela, elle a demandé à 39 membres volontaires, ainsi qu'à quatre nouveaux profils créés pour l'occasion, de regarder des vidéos en utilisant leur compte Google. Ces contenus tournaient autour de 23 sujets identifiés comme « présentant un clivage d'opinion marqué », tels que le véganisme, la laïcité, ou encore la drague de rue. Au total, l'organisme a ainsi pu étudier un peu plus de 39 000 recommandations.

L'idée du CSA, en tant que gendarme de l'audiovisuel (secteur qui pourrait bientôt inclure YouTube), était de vérifier si la plateforme respectait le « caractère pluraliste de l'expression des courants de pensée et d'opinion », un principe auquel doivent se contraindre les autres médias régulés par l'autorité. La question sous-jacente était : dans quelle mesure les citoyens peuvent-ils faire confiance à YouTube pour s'informer ?


Le phénomène de la « chambre d'écho »

Les conclusions du rapport permettent de diviser les recommandations en deux parties. Tout d'abord, la sélection des deux premières vidéos présentées automatiquement semble s'effectuer en accordant une importance particulière « aux mots-clés associés au thème de départ », ainsi qu'à l'engagement des communautés. Ici, le nombre de vues et la date de publication paraissent donc jouer un rôle moins crucial.

Mais le CSA note surtout que plus d'un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ ». Il existerait donc un risque de « chambre d'écho », c'est-à-dire la répétition d'une seule et même idée, au détriment d'autres points de vue, confortant ainsi l'utilisateur dans ses certitudes.

En revanche, il y aurait une bascule à partir du troisième contenu recommandé. Les outils auraient alors tendance à s'éloigner du sujet de départ, privilégiant des vidéos majoritairement récentes et avec un grand nombre de vues.

Si le CSA lui-même, invite à ne pas généraliser ces résultats à l'ensemble des algorithmes, il met cependant en avant la nécessité d'une plus grande transparence. De son côté, YouTube a affirmé que son moteur de recommandation a « considérablement évolué » depuis les tests, effectués l'an dernier. La plateforme aurait ainsi pris diverses mesures pour lutter contre la désinformation, en mettant par exemple en avant davantage de « sources faisant autorité ».

Source : CSA
Modifié le 14/11/2019 à 19h27
4
5
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

Covid-19 : Twitter connaît une hausse de 900% des discours racistes contre la Chine
Coronavirus : le traçage numérique
L'empreinte carbone issue de la consommation des Français a chuté de deux-tiers avec le confinement
Coup dur chez HPE : des SSD destinés aux entreprises pourraient se briquer après 40 000 heures
Le stockage d’énergie sous forme d’hydrogène fait un bond en avant
Xiaomi lancera la très attendue Mi TV 4S 65
Des Macbook propulsés par des processeurs ARM prévus pour l'an prochain
Folding@home dépasse l'ExaFLOP pour lutter contre le Coronavirus
Office 365 devient Microsoft 365 et fait le plein de nouveautés
Renault prête 1 300 véhicules au personnel soignant, dont 300 ZOE électriques
scroll top