Le CSA tente de décrypter les algorithmes de recommandation de YouTube

14 novembre 2019 à 19h27
4
Recommandation YouTube lecture automatique

Dans une étude s'intéressant à la diversité des informations proposées sur YouTube, le CSA a analysé le comportement de ses algorithmes de recommandation. D'après l'autorité, la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ.

Les réseaux sociaux offrent-ils un espace d'information pluraliste aux citoyens ? C'est la question sur laquelle s'est penchée le Conseil supérieur de l'audiovisuel (CSA), en concentrant son étude sur YouTube. Plus précisément, l'autorité a tenté de comprendre les algorithmes sélectionnant les vidéos qui se lancent en lecture automatique, une fonctionnalité qui « se rapproche ainsi de la diffusion linéaire en télévision ».

YouTube constitue-t-il un média d'information fiable ?

Pour cela, elle a demandé à 39 membres volontaires, ainsi qu'à quatre nouveaux profils créés pour l'occasion, de regarder des vidéos en utilisant leur compte Google. Ces contenus tournaient autour de 23 sujets identifiés comme « présentant un clivage d'opinion marqué », tels que le véganisme, la laïcité, ou encore la drague de rue. Au total, l'organisme a ainsi pu étudier un peu plus de 39 000 recommandations.

L'idée du CSA, en tant que gendarme de l'audiovisuel (secteur qui pourrait bientôt inclure YouTube), était de vérifier si la plateforme respectait le « caractère pluraliste de l'expression des courants de pensée et d'opinion », un principe auquel doivent se contraindre les autres médias régulés par l'autorité. La question sous-jacente était : dans quelle mesure les citoyens peuvent-ils faire confiance à YouTube pour s'informer ?


Le phénomène de la « chambre d'écho »

Les conclusions du rapport permettent de diviser les recommandations en deux parties. Tout d'abord, la sélection des deux premières vidéos présentées automatiquement semble s'effectuer en accordant une importance particulière « aux mots-clés associés au thème de départ », ainsi qu'à l'engagement des communautés. Ici, le nombre de vues et la date de publication paraissent donc jouer un rôle moins crucial.

Mais le CSA note surtout que plus d'un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ ». Il existerait donc un risque de « chambre d'écho », c'est-à-dire la répétition d'une seule et même idée, au détriment d'autres points de vue, confortant ainsi l'utilisateur dans ses certitudes.

En revanche, il y aurait une bascule à partir du troisième contenu recommandé. Les outils auraient alors tendance à s'éloigner du sujet de départ, privilégiant des vidéos majoritairement récentes et avec un grand nombre de vues.

Si le CSA lui-même, invite à ne pas généraliser ces résultats à l'ensemble des algorithmes, il met cependant en avant la nécessité d'une plus grande transparence. De son côté, YouTube a affirmé que son moteur de recommandation a « considérablement évolué » depuis les tests, effectués l'an dernier. La plateforme aurait ainsi pris diverses mesures pour lutter contre la désinformation, en mettant par exemple en avant davantage de « sources faisant autorité ».

Source : CSA
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
4
5
PierreKaiL
Mouai, algorithmes, ia aussi pendant qu’on y est, pour avoir une lecture automatique de la pertinence d’une huître, bin j’apl ça de la m… Les recherches idem, si il y a un traitement alors c’est plus pour nous empêcher de découvrir de nvelle chose, pcq la mise en boucle de la même vidéo arrive vite, en autre… Il n’y a qu’à voir la rubrique « tendance » de youtube pour, soit se mettre à détester le genre humain tellement c’est affligeant, soit se demander si ils ont pas un pète au casque chez youtube. Algorithmes on disait… Moi je dis grosse blague à 4 balles.
wannted
Youtube c’est une plateforme où chacun peut y uploader n’importe quoi. Pour moi ce n’est pas un media au même titre qu’une chaine de TV<br /> Je vois pas en quoi ils devraient intervenir dans ce que je choisis de regarder et autre conneries de courants de pensées. Si Youtube devient aussi lisse que les chaines de TV je pleure.<br /> Mais le CSA note surtout que plus d’un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ ». Il existerait donc un risque de « chambre d’écho », c’est-à-dire la répétition d’une seule et même idée, au détriment d’autres points de vue, confortant ainsi l’utilisateur dans ses certitudes.<br /> Heuresement qu’Il y a une barre de recherche pour ça…<br /> Mais le CSA note surtout que plus d’un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ »<br /> Et si ça se trouve c’est exactement ce que je veux non ?<br /> Et puis si l’on laisse à Google le choix des sujets qui vont s’afficher par la suite c’est pas un peu dangereux ? D’abord on va forcer Google à agir sur les sujets mis en avant, puis pour s’assurer que le travail est bien fait l’etat va mettre son nez dedans ?<br /> C’est plutot une étude le CSA montre qu’il veut être utile sur internet<br /> D’après l’autorité, la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ.<br /> Un peu comme les articles de presse sur internet, entrecoupé de liens vers des articles au sujet similaire.
z-spy
Pour ma part, il m’est juste arrivé un truc, je sais, c’est juste improbable, C’est du pur hasard… Mais, je pensais à une chose, j’ouvre ma page YouTube et paf, ce à quoi je pensais était en suggestion !<br /> Si ça se reproduit plusieurs fois, je commencerai à me poser des questions.
LeGrosWinnie
T’as pas anti gouvernement toi par hasard ?<br /> Ce que le CSA veut juste pointer du doigt c’est que dès lors qu’un outil te passe automatiquement des vidéos à la chaîne si elles sont toutes en mode « extrémisme » ça a un effet lavage de cerveau.<br /> D’un point de vue intellectuel il est largement plus pertinent d’avoir 2 opinions différentes sur un sujet de toute façon (sauf on cherche un truc scientifique, spécifique, etc.).
Peter_Vilmen
« la plateforme aurait tendance à privilégier les contenus défendant une opinion similaire à la vidéo de départ. »<br /> L’être humain a tendance à privilégier les contenus défendant une opinion similaire à la sienne, à partir de là…
wannted
T’as pas anti gouvernement toi par hasard<br /> Non<br /> D’un point de vue intellectuel il est largement plus pertinent d’avoir 2 opinions différentes sur un sujet de toute façon (sauf on cherche un truc scientifique, spécifique, etc.)<br /> Je suis totalement d’accord. Mais pour moi ce n’est pas à l’état de réguler ça.<br /> Je vois pas en quoi l’affichage de videos faites par des particuliers doivent être régulé que ce soit sur des sujets clivants ou des trucs tout bêtes comme de la menuiserie, de la peinture etc…
Voir tous les messages sur le forum

Actualités du moment

Apple TV s'invite désormais sur les appareils Fire TV d'Amazon
Il faudrait 20 ans pour bâtir une ville habitable sur Mars, d'après Elon Musk
X019 : suivez l'inside Xbox en direct !
🔥 Free mobile : la vente privée sur le forfait mobile 100Go chez Veepee est lancée !
GitHub : l'app va faire enfin son retour sur Android (et existe déjà en beta sur iOS)
Forfait mobile 4G : tout savoir sur l'offre Free mobile à moins de 10€ par mois
Apple iPhone Xr à moins de 600€ chez Cdiscount
Idée cadeau Noël chez Amazon : blaster Nerf, inspiré du jeu vidéo populaire Fortnite à 41,50€
DJI travaille sur une technologie qui permet de suivre les drones alentours via son smartphone
La PlayStation 5 aura-t-elle un stockage extensible à base de... cartouches ?
Haut de page