Facebook a écarté des recherches internes visant à réduire la polarisation des opinions des utilisateurs

27 mai 2020 à 09h30
0

Les cadres de l'entreprise ont volontairement mis fin à un programme montrant comment la plateforme enferme ses utilisateurs dans une chambre d’écho.

En quelques mots :

  • Mark Zuckerberg a abandonné un programme visant à rendre Facebook moins clivant. Des recherches menées par Facebook en interne en 2018 ont montré que le réseau social rendait ses utilisateurs de plus en plus enclins à adopter des positions extrêmes sur différents types de sujets. Ces recherches proposaient également des pistes pour éviter cet écueil. Mais elles ont été abandonnées sur ordre de Mark Zuckerberg et d’autres cadres de l’entreprise, qui craignaient qu’elles ne donnent mauvaise presse à Facebook. C’est ce que révèle une enquête du Wall Street Journal.

  • Le phénomène de la chambre d’écho. Facebook utilise différents types d’algorithmes pour décider quels contenus afficher lorsque les utilisateurs surfent sur le réseau social. L'objectif est notamment de faire en sorte que nous restions le plus longtemps possible sur la plateforme, et pour cela, les algorithmes tendent à exploiter un biais du cerveau humain, qui consiste à préférer les informations qui renforcent nos croyances. Ainsi, ces algorithmes ont tendance à mettre en avant des contenus présentant une version extrême de ce que nous pensons déjà, polarisant ainsi nos attitudes et nos opinions. C’est ce que l’on nomme la chambre d’écho des réseaux sociaux. Par exemple, si les algorithmes détectent qu’un utilisateur exprime des doutes quant à l’efficacité des mesures du confinement, ils risquent de lui montrer des vidéos affirmant que l’épidémie est un complot orchestré par Bill Gates.

  • Un autre Facebook est-il possible ? Facebook a été critiqué dernièrement pour le grand nombre de théories conspirationnistes qui ont circulé sur la plateforme depuis le début de la crise sanitaire. Le réseau social s’efforce de trouver un équilibre difficile entre le respect de la liberté d’expression et la lutte contre la circulation d’informations potentiellement dangereuses. Mais comme le montre cette recherche, le problème pourrait résider dans la façon même dont le réseau social fonctionne : parce qu’il s’appuie sur la publicité, il cherche à maximiser le temps que les utilisateurs passent dessus, et donc à leur proposer des contenus polarisés. Facebook devrait donc repenser intégralement son modèle pour résoudre ce problème, chose que Mark Zuckerberg ne semble, pour l’heure, pas prêt à faire. 
Modifié le 27/05/2020 à 11h27
16
9
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

Voiture électrique : combien coûte la recharge à domicile ? (MàJ Juillet 2020)
L’ONU tire le signal d’alarme sur la production massive de batteries de voitures électriques
Freebox Pop: retrouvez toutes les annonces présentées ce mardi !
Emmanuel Macron débarque sur... TikTok, pour féliciter les lauréats du bac 2020
Démarchage téléphonique : le parlement donne son feu vert contre les appels abusifs... ce qu'il faut retenir
Tesla : le niveau 5 d'autonomie des véhicules, le plus élevé, serait bientôt atteint, d'après Elon Musk
L'administration Trump va bientôt se passer des entreprises qui utilisent des appareils Huawei
Far Cry 6 confirmé par Ubisoft, la présentation programmée au 12 juillet
Le réalisateur de God of War en faveur d'une hausse du prix des jeux sur PS5 et Xbox Series X
YouTube : préparez-vous à voir davantage de publicités
scroll top