Quand Facebook "manipule" les émotions à des fins de recherche

30 juin 2014 à 09h40
0
Émois sur la Toile : une étude révèle que Facebook aurait intentionnellement modifié le flux d'actualité de certains utilisateurs de son réseau pour mesurer leur réponse à des messages connotés sur le plan émotionnel. Le réseau social se défend de tout volonté de manipulation.

00B4000005483715-photo-facebook-logo.jpg
L'omniprésent Facebook aurait-il le pouvoir d'influencer nos émotions ? La question fait débat depuis la découverte d'une étude scientifique mettant en lumière certaines expériences menées par les spécialistes de la donnée employés par le réseau social. Parue le 17 juin dernier dans le journal de l'Académie des Sciences américaine, cette étude commente les résultats d'une expérience menée par les ingénieurs de Facebook sur le flux d'actualité d'une fraction des adeptes du service.

Baptisée Experimental evidence of massive-scale emotional contagion through social networks, cette étude s'intéresse au principe de contagion émotionnelle : serai-je plus enclin à publier des messages gais si je suis exposé à des publications positives sur Facebook ? À l'inverse, un flux de publications tristes me conduira-t-il à moi aussi exprimer des sentiments négatifs ?

La réponse serait oui selon les auteurs. « Quand le nombre de messages positifs est réduit, les gens produisent moins de publications positives et plus de messages négatifs ; quand le volume de messages négatifs est réduit, le schéma inverse se produit. Ces résultats indiquent que les émotions exprimées par les autres sur Facebook influencent nos propres émotions, ce qui constitue une preuve expérimentale de la contagion à grande échelle par les réseaux sociaux », affirme ainsi le résumé de ces travaux de recherche.

Pour mener leurs recherches à bien, les ingénieurs expliquent avoir « manipulé » l'algorithme qui gère le news feed de Facebook de façon à ce qu'un échantillon des utilisateurs du service soient soumis à des messages plus ou moins chargés sur le plan émotionnel. Environ 690 000 internautes utilisant Facebook en anglais auraient servi de cobayes dans le cadre de cette expérience, à leur insu.

« Le résultat ? Oui, en vérité, les réseaux sociaux peuvent propager des sentiments positifs et négatifs. L'autre résultat : Facebook a intentionnellement rendu tristes des milliers de personnes », s'exclame Katy Waldman de Slate.com dans l'un des premiers articles à avoir mis en lumière cette étude.

Dans ses conditions d'utilisation, Facebook indique que les informations reçues par ses soins sont notamment susceptibles d'être utilisées à des fins de test ou de recherche. Bien que les modalités de ces recherches puissent sans doute être interrogées, la démarche serait donc légale, mais cela ne la rend pas forcément éthique pour autant.

Face à la controverse naissante, l'un des auteurs de l'étude a réagi dimanche soir par l'intermédiaire de Facebook. « Le but de nos recherches à Facebook est d'apprendre comment fournir un meilleur service. Pour avoir écrit et monté moi-même cette étude, je peux vous dire que notre but n'a jamais été de contrarier qui que ce soit. Je peux comprendre qu'elle ait inquiété certains, mes coauteurs et moi-même sommes navrés de la façon dont l'article a décri nos recherches et de l'anxiété qu'il a pu causer. Avec le recul, les bénéfices de cette recherche ne justifiaient peut-être pas toute cette anxiété ».

Le flux d'actualité de Facebook est pour mémoire régi par un algorithme qui choisit de faire remonter tout ou partie des contenus publiés par les contacts de l'utilisateur. Ici, le parti pris était de sélectionner les messages en fonction de leur charge émotive, déterminée par l'analyse des mots employés, dans le cadre d'une étude ponctuelle, mais cet algorithme sert de façon permanente d'autres fins, qu'il s'agisse de la recommandation, de l'optimisation de l'engagement des utilisateurs ou du ciblage publicitaire.

Pour aller plus loin

Modifié le 01/06/2018 à 15h36
0
0
Partager l'article :

Les actualités récentes les plus commentées

NVIDIA en discussion avancée pour le rachat d'ARM pour au moins 32 milliards
Renault annonce une perte record de près de 7,3 milliards d'euros
Elon Musk veut fournir des logiciels, des batteries et des moteurs à d'autres constructeurs
Pour Windows Defender, CCleaner est une app indésirable
La première station de recharge à hydrogène ferroviaire annoncée en Allemagne
L'électricité produite en Europe au premier semestre provenait majoritairement d'énergies renouvelables
Rocambole : l'application est enfin de retour sur le Google Play Store !
Vignette Crit'air : vers un durcissement des conditions d'obtention
L'évasion Carlos Ghosn financée en Bitcoins
Windows : le bug de recherche dans l'Explorateur bientôt réglé... Huit mois après
scroll top