Facebook Papers : pourquoi nous devrions tous quitter Facebook (mais vous faites ce que vous voulez, hein)

Fanny Dufour
Publié le 25 octobre 2021 à 19h34
© US Congress
© US Congress

Les premiers articles concernant les Facebook Papers, comme sont désormais désignés les documents leakés par la lanceuse d'alerte Frances Haugen, sont sortis et dépeignent une entreprise accaparée par le profit et dépassée par le contenu haineux et violent présent sur son site.

Ces articles sont le résultat d'une collaboration entre plusieurs rédactions du monde entier, qui ont eu accès aux documents de la lanceuse d'alerte.

Facebook n'arrive pas à contrôler les effets de ses propres fonctionnalités

Les fonctionnalités les plus reconnaissables de Facebook – le bouton Like et le partage de publications – ne sont pas aussi innocentes qu'elles pourraient le laisser croire. À la suite de plusieurs recherches, certains employés de Facebook ont tiré la sonnette d'alarme, comme le montre cet article du New York Times. Ils rapportent les effets néfastes du bouton Like, notamment sur les adolescents qui l'utilisent pour se comparer entre eux et sur qui un manque de reconnaissance de leurs publications peut avoir un effet néfaste. Après un essai peu concluant consistant à le retirer pour quelques utilisateurs en 2019, l'entreprise a finalement conclu qu'il était un problème « assez bas sur la longue liste de problèmes que nous avons besoin de résoudre ».

Le système de partage a également fait l'objet de plusieurs recherches en interne. Les chercheurs ont conclu qu'il permettait aux utilisateurs de partager très rapidement de la désinformation, amplifiée par des systèmes de recommandation et de mise en avant de contenus partagés par les amis des utilisateurs. Le système de recommandation de groupes et pages a aussi été dénoncé par un chercheur, qui l'accusait de conduire les utilisateurs sur la voie des théories du complot. Depuis, quelques actions ont été entreprises par Facebook, pour permettre aux utilisateurs de cacher des posts ou de ne plus recevoir de recommandations de groupes politiques. Rien ne modifiant fondamentalement le fonctionnement du site, qui était pourtant ce qui était mis en cause par les employés.

Facebook n'arrive pas à protéger ses utilisateurs non-anglophones

Les articles de Reuters et du Monde se concentrent eux sur l'incapacité de Facebook à modérer correctement le contenu non-anglophone, particulièrement dans les pays les plus fragiles. Utilisé dans plus de 190 pays, le réseau social n'a pas les moyens de modérer correctement dans la plupart d'entre eux, alors même que le rôle de la plateforme dans la violence exercée dans certains de ces pays est reconnu. Pourtant, Facebook établit une liste tous les six mois des pays considérés comme à risque. Mais que ce soit au niveau de ses modérateurs humains ou de ses intelligences artificielles, l'entreprise a échoué de façon répétée à contrôler les propos haineux et la désinformation.

Les documents récupérés par les rédactions montrent que l'entreprise ne possédait pas en 2020 les outils nécessaires pour une détection automatique des posts contenant de la désinformation ou des propos haineux faits en birman pour la Birmanie, ou en oromo et amharique pour l'Ethiopie, deux pays considérés comme à risque. Pourtant, dès 2018, les Nations Unies avaient déjà souligné le rôle du réseau social dans la propagation de contenus haineux contre les Rohingyas en Birmanie. De son côté, Reuters note avoir trouvé de nombreuses publications en amharique sur le site, désignant des groupes ethniques comme étant des ennemis et contenant plusieurs menaces de mort.

Les documents soulignent les mêmes problèmes dans d'autres pays, comme l'Inde où plusieurs modérateurs ont exprimé en 2021 leur inquiétude face à la montée de posts appelant à la violence contre les musulmans. Ils alertent sur le fait que les algorithmes ne sont pas équipés pour détecter les termes haineux ou violents en hindi ou en bengali. Les mêmes inquiétudes concernant l'incapacité de détecter automatiquement les posts haineux ou violents ont été rapportées pour le Pakistan, l'Iran ou l'Afghanistan.

Le Monde se concentre sur les problèmes récurrents dans les pays arabophones, où l'entreprise cumule un manque de modérateurs humains capables de modérer les contenus et une intelligence artificielle qui se trompe très régulièrement et supprime des contenus tout à fait légitimes, ce qui conduit à une censure récurrente des utilisateurs. Les employés ont pourtant lancé l'alerte, soulignant le risque de violence dans ces pays amplifié par le réseau social, et l'importance d'un système de modération solide. En vain semblerait-il, une porte-parole de Facebook ayant admis qu'il restait encore du travail dans ce domaine.

Les décisions de Mark Zuckerberg mettent les utilisateurs en danger

L'article du Washington Post se concentre par ailleurs sur les décisions prises personnellement par le CEO de Facebook, Mark Zuckerberg. Ce serait notamment lui qui aurait décidé au final de répondre positivement aux demandes du gouvernement vietnamien qui réclamait plus de censure des publications qui le critiquaient. L'alternative étant l'interdiction pour Facebook d'opérer dans le pays, le CEO a préféré obtempérer, le Vietnam représentant plus d'un milliard de revenus annuels pour la firme, d'après une estimation d'Amnesty International.

Il aurait également sciemment menti au Congrès américain en déclarant que l'entreprise supprimait 94 % des contenus haineux, quand des recherches internes, auxquelles il avait accès, avancent plutôt le chiffre de 5 %. Lorsque des employés de WhatsApp ont proposé de faire une version en espagnol du centre d'informations sur les élections développé par Facebook pour les élections américaines de 2020, c'est le patron lui-même qui s'y est opposé, déclarant que ce n'était pas « assez neutre politiquement ». Il a également rejeté les propositions des chercheurs de l'entreprise pour réduire la désinformation sur le coronavirus dans les premiers mois de la pandémie.

À la suite de plusieurs décisions prises par le fondateur du réseau social, des membres de l'équipe chargée d'atténuer les préjudices causés par la plateforme ont quitté leur rôle en 2019. « Notre existence-même est fondamentalement opposée aux objectifs de l'entreprise, aux objectifs de Mark Zuckerberg », a déclaré l'un de ces employés. Une vision corroborée par l'article du New York Times, dans lequel plusieurs cadres de la société confirment que plusieurs changements proposés pour limiter la désinformation ont été bloqués au nom de la croissance.

Source : Engadget

Fanny Dufour
Par Fanny Dufour

Arrivée dans la rédaction par le jeu vidéo, c’est par passion pour le développement web que je me suis intéressée plus largement à tout ce qui gravite autour de notre consommation des outils numériques, des problématiques de vie privée au logiciel libre en passant par la sécurité. Fan inconditionnelle de science-fiction toujours prête à expliquer pendant des heures pourquoi Babylon 5 est ma série préférée.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
obbiclubic

Je m’en fou complet. Je continuerai à Liker les photos du voyage à ma tata. :smiley:

yam103

Un peu comme à chaque année, je reposte les voeux de la Russoisie au nouvel an, et je me fais systématiquement shooter pour des droits FIFA, alors qu’il n’y a que la place rouge, le kremlin, l’hymne russe.

Kratof_Muller

La patriot act s’invite dans tout SI américain mis à disposition au reste de la planète, il ne saurait donc y avoir de protection réelle des données car aucun de ces SI ne doit échapper aux scans de la NSA, dans cette optique FB joue son rôle, en empêchant la modération sous prétexte de croissance.
Les contenus haineux, offensants, dangereux permettent de dresser une cartographie comportementale et de prévoir, se priver de ces informations n’est pas dans l’interet du renseignement intra et surtout extra territorial des US.

Baxter_X

« les documents leakés par la lanceuse d’alerte ».
En français on dit « fuités » ou « exfiltrés » et non « leakés ».

Sinon concernant l’article, il est clair quil faudrait quitter cette entreprise,mais on en est tous au même point. On le sait sans le faire.

norwy

Bravo pour cet article courageux et évidemment plein de bon sens.

Ça n’arrêtera malheureusement pas le cœur de cible de FB : des gens qui n’en ont rien à foutre et dont la vie sociale tourne entièrement autour de celui-ci, de leur plein gré, bien sûr.

Doomy

J’ai jamais eu besoin qu’on me protège de quoi que soit de ce genre sur internet… je suis assez grand pour faire le tri moi même entre ce qui est de l’humour, de la haine, de la conspiration ou juste un point de vue différent.

Et quand ça m’arrive de tomber sur un sujet réellement haineux ou conspi bah je scroll et passe à autre chose, incroyable non ?

Non, la seule chose que me ferait quitter Facebook (pour ce que je l’utilise…) c’est le manque de sécurité au niveau de la vie privée et décidément pas un manque de modération/censure/autre…

Dahita

Facebook Market ceci dit, c’est top. C’est toujours gratuit pour le moment et bien pratique pour le recyclage et les economies. Outil au top pour vendre/acheter tout ce que l’on veut d’occasion facilement sans avoir a se taper des frais supplementaires du type Ebay + Paypal. Malheureusement on sent bien que ca va changer rapidement au vu des marchands et produits neufs qui commencent a y etre vendus.

ld9474

Vous pouvez donc quitter Facebook :smiley: Si Cambridge Analytics (Analytica?) n’est pas significatif alors je ne sais quel argument vous fournir…

Doomy

Oui c’est ce que je dis, l’argument qui me ferait quitter facebook c’est bien les soucis liés à la vie privée qui ne sont pas neufs et non ces « problèmes » de modération.

benben99

De toute façon, il n’y a pas grand chose d’intéressant sur Facebook, et les données des utilisateurs sont avec quoi facebook fait son argent. Donc, après faut pas aller se plaindre qu’ils ne respectent pas vos données… rien d’étonnant.

Moi je ne vais pas leur vendre mes données pour avoir le privilège de voir des types qui se prennent en selfies, racontent ce qu’ils mangent le matin, et distribuent des fake news.