Instagram fait la promotion de réseaux pédophiles, mais que voulez-vous, c'est la faute aux algorithmes

Thibaut Keutchayan
Publié le 09 juin 2023 à 09h55
© Solen Feyissa / Shutterstock
© Solen Feyissa / Shutterstock

Une enquête en profondeur menée par des chercheurs des universités du Massachusetts et de Stanford ainsi que le Wall Street Journal s'intéresse à la présence de contenu pédopornographique sur Instagram.

Le résultat est pour le moins édifiant.

Pas moins de 490 000 comptes supprimés… rien qu'en janvier 2023

C'est une enquête qui fait pour le moins froid dans le dos que viennent de conjointement publier le Wall Street Journal et des chercheurs de l'université du Massachusetts ainsi que de Stanford. En effet, ces derniers arrivent à la conclusion, dans les grandes lignes, que l'algorithme d'Instagram connaîtrait de sérieuses lacunes quant à la détection de la pornographie infantile… au point d'en faire la promotion à l'aide de ce même algorithme. Le principe, malheureusement simple, en revient toujours au même. Comme bon nombre d'algorithmes, celui-ci d'Instagram tente d'adapter votre fil et l'onglet Explorer avec des suggestions de contenus que vous seriez en mesure d'apprécier.

© mundissima / Shutterstock
© mundissima / Shutterstock

Le problème ici est donc que même dans le cas de contenus identifiés comme de la pornographie infantile, l'algorithme œuvre de la même manière. À force d'en rechercher (et d'en trouver…), les recommandations suivent en ce sens. Comme le conclut l'enquête, le problème d'autant plus grave est que contrairement à un forum nauséabond, Instagram et son algorithme, en suggérant ces contenus, font leur « promotion » malgré eux, comme tout autre type de sujet.

Le tout se fait sans grande difficulté pour l'individu en quête de ce type de contenu, puisque « suivre juste une poignée de ces recommandations était suffisant pour inonder un compte de test avec du contenu qui sexualise les enfants », d'après l'article paru dans le Wall Street Journal.

Meta prétend pourtant ne pas chômer dans la lutte contre les contenus CSAM

En plus, l'université de Stanford, dans son Observatoire d'Internet, compte dans ses rangs l'un des anciens responsables de la sécurité chez Meta, Alex Stamos. Celui-ci, étonné du résultat de cette enquête, estime que « le fait qu'une équipe de trois universitaires avec un accès limité puisse trouver un réseau aussi vaste devrait déclencher des alarmes chez Meta ».

Meta déclare justement déjà s'employer fortement dans la lutte contre la pornographie infantile, avec pas moins de 490 000 comptes enfreignant sa politique relative à la sécurité infantile supprimés rien qu'en janvier 2023, et de nombreux hashtags utilisés à cette fin bloqués. 27 réseaux pédophiles auraient également été repérés et démantelés au cours des deux dernières années.

Si les chercheurs et enquêteurs ont annoncé avoir trouvé trois fois plus de comptes proposant à la vente du contenu pédopornographique sur Instagram que sur Twitter, ils relativisent cette donnée par rapport au réseau social à l'oiseau bleu, car ce dernier possède moins d'utilisateurs qu'Instagram. La plateforme de Meta se défend en déclarant que ses statistiques internes ne comptabilisent pas plus de 1 post sur 10 000 relatif à du contenu CSAM. Enfin, l'efficacité du signalement du contenu pédopornographique aux équipes d'Instagram est également mise en cause à l'issue de cette enquête.

Sources : The Verge, Engadget

Par Thibaut Keutchayan

Je m'intéresse notamment aux problématiques liant nouvelles technologies et politique tout en m'ouvrant à l'immense diversité des sujets que propose le monde de la tech' quand je ne suis pas en train de taper dans un ballon.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !

A découvrir en vidéo

Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (7)
dredd

Les « algorithmes », ils sont parmis noooouuuus, ils sont dans vos campaaaagnes.

toast

« un compte de test avec du contenu qui sexualise les enfants »
Quoi de plus subjectif et de sensible dans le pays du puritanisme mal placé.
Où ont-ils placé le curseur de la sexualisation ? Un gamin en maillot de bain suffit ?

C’est un peu vague…

thurim

C’est assez malsain leur posture. D’un coté tu as un coté très puritain, de l’autre, ils sexualisent énormément les gosses.
L’épisode de South Park sur Disney montre assez bien cette ambivalence, que l’on retrouve dans plein de clips / concerts visant un jeune public.

Concernant les dingueries faites par les algo, on devrait tout simplement rendre responsable pénalement les boites. Enfin, je trouve ça surréaliste que l’hébergeur soit totalement déresponsabilisé du contenu proposé par les annonceurs.

ar-s

On parle pas de flouter les tétons de miss america, on parle « de contenu pédopornographique », je ne vois pas ce qui est un peu vague…

toast

Moi j’ai lu « un compte de test avec du contenu qui sexualise les enfants », pas « contenu pédopornographique »…

Sacrilege83

Bref, ce monde reste malsain à tous les étages. Vive l’humanité…

Jona-85

J’ai l’impression d’être sur RTL.be avec leurs titres un peu racoleur par moment.