Global Witness révèle que TikTok suggère du contenu pornographique aux comptes d'enfants de 13 ans. L'algorithme propose ces contenus malgré l'activation du mode restreint. La plateforme aurait violé la nouvelle législation britannique sur la sécurité en ligne.

Les enfants passent en moyenne 75 minutes par jour sur TikTok dans le monde - ©Danial hasan / Shutterstock
Les enfants passent en moyenne 75 minutes par jour sur TikTok dans le monde - ©Danial hasan / Shutterstock

L'algorithme de TikTok oriente des mineurs vers du contenu pornographique. L'organisation de défense des droits humain Global Witness a mené plusieurs enquêtes entre avril et août 2025. Les chercheurs ont créé sept faux comptes pour des adolescents de 13 ans au Royaume-Uni. Ils ont activé le mode restreint, cette fonction qui promet de bloquer les contenus sexuellement suggestifs. Mais la barre de recherche a quand même proposé des termes sexuellement explicites. Ces suggestions ont conduit vers des vidéos pornographiques, parfois dès le premier clic. TikTok affirme avoir pris des mesures correctives, mais le problème persiste malgré plusieurs alertes.

Les algorithmes poussent activement les mineurs vers du porno

Les chercheurs n'ont même pas eu à chercher ce contenu eux-mêmes. Dès qu'ils ouvraient la barre de recherche, TikTok leur suggérait des termes sexualisés dans la section « vous aimerez peut-être ». Pour trois comptes sur sept, ces suggestions apparaissaient immédiatement, sans le moindre historique de navigation.

Il suffisait de quelques clics pour tomber sur de la pornographie. Des vidéos montraient des femmes qui simulaient la masturbation ou exhibaient leurs sous-vêtements. D'autres allaient beaucoup plus loin, avec des scènes de pénétration explicites cachées dans d'autres images plus innocentes pour échapper à la modération. Un compte a vu du porno après seulement deux clics : un dans la barre de recherche, l'autre sur une suggestion automatique.

L'algorithme amplifiait même le phénomène au fur et à mesure. Plus les utilisateurs cliquaient, plus les recommandations devenaient crues. TikTok utilisait des codes pour contourner sa propre modération, comme « maïs » à la place de « porno ». Certains créateurs de contenu exploitent visiblement ces failles.

Le problème touche d'autres utilisateurs de la plateforme qui se plaignent dans les commentaires. « Quelqu'un peut-il m'expliquer ce qui se passe avec mes recommandations de recherche s'il vous plaît ? » écrit l'un d'eux. Un autre commente : « Qu'est-ce qui ne va pas avec cette application ? » D'autres encore répondent « JE CROYAIS ÊTRE LE SEUL » ou « comment s'en débarrasser comme si je ne l'avais même pas cherché ».

Les chercheurs de Global Witness ont indiqué à TikTok qu'ils avaient13 ans lors de la création des trois comptes et ont activé le « Mode restreint », ce qui, selon TikTok, signifie que vous ne devriez pas voir de contenu pour adultes - ©Global Witness
Les chercheurs de Global Witness ont indiqué à TikTok qu'ils avaient13 ans lors de la création des trois comptes et ont activé le « Mode restreint », ce qui, selon TikTok, signifie que vous ne devriez pas voir de contenu pour adultes - ©Global Witness

TikTok connaissait le problème depuis janvier 2025

Global Witness avait déjà alerté TikTok en janvier 2025. La plateforme avait alors assuré avoir pris des mesures et supprimé plusieurs recommandations de recherche. Pourtant, quand l'organisation a refait l'expérience entre juillet et août, rien n'avait changé. Les mêmes suggestions sexuellement explicites continuaient d'apparaître.

Or, le 25 juillet 2025, la loi britannique sur la sécurité en ligne (Online Safety Act) est entrée en vigueur. Elle oblige les plateformes à protéger les mineurs contre la pornographie et à configurer leurs algorithmes pour filtrer ces contenus. L'Ofcom, le régulateur britannique qui a créé un code de bonne conduite pour protéger les enfants contre les dangers des réseaux sociaux en 2024, a précisé que « les recommandations personnalisées sont la principale voie d'accès des enfants à du contenu préjudiciable en ligne ».

Mark Stephens, avocat spécialisé en droit des médias, a examiné les résultats de Global Witness. Il considère ces découvertes comme « une violation flagrante de la loi sur la sécurité en ligne » et demande à l'Ofcom d'enquêter rapidement.

TikTok se défend en affirmant disposer de plus de 50 fonctions pour protéger les adolescents. La plateforme dit supprimer neuf vidéos sur dix qui violent ses règles avant même qu'elles ne soient vues. Elle assure aussi avoir retiré plus de 90 éléments de contenu après avoir reçu les conclusions de Global Witness. Mais ces actions arrivent tardivement, après plusieurs mois d'inaction. TikTok n'a jamais demandé de vérification d'âge aux chercheurs, ni à la création des comptes, ni quand ils consultaient du contenu pornographique.

Deux vidéos pornographiques montraient une personne qui semblait mineure. Global Witness a signalé ces contenus à l'Internet Watch Foundation, l'organisation britannique habilitée à enquêter sur les abus sexuels sur mineurs.

Pour rappel, les enfants passent en moyenne 75 minutes par jour sur TikTok dans le monde, un chiffre qui grimpe à 87 minutes aux États-Unis. Au niveau mondial, 57 % des utilisateurs actifs mensuels ont entre 13 et 27 ans. La plateforme compte 18,25 millions de visiteurs uniques mensuels en France.