X.com vient de publier un rapport super dense sur ses pratiques de modération en Europe. Le document répond aux exigences du DSA, mais ne dit toujours rien sur les mécanismes de personnalisation ni sur l’usage des données des utilisateurs.

Que dit ce rapport ultra fouillé sur les utilisateurs de X.com ? - ©Tada Images/Shutterstock
Que dit ce rapport ultra fouillé sur les utilisateurs de X.com ? - ©Tada Images/Shutterstock
L'info en 3 points
  • X.com publie un rapport de transparence sur sa modération en Europe, répondant aux exigences du DSA 2024.
  • Bien que détaillant la modération, X.com reste muet sur la personnalisation et l'usage des données utilisateur.
  • Le rapport manque de transparence algorithmique, critiqué pour ignorer l'évaluation des risques d'influence algorithmique.

Dans un rapport de transparence long comme un après-midi sans électricité en Espagne, le réseau social d'Elon Musk s'est largement étendu sur la modération des contenus en Europe. Le document couvre une période de six mois, du 1er octobre 2024 au 31 mars 2025, et répond aux obligations imposées par le DSA, en vigueur depuis février 2024 pour les très grandes plateformes. Ce texte de loi impose notamment un suivi renforcé des contenus illicites, un traitement plus rapide des signalements et une plus grande transparence sur les décisions prises.

Dans son rapport, X.com détaille ses moyens techniques et humains pour détecter et supprimer les publications qui enfreignent ses règles ou les lois locales. L’entreprise publie également des statistiques pays par pays sur les demandes reçues et les réponses apportées. En revanche, elle reste muette sur d’autres volets du DSA, comme la transparence des algorithmes, la personnalisation des flux ou la collecte de données utilisateur.

X.com (ex-Twitter)
  • Instantané dans l'information
  • Messages courts
  • Hashtags, tendances, tweet et retweet
8 / 10

L’entreprise se plie à la réglementation européenne sur la modération

Le rapport de transparence publié fin avril couvre les activités de modération de X.com entre octobre 2024 et mars 2025. Il s'agit d'une première réponse formelle aux obligations du DSA, qui impose aux grandes plateformes des comptes rendus réguliers sur leurs pratiques de modération et la gestion des contenus signalés.

Le document y détaille les outils utilisés pour identifier les contenus illégaux, entre détection automatisée et revues humaines. Assez vivement critiquée sur sa modération, l’entreprise cherche visiblement à se refaire la cerise et précise avoir recours à des modèles de traitement du langage, à des systèmes de détection d’images, mais aussi à des méthodes plus simples basées sur des motifs récurrents. Ces contenus peuvent être bloqués automatiquement ou transmis à des modérateurs, selon les cas.

X.com indique que ses équipes disposent d’un service dédié à plein temps, opérationnel 24h/24, capable de traiter les contenus dans plusieurs langues de l’Union. Le rapport mentionne plus de 1 480 personnes affectées à la modération, avec des profils variés et des formations continues. Pour les contenus relevant du droit local, un mécanisme d’escalade vers des juristes est prévu.

Côté chiffres, on trouve un tableau complet sur les ordres de retrait émis par les autorités nationales. Par exemple, entre octobre et mars, la France a transmis 13 demandes concernant des contenus jugés illicites. Dans la majorité des cas, X.com a répondu dans des délais inférieurs à trois heures.

X.com se plie aux règles du DSA, mais pas sur tous les critères - ©Dan74 / Shutterstock

Mais X.com ne donne aucune information sur les utilisateurs ni sur les algorithmes

Malgré cette documentation fournie sur la modération, le rapport reste silencieux sur un point central du DSA : la transparence algorithmique, alors qu'elle était dans le collimateur de la France. Aucun détail n’est donné sur les systèmes de recommandation, ni sur la manière dont les contenus sont personnalisés pour chaque utilisateur.

On ne trouve pas non plus d’indications sur les profils publicitaires, les logiques de ciblage ni sur l’exposition des utilisateurs à certains types de contenus. L’entreprise ne fournit pas d’explication sur la façon dont ses algorithmes influencent la diffusion de l’information ou les tendances visibles sur la plateforme.

Le rapport n’aborde pas non plus les effets systémiques du fonctionnement de X.com. Rien sur les risques de manipulation de l’opinion, l’impact potentiel sur les élections, ni sur les effets des recommandations en boucle sur la santé mentale. Ces sujets font pourtant partie des axes clés visés par le DSA, qui demande aux très grandes plateformes d’évaluer les risques liés à leur design algorithmique et à la viralité.

À la place, X.com met en avant sa politique de signalement, ses outils de modération et son engagement à notifier les utilisateurs concernés en cas de retrait de contenu. On apprend aussi que l’entreprise transmet systématiquement les contenus pédopornographiques détectés à la NCMEC, organisme américain chargé de centraliser les signalements, ce qui est en soi une très bonne nouvelle.

La publication du rapport coche donc la case réglementaire du DSA, mais reste à la surface sur les questions de fond. Le document ressemble davantage à un manuel de modération qu’à une plongée dans le fonctionnement réel de la plateforme. Pour l’instant, X.com choisit de traiter le sujet sous l’angle du contenu illicite. On attend le retour du DSA.

Source : X.com