France Travail est soupçonné de recourir à des systèmes algorithmiques pour surveiller les demandeurs d’emploi. Cette pratique soulève des préoccupations en matière de transparence, de protection des données personnelles et de respect des droits fondamentaux.

L'enseigne France Travail © HJBC / Shutterstock.com
L'enseigne France Travail © HJBC / Shutterstock.com
L'info en 3 points
  • France Travail intègre l'intelligence artificielle générative dans ses processus, utilisant des algorithmes pour le contrôle des demandeurs d'emploi.
  • L'ONG La Quadrature du Net révèle l'utilisation par France Travail de « degrés de suspicion » afin d'automatiser les contrôles.
  • L'opacité des méthodes de France Travail soulève des inquiétudes, malgré la loi visant à optimiser l'efficacité du contrôle des demandeurs d'emploi.

France Travail n'a pas attendu bien longtemps pour intégrer l'intelligence artificielle générative et les algorithmes à ses processus d'accompagnement des demandeurs d'emploi. Depuis le début de l'année, les conseillers France Travail dans certaines agences peuvent utiliser un chatbot qui les assiste lors d'un rendez-vous afin de trouver les offres les plus adéquates. L'organisme utiliserait aussi les algorithmes pour une autre activité : le contrôle automatique des demandeurs d'emploi.

Des algorithmes utilisés pour orienter et densifier les contrôles

C'est La Quadrature du Net qui révèle cette information. Selon l'association, France Travail aurait déployé des « robots visant à automatiser et massifier le contrôle des personnes inscrites à France Travail » dans le cadre du « Contrôle de la Recherche d’Emploi rénové ».

L'objectif de France Travail serait d'automatiser au maximum les contrôles réalisés sur les demandeurs d'emploi par des algorithmes qui traiteraient et analyseraient les différentes données en personnelles en sa possession.

Les chômeurs seraient ensuite classés en fonction de différents « degrés de suspicion », avec trois niveaux : « clôture » (pas de suspicion), « clôture potentielle » (suspicion moyenne) ou « contrôle potentiel » (suspicion forte). Ces données sont ensuite accessibles aux contrôleuses et contrôleurs qui peuvent ainsi diriger leurs travaux sur un nombre de personnes afin de gagner en efficacité.

Un « profilage policier » qui viserait les personnes en situation précaire

Cette mesure, qui fait partie de la loi « Plein emploi » adoptée par le Parlement en décembre 2023 et en vigueur depuis le 1er janvier 2025, vise à améliorer l'efficacité de France Travail, avec un objectif d'1,5 million de contrôles en 2027. En 2024, France Travail avait réalisé 600 000 contrôles, un chiffre déjà multiplié par trois par rapport à 2017.

La Quadrature du Net tire la sonnette d'alarme et dénonce l'opacité dans laquelle se réfugie France Travail. L'agence publique ne souhaiterait pas révéler les détails techniques et les méthodes de classement utilisées pour tirer les demandeurs d'emploi et établir les contrôles.

Selon l'ONG qui a fait ses propres recherches et analyses, France Travail se baserait sur quelques critères comme « l’absence de périodes récentes de travail ou de formation, l’absence de mobilisation des outils numériques mis à disposition par France Travail (offres, CV ou carte de visite en ligne), l’absence de contact avec son ou sa conseiller·ère, les résultats des derniers contrôles de recherche d’emploi, l’absence de candidatures envoyées via le site de France Travail ou encore le non-respect des 15 « heures d’activité » prévue par la loi Plein Emploi ».

Un « profilage policier » selon l'association qui dénonce une « politique de répression et à la paupérisation des personnes sans-emplois » et des personnes au RSA, qui doivent désormais justifier de 15 heures d'activité par semaine pour toucher une allocation.