Une étude récente montre que les femmes utilisent l'IA au travail moins souvent que les hommes et en reçoivent moins de crédit. Et l'Organisation internationale du Travail estime que leurs métiers sont presque deux fois plus menacés par l'automatisation.

33 % des hommes disent recourir à l'IA quotidiennement au travail, contre 27 % des femmes, et l'écart va plus loin que la fréquence : les hommes sont 27 % plus souvent félicités pour cette utilisation, et 23 % plus encouragés par leur hiérarchie à adopter ces outils. Quand une femme utilise l'IA, elle le fait souvent sans soutien institutionnel, parfois en craignant d'être perçue comme une tricheuse. 29 % des femmes interrogées ont exprimé cette inquiétude, contre 22 % des hommes.
L'étude, menée par l'organisation Lean In explique que les biais ne viennent pas seulement des usages, ils viennent aussi de la conception des outils.
Seulement 14 % des postes de direction dans les entreprises spécialisées en IA sont occupés par des femmes, ce qui influe directement sur les données d'entraînement et les choix de conception. Des chercheurs de Stanford ont montré que ChatGPT associe des pronoms masculins au terme « programmeur » dans 83 % des cas, et féminins à « infirmière » dans 91 % et même quand on lui demande explicitement d'éviter ces raccourcis.
En 2026, des outils de tri de CV ont favorisé les noms à consonance blanche dans 85 % des cas et les noms masculins dans 52 % des cas. Le modèle apprend du monde tel qu'il a été construit, pas tel qu'il pourrait être.
Les femmes utilisent moins l'IA, mais leurs métiers sont les plus exposés à l'automatisation
Les femmes adoptent l'IA moins vite et moins sereinement, or leurs métiers sont précisément ceux que l'automatisation cible en priorité. Selon un rapport de l'OIT publié le 5 mars 2026 et portant sur 84 pays, 29 % des professions à dominante féminine sont exposées à l'IA générative, contre 16 % des professions masculinisées. Secrétariat, comptabilité, saisie de données, service client : autant de secteurs au sein desquels les femmes sont surreprésentées et où les modèles progressent le plus vite.
Marie-Sophie Zambeaux est coauteure de L'intelligence artificielle au service des RH (2025), parle de « biais de deuxième ordre » : l'IA ne crée pas de préjugés qui n'existaient pas, mais introduit des déclinaisons techniques et algorithmiques de biais anciens. Un biais de style, par exemple, qui valorise un registre d'écriture jugé idéal, parfois celui d'un texte généré par l'IA elle-même. Ces mécanismes amplifient des inégalités existantes sans en créer de visiblement nouvelles, ce qui les rend difficiles à détecter.

Plus critiques envers l'IA, les femmes risquent d'accumuler du retard sur le marché du travail
Les femmes sont 38 % plus susceptibles que les hommes d'avoir des réserves éthiques à l'égard de l'IA, et 29 % plus enclines à questionner sa fiabilité.
Ce scepticisme est souvent fondé. Pourtant, lorsque les évolutions de carrière sont conditionnées à la maîtrise de l'IA, cette prudence se traduit par un retard d'adoption aux conséquences concrètes.
Selon Anna Sotnikova, chercheuse à l'EPFL, note que les tentatives de correction des biais impliquent souvent des compromis, et que de nouveaux défis émergent sitôt qu'un problème est résolu. Les modèles récents produisent des résultats plus équilibrés sur certains stéréotypes visuels, mais des distinctions subtiles persistent.
En France, la sous-représentation des femmes dans les filières du numérique pèse directement sur leur affirmation dans le développement des usages de l'IA. 19 % des femmes interrogées par Lean In prédisent que l'IA licenciera davantage de femmes que d'hommes, contre 8 % des hommes. Au même moment, 16 % des professions féminisées relèvent des niveaux d'exposition à l'IA les plus élevés, pour seulement 3 % des professions dominées par les hommes.
Il semble que les inégalités de genre au travail perdurent, et que l'IA ne fasse que les reproduire.
Source : Digital Trends