Une intelligence artificielle prétend prédire votre rémunération future en analysant votre visage. L'algorithme utilisé ? Déjà épinglé comme pseudoscience. Mais les chercheurs défendent leur étude : mieux vaut l'évaluer que faire l'autruche.

Une IA prétend prédire les salaires grâce aux traits du visage, mais l'algorithme est pointé du doigt comme pseudoscience. © Shutterstock
Une IA prétend prédire les salaires grâce aux traits du visage, mais l'algorithme est pointé du doigt comme pseudoscience. © Shutterstock

Des universitaires américains ont passé au crible 96 000 photos LinkedIn de diplômés MBA pour en extraire leurs traits de personnalité via une IA. L'algorithme établit ensuite des corrélations avec leur parcours professionnel et leurs revenus. Sauf qu'ils admettent d'emblée leur malaise : la méthode est « fondamentalement discriminatoire ». Alors pourquoi publier ces travaux ? Parce que des entreprises l'utilisent déjà, affirment-ils.

Des banques recrutent déjà avec cette méthode

L'étude analyse les cinq grands traits de personnalité (ouverture, conscience, extraversion, agréabilité, névrosisme) supposément lisibles sur un visage. Les résultats montrent que ces « Photo Big Five » prédisent le niveau d'études, le salaire initial, l'évolution de carrière et les changements de poste avec une précision comparable à la race ou au physique. Marina Niessner, co-autrice et professeure à l'université d'Indiana, le confirme au Register : « Des entreprises comme les banques utilisent déjà des questionnaires de personnalité pour le recrutement, et des sociétés d'IA commencent à appliquer cette analyse du Big Five sur des entretiens vidéo ».

Mais l'algorithme employé pose un sacré problème de crédibilité. Il provient d'une publication scientifique de 2020 citée dans un article de 2024 listant « deux douzaines d'études qualifiées de science poubelle blanchie par le machine learning ». La technique prétend déduire la personnalité autodéclarée à partir de caractéristiques faciales, sans tenir compte du contexte de la photo ni des biais historiques. Autrement dit : elle encode des stéréotypes sociétaux plutôt que des capacités réelles.

Une phrénologie numérique qui inquiète

L'équipe de recherche ne cache pas l'aspect éthique explosif du sujet. « Nous évaluons le pouvoir prédictif du Photo Big Five, mais nous ne préconisons pas son utilisation pour le recrutement », écrivent-ils. Leur argument ? L'environnement réglementaire est flou, et tant que des acteurs privés exploitent déjà ces outils, autant documenter leur fonctionnement pour nourrir le débat réglementaire. Une position bancale qui ressemble à : « Puisqu'on discrimine déjà manuellement sur le physique, pourquoi pas automatiser ? »

Le risque, c'est de ressusciter la physiognomonie, cette pseudoscience du XIXe siècle qui prétendait lire le caractère sur les visages et qui a servi de base au racisme scientifique. Plusieurs États américains durcissent d'ailleurs leurs lois sur l'IA en 2026 : le Maryland exige désormais le consentement pour toute reconnaissance faciale dans l'embauche, tandis que New York impose des audits de biais. L'étude souligne elle-même une contradiction fatale : comment justifier qu'on écarte un candidat parce que son visage prédit trop d'« agréabilité » ? Cette approche viole l'autonomie individuelle et supprime toute incitation à développer ses compétences.

Source : The Register