Des chercheurs mettent en garde contre les dangers induits par l’IA et la reconnaissance faciale

12 décembre 2019 à 16h42
0
Fotolia Reconnaissance faciale

Un groupe de chercheurs américains a publié un rapport pour alerter l'opinion publique quant aux risques engendrés par le recours de plus en plus fréquent aux logiciels d'intelligence artificielle. Ceux-ci seraient notamment employés pour des entretiens d'embauche à distance et promettraient une reconnaissance des émotions du candidat, en dehors de tout fondement scientifique.

L'AI Now Institute (AI Now) est un groupe de recherche de l'université de New York (États-Unis), qui étudie les implications de l'intelligence artificielle sur la société. Dans son rapport annuel publié aujourd'hui, il attire l'attention sur les conséquences néfastes des nouvelles technologies utilisées, qui auraient pour effet de creuser les inégalités.

Recrutement et reconnaissance des émotions

Parmi les usages les plus dangereux selon les chercheurs, figure la reconnaissance faciale, et, plus précisément, l'identification automatique d'émotions. De tels systèmes commenceraient à être employés par les entreprises, pour leurs recrutements, mais également par des services médicaux ou par les autorités publiques.

L'organisme américain cite l'exemple de la société HireVue, qui propose une solution de vidéoconférence pour les entretiens d'embauche. La solution, déjà utilisée par de grandes entreprises telles qu'Unilever ou Hilton, embarquerait une intelligence artificielle capable de reconnaître les émotions des individus, en analysant les mouvements du visage, le ton de la voix ou le débit de parole. Les résultats seraient alors communiqués à l'employeur, mais jamais au candidat. Une approche qui ne reposerait pas sur une démarche véritablement scientifique, d'après AI Now.


Les biais de la technologie

De son côté, HireVue n'a pas souhaité apporter de commentaires sur cette accusation. L'entreprise a toutefois indiqué que sa technologie permettait de contourner les biais humains intervenant dans le recrutement. Une affirmation qui ne serait que partiellement vraie.

En effet, si le recours à un logiciel doit théoriquement garantir une meilleure objectivité, les programmes reposant sur l'IA doivent préalablement être entraînés sur des jeux de données. Or, cette phase d'apprentissage s'appuie sur un état actuel de la situation. Ainsi, par exemple, si des discriminations ont conduit à empêcher des femmes d'accéder à certains métiers, un logiciel pourra avoir tendance à privilégier les hommes pour le même type de poste, aggravant ainsi les discriminations initiales.

Par ailleurs, AI Now rappelle que la manifestation des émotions peut grandement varier selon les cultures. Ces nuances ne seraient pas suffisamment prises en compte par la technologie aujourd'hui, rendant l'analyse peu fiable et pouvant, une nouvelle fois, entraîner des discriminations.


En conséquence, les chercheurs appellent les entreprises à limiter leur recours à l'intelligence artificielle et les gouvernements à encadrer strictement son utilisation et ce, jusqu'à ce que les risques associés soient pleinement mesurés.

Source : Reuters
Modifié le 12/12/2019 à 18h00
2
3
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

Voitures électriques : le réseau de chargeurs Ionity facturera désormais au kWh
HP désactive vos cartouches d’encre à distance en cas de résiliation à son service d’abonnement
Taxation du numérique : après une discussion Macron/Trump, la taxe provisoirement suspendue
Réforme de l'audiovisuel : du cinéma chaque jour de la semaine sur les chaînes gratuites ?
Démarchage téléphonique : plusieurs associations lancent une pétition pour y mettre fin
La police va pouvoir extraire toutes les données de vos smartphones en 10 minutes chrono
Rachat de Maxwell : Elon Musk s'exprime enfin sur l'impact sur les batteries Tesla
Lucid Air : la berline électrique concurrente de la Model S ouvre ses précommandes en France
L'ESA travaille sur une usine capable de transformer la poussière de Lune en oxygène
La Toyota Mirai propulsée à l'hydrogène, prévue en 2020, promet 650 km d'autonomie

Notre charte communautaire

1. Participez aux discussions

Nous encourageons chacun à exprimer ses idées sur les sujets qui l'intéressent, et à faire profiter l'ensemble de la communauté de son expertise sur un sujet particulier.

2. Partagez vos connaissances

Que vous soyez expert ou amateur passionné, partagez vos connaissances aux autres membres de la communauté pour enrichir le niveau d'expertise des articles.

3. Échangez vos idées

Donnez votre opinion en étayant votre propos et soyez ouverts aux idées des autres membres de la communauté, même si elles sont radicalement différentes des vôtres.

4. Faites preuve de tolérance

Qu'il s'agisse de rédacteurs professionnels ou amateurs, de lecteurs experts ou passionnés, vous devez faire preuve de tolérance et vous placer dans une démarche d'entraide.

5. Restez courtois

Particulièrement lorsque vous exprimez votre désaccord, critiquez les idées, pas les personnes. Évitez à tout prix les insultes, les attaques et autres jugements sur la forme des messages.

6. Publiez des messages utiles

Chaque participation a vocation à enrichir la discussion, aussi les partages d'humeurs personnelles ne doivent pas venir gêner le fil des échanges.

7. Soignez votre écriture

Utilisez la ponctuation, prohibez le langage SMS et les majuscules, relisez-vous afin de corriger un peu les fautes de frappe et de français : trop de fautes n’engagent ni à lire le message, ni à répondre à une question.

8. Respectez le cadre légal

Ne publiez pas de contenus irrespectueux, racistes, homophobes, obscènes ou faisant l'apologie de courants radicaux, qu'ils soient politiques ou religieux. N'utilisez pas plusieurs comptes utilisateurs.

9. Ne faites pas de promotion

Ne profitez pas d'une discussion pour faire la publicité d'un produit, d'un service ou même de votre site web personnel.

10. Ne plagiez pas

Exprimez uniquement vos opinions ou partagez des idées en citant vos sources.

scroll top