Les GAFA utilisent un outil "douteux" mesurant la dangerosité d’un individu par sa voix

28 novembre 2018 à 08h41
16
voix smartphone vocal fotolia

Les géants du web utilisent un outil permettant de déterminer si un individu est jugé « à risque » ou dangereux par la simple analyse de sa voix et sa diction. George Orwell n'est pas loin.

Une solution permettant de classer les individus uniquement par leurs intonations

AC Global Risk est une très jeune start-up, créée en 2016, mais qui impose déjà ses solutions dans les plus grandes entreprises de technologie américaines. La petite société développe un outil automatisé, RRA, permettant d'analyser le comportement d'un individu par sa voix.

Concrètement, le système génère un questionnaire dont les réponses doivent être « oui » ou « non ». Cet interview d'une dizaine de minutes est mené par téléphone et une intelligence artificielle analyse en temps réel les réponses données, mais surtout la manière dont elles sont énoncées.

De cette manière, l'outil peut produire une évaluation selon une grille d'analyse précise donnant le niveau de risque d'un individu, qu'il soit un candidat à un entretien d'embauche, mais également un réfugié ou un demandeur d'asile comme l'explique sans gêne le fondateur d'AC Global Risk, Alex Martin : « RRA est la solution à la monumentale crise des réfugiés que connaissent actuellement les États-Unis et d'autres pays. ». Donald Trump appréciera.

Une solution très utilisée qui pose un problème éthique

Le magazine en ligne The Inetrcept note dans son article la liste des clients actuels de la jeune start-up et ils sont nombreux. Apple, Facebook, Google utilisent déjà le système, possiblement dans les phases de recrutement de leurs employés. L'Armée américaine est également citée comme l'un de ses clients, notamment dans le déroulement des opérations militaires en Afghanistan.

Pourtant le système, présenté comme infaillible par AC Global Risk suscite de nombreux commentaires des chercheurs en sécurité et experts en analyse vocale. « Il y a des informations dans les changements dynamiques de la voix et cet outil les détecte », explique Alex Todorov, psychologue de l'Université de Princeton qui étudie la science de la perception sociale et des premières impressions, en ajoutant toutefois que « la question est de savoir dans quelle mesure ces informations permettent de détecter sans ambiguïté la catégorie de personnes qu'elles définissent comme risquées. Il y a toujours de l'ambiguïté dans ce type de signaux ».

AC Global Risk ne fait aucun commentaire et refuse d'expliquer comment fonctionne sa technologie de reconnaissance vocale et d'analyse, Alex Martin ne communiquant que sur le chiffre de 97% d'exactitude dans les évaluations données.

À une époque où les usages de l'intelligence artificielle sont toujours plus importants, l'existence d'un tel système va relancer les débats autour de l'éthique à donner à l'utilisation des algorithmes par les entreprises et les pouvoirs publics.
16
0
Partager l'article :
Voir tous les messages sur le forum

Actualités récentes

Windows 10 20H2 (octobre 2020) : dates, nouveautés, tout savoir sur la mise à jour
L'éditeur Devolver Digital rachète Croteam (Serious Sam)
PayPal va proposer des paiements en crypto-monnaies dès 2021
Fortnite : le patch 14.40 réduit considérablement l'espace disque nécessaire
Le chargeur Apple MagSafe fonctionne aussi sur le Galaxy Z Fold 2 et le Google Pixel 5
DxO dévoile PhotoLab 4 : de nouveaux outils et du deeplearning au service de vos photos
Dropbox lance son offre Famille à 19,99€/mois
Ghost of Tsushima : une suite déjà en préparation ?
Essai du Range Rover Autobiography P400e : l’hybridation royale
Bon Plan pCloud : l'offre de stockage en ligne premium 500Go à -65%
scroll top