Les GAFA utilisent un outil "douteux" mesurant la dangerosité d’un individu par sa voix

28 novembre 2018 à 08h41
16
voix smartphone vocal fotolia

Les géants du web utilisent un outil permettant de déterminer si un individu est jugé « à risque » ou dangereux par la simple analyse de sa voix et sa diction. George Orwell n'est pas loin.

Une solution permettant de classer les individus uniquement par leurs intonations

AC Global Risk est une très jeune start-up, créée en 2016, mais qui impose déjà ses solutions dans les plus grandes entreprises de technologie américaines. La petite société développe un outil automatisé, RRA, permettant d'analyser le comportement d'un individu par sa voix.

Concrètement, le système génère un questionnaire dont les réponses doivent être « oui » ou « non ». Cet interview d'une dizaine de minutes est mené par téléphone et une intelligence artificielle analyse en temps réel les réponses données, mais surtout la manière dont elles sont énoncées.

De cette manière, l'outil peut produire une évaluation selon une grille d'analyse précise donnant le niveau de risque d'un individu, qu'il soit un candidat à un entretien d'embauche, mais également un réfugié ou un demandeur d'asile comme l'explique sans gêne le fondateur d'AC Global Risk, Alex Martin : « RRA est la solution à la monumentale crise des réfugiés que connaissent actuellement les États-Unis et d'autres pays. ». Donald Trump appréciera.

Une solution très utilisée qui pose un problème éthique

Le magazine en ligne The Inetrcept note dans son article la liste des clients actuels de la jeune start-up et ils sont nombreux. Apple, Facebook, Google utilisent déjà le système, possiblement dans les phases de recrutement de leurs employés. L'Armée américaine est également citée comme l'un de ses clients, notamment dans le déroulement des opérations militaires en Afghanistan.

Pourtant le système, présenté comme infaillible par AC Global Risk suscite de nombreux commentaires des chercheurs en sécurité et experts en analyse vocale. « Il y a des informations dans les changements dynamiques de la voix et cet outil les détecte », explique Alex Todorov, psychologue de l'Université de Princeton qui étudie la science de la perception sociale et des premières impressions, en ajoutant toutefois que « la question est de savoir dans quelle mesure ces informations permettent de détecter sans ambiguïté la catégorie de personnes qu'elles définissent comme risquées. Il y a toujours de l'ambiguïté dans ce type de signaux ».

AC Global Risk ne fait aucun commentaire et refuse d'expliquer comment fonctionne sa technologie de reconnaissance vocale et d'analyse, Alex Martin ne communiquant que sur le chiffre de 97% d'exactitude dans les évaluations données.

À une époque où les usages de l'intelligence artificielle sont toujours plus importants, l'existence d'un tel système va relancer les débats autour de l'éthique à donner à l'utilisation des algorithmes par les entreprises et les pouvoirs publics.

Soyez toujours courtois dans vos commentaires et respectez le réglement de la communauté.

16
0
Voir tous les messages sur le forum

Actualités récentes

Nouvelle baisse de prix sur la carte mémoire SanDisk Extreme 128 Go + adaptateur SD
Offrez une liseuse pour Noël : la Kindle Paperwhite est à moins de 100€ sur Amazon
Le télescope australien ASKAP a cartographié 3 millions de galaxies en 300 heures
C'est le Black Friday chez Norton ! La solution Norton 360 Deluxe à prix choc
Idée cadeau de Noël : cette enceinte Bose SoundLink Mini II à -40 % chez Darty
Les meilleurs bons plans high-tech du Black Friday chez Amazon et Cdiscount
La barre de son Samsung Harman Kardon HW-Q70T à prix fou pour le Black Friday
La Smart TV Samsung Incurvé LED 4K UHD 49 pouces à prix cassé pour le Black Friday
Airbnb : une valorisation évoquée à 35 milliards, est-ce bien raisonnable ?
L'abonnement NordVPN au prix choc de 2,80€/mois pour le Black Friday
Haut de page