Les enceintes connectées comprennent mieux les demandes des hommes que celles des femmes

14 mai 2019 à 13h28
6
Assistant domestique

Une étude menée sur les propriétaires d'enceintes connectées montre qu'hommes et femmes ne sont pas égaux dans leur traitement.

Où va-t-on si les robots s'y mettent aussi ? Une étude menée par YouGov sur 1 000 propriétaires d'assistants vocaux a montré que les femmes auraient tendance à être moins bien comprises par l'IA que les hommes. Un constat qui met à mal la promesse de la technologie de traiter chacun de la même façon, mais qui pourrait trouver son origine dans la façon qu'ont les programmeurs d'entraîner les assistants vocaux avant de les mettre sur le marché.

Deux tiers des femmes seraient concernées

Les chiffres ont de quoi faire grincer des dents. Deux tiers des femmes déclarent « souvent » ne pas réussir à se faire comprendre par leur appareil, par rapport à 54% des propriétaires masculins.

Par contraste, 46% des hommes déclarent « rarement » voire ne « jamais » faire face à de problèmes avec leur IA, contre seulement 32% des femmes. Face à cet échec régulier, les femmes auraient d'ailleurs tendance à « parler poliment » à leur assistant vocal : 45% diraient toujours ou souvent « s'il te plaît » et « merci », contre 30% des hommes.



La faute à la technologie ou aux développeurs eux-mêmes ?

TechRadar note qu'un tel écart de traitement pourrait s'expliquer dans la façon dont les IA comme Siri ou Alexa sont entraînées : « Si les programmeurs entraînent l'IA à répondre principalement à des voix masculines, nul doute qu'il aura sûrement du mal à reconnaître des voix féminines par la suite ».

Pour Delip Rao, fondateur et directeur de R7 Speech Sciences, l'erreur de ces IA tient davantage à « une question de technologique qu'à une question de discrimination ». Et pour cause, les voix féminines ont tendance à être plus variées et différentes que celles des hommes, qui ont tendance à être homogènes. Delip Rao encourage ainsi les programmeurs « à entraîner les IA à distinguer les deux en même temps » pour affiner leur acuité sonore.

Le développement des IA de reconnaissance vocale et faciale a tendance à raviver le débat des discriminations : encore récemment, l'IA de reconnaissance faciale d'Amazon, Rekognition, a été accusée de discriminer les personnes noires et transgenres.

Source : TechRadar.

Cyril Garrech-Casanova

Rédacteur couteau-suisse depuis des années, j'aime avant tout écrire sur des sujets qui me passionnent et qui changent profondément le monde : sciences et nouvelles technologies, énergie, business, in...

Lire d'autres articles

Rédacteur couteau-suisse depuis des années, j'aime avant tout écrire sur des sujets qui me passionnent et qui changent profondément le monde : sciences et nouvelles technologies, énergie, business, innovations et autres gadgets en tous genres, rien ne m'arrête ! Avec tout de même un petit penchant pour les sujets business et environnement. Je suis aussi un éternel fan de sushis, de raclette et de Final Fantasy.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (6)

Saulofein
Le problème de reconnaissance faciale est bien connu, cela vient du fait qu’il y a moins d’images libres de droit de personnes de couleurs que de personnes blanches, ce qui par conséquent, limite l’apprentissage de l’IA.<br /> Concernant cette étude en particulier, il y a fort a parier que cela soit pareil. Il faudrait des banques de données plus grandes.
wannted
“Face à cet échec régulier, les femmes auraient d’ailleurs tendance à « parler poliment » à leur assistant vocal : 45% diraient toujours ou souvent « s’il te plaît » et « merci », contre 30% des hommes.”<br /> Dire “merci” à un algo ne le rendra pas plus efficace… et lui parler comme à un vrai être humain aussi, surtout avec Siri.<br /> “Appelle Sarah Blanc” sera toujours mieux compris que “Stp Siri peut-tu appeler Sarah Blanc ?” surtout si l’environnement est légèrement bruyant. Sans compter qu’il faut prendre en compte le débit de la voix etc…
juju251
Il serait bien que les commentaires sur ce genre d’articles ne se transforment pas en allusions sexistes.<br /> Et quand à ceux qui parlent de victimisation systématique des femmes, il faudrait peut être ouvrir les yeux …<br /> Mon commentaire ne nécessite pas de réponse.<br /> Merci.
leulapin
Il existe des microphones pour capter tous types de fréquences (les fréquences de la voix humaine ne sont pas très étendues d’ailleurs et très proches entre femmes et homme).<br /> Et de même des enceintes avec des bandes passantes et courbes de réponse de tous type.<br /> Vous avez une source pour affirmer ça?
leulapin
Le pb de reconnaissance faciale ne vient pas plutôt de contrastes moindres sur les peaux noires, notamment en éclairage artificiel ?<br /> Contrastes moindres qui amènent les photographes à grimper artificiellement en ISO sur les photos de personnes en afrique et qui font ressembler les blancs à des draps blancs sur les clichés
ddrmysti
Tien, je constate qu’on supprime les commentaires qui font remarquer que cette “étude” est bidon, sans rien de sérieux et de concret, avec des chiffres entre les hommes et les femmes relativement proche, et une conclusion basée sur une simple corrélation sans prendre en compte les nombreux facteurs tiers qui pourrait très facilement emmener à ce résultat.<br /> Mais apparemment c’est totalement toléré de hurler au sexisme sans rien avoir de concret à présenter, mais absolument sexiste de le faire remarquer
Voir tous les messages sur le forum
Haut de page

Sur le même sujet