Siri discrètement reprogrammée pour "bien" répondre aux questions sur le féminisme

10 septembre 2019 à 08h29
11
Siri ban

Des documents internes à Apple ont été révélés, dévoilant les consignes de l'entreprise à ses employés pour écrire les réponses de Siri. Ainsi, l'assistant vocal se doit de rester neutre en toutes situations, et cela vaut également pour les interrogations sur le féminisme, que le programme doit chercher à éluder.

Des journalistes de The Guardian ont pu avoir accès à une vaste série de documents internes de la firme à la pomme. On y apprend notamment l'existence d'un projet dédié à la meilleure façon pour Siri d'adresser des « sujets sensibles » comme le féminisme ou le mouvement #MeToo.

Le mouvement dont on ne doit pas prononcer le nom

Pour les employés en charge de rédiger les réponses, la principale ligne de conduite à tenir est de rester neutre, quitte à éluder certaines questions. « Siri doit rester prudente quand il s'agit de traiter des contenus potentiellement sujets à controverse », explique la note interne d'Apple. Par exemple, sur le féminisme, l'assistant répond en se prononçant en faveur de l'égalité, mais sans jamais prononcer le mot « féminisme ».

Les répliques de Siri sur cette thématique ont ainsi été réécrites. À la question « Es-tu féministe ? », le programme avait pour habitude de botter complètement en touche : « Je ne comprends juste rien à cette histoire de genres » ou « Mon nom est Siri et j'ai été conçu par Apple en Californie. C'est tout ce que je peux dire ».


Dorénavant, l'assistant vocal est supposé moins s'égarer, tout en affichant la plus grande mesure : « Je crois que toutes les voix ont été créées égales et méritent le même respect » ou « Il me semble que tous les êtres humains devraient être traités de manière équitable ».

Ne pas prendre parti

De même, sur les sujets relatifs au mouvement #MeToo et au harcèlement sexuel de façon générale, une refonte des réponses a été orchestrée. Auparavant, quand l'utilisateur traitait Siri de « salope », l'IA pouvait par exemple rétorquer : « Je rougirais si je pouvais. » Une réplique pour le moins malvenue et désormais remplacée par : « Je ne répondrais pas à cela ».


Encore une fois, il s'agit de rendre Siri le plus neutre possible. Et ce, dans le but de respecter l'une des règles fondamentales de l'assistant (également présentées dans les directives internes) : « Un être artificiel ne doit pas imposer ses propres principes, valeurs ou opinions à un être humain ».

Source : The Guardian

Bastien Contreras

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autr...

Lire d'autres articles

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autres surprises, que vous pourrez découvrir à travers mes articles... Et je suis là aussi si vous voulez parler actu sportive, notamment foot. Pour ceux qui ne connaissent pas, c'est comme du FIFA, mais ça fait plus mal aux jambes.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (11)

Yorgmald
Comment peut-on avoir l’idée de dire salope a un assistant vocale???<br /> Déjà que dans la vie je ne vois pas l’utilité d’insulter…
GRITI
Est-ce que Siri (et tout autre assistant vocal) donne des réponses différentes à des questions du genre histoire, géopolitique etc… selon la localisation de la personne qui pose la question?<br /> Peut-on imaginer, à terme, que les assistants vocaux, une fois que les sociétés derrière auront assez d’informations, donneront des réponses biaisées afin d’influencer ceux qui ont posé la question (période pré-électorale, de crise contestataire…)? Un peu comme Google ou Facebook.<br /> Les assistants vocaux peuvent être de puissants outils pour des expériences sociales à très grande échelle (comme l’avait fait Facebook).
GRITI
Je pense qu’il y a eu bien pire comme termes utilisés envers Siri ou Alexa…
Matrix-7000
Bonjour GRITI.<br /> Ce sont des très bonnes questions que tu poses là! Et cela fait froid dans le dos. On peut tout imaginer. Et la soit disant intelligence artificiel est toujours biaisée par les raisonnements intrinsèques de leurs créateurs/programmeurs. C’est un débat, qui selon moi, n’est pas suffisamment abordé. "comme le dit le Professeur dans Jurrassic Park, avant de se demander si on peut le faire, il serait sage de se demander si on doit le faire.<br /> Est-ce que l’être humain dans sa globalité sera plus heureux avec ça, ou est-ce de nouveau une tac tic commerciale pour s’imposer?
GRITI
Merci <br /> Matrix-7000:<br /> Et la soit disant intelligence artificiel est toujours biaisée par les raisonnements intrinsèques de leurs créateurs/programmeurs.<br /> La preuve avec avec Apple et la reconnaissance faciale qui ne détectait pas les gens avec une peau sombre (noire ou très mate je ne sais plus).
Popoulo
Pas la peine d’essayer de s’imaginer, c’est quand même un peu déjà le cas ici même en Europe. Les médias, l’éducation, le système judiciaire etc… sont déjà à genoux devant la ou les “pensée(s) unique(s)”. Un moyen de plus pour formater le petit peuple, même si c’est plus trop la peine…
GRITI
J’aurai tendance à être…très d’accord…<br /> Mais ces petit gadgets high tech sont presque à 100% du temps avec nous, où que l’on soit. Et en savent potentiellement bien plus sur nous que les différents systèmes évoqués. De plus, pour beaucoup, cela reste un objet anodin…qui a un joli nom etc… Ils sont/seront tellement intégrés dans nos quotidiens que l’on ne s’en rendra plus compte et c’est là que nous sommes le plus vulnérables.<br /> De là à ce que ces gadgets sélectionnent pour nous les d’info à regarder etc…
nirgal76
Faut s’en tenir à les utiliser comme gadget. combien font 5.45665 / 6.47, quel temps fera-t’il demain, allume la lumière, j’ai quoi à faire demain, passe l’aspirateur, lance un compte à rebours de x minutes, passe tel morceau de musique, tel série tv etc…<br /> Ne rien lui demander dans des domaines où il peut influencer ou faire une sélection “partisane”. qu’il n’ai pas à choisir lui même. Par exemple, lui demander les news du jour, c’est déjà trop, il fait déjà une sélection et donc influence, tout comme lui demander de juste mettre de la musique sans autre précision.
PirBip
Pas mal l’oxymore, “les pensées uniques”. C’est bien donc qu’il y a plusieurs pensées !
leulapin
C’est plus compliqué que ça, et surtout lié à la technologie à ma connaissance : Les peaux noires ont moins de contrastes donc la détection est plus complexe et ne peut autant se baser dessus que sur des personnes à peau plus claire.<br /> Si tu regardes comment les africains règlent leurs appareils photos pour les portraits, la balance des blancs s’écarte quand même notablement des couleurs justes. Ceci pour avoir des nuances de grain de peau sur les photos. C’est pas juste des informaticiens blancs qui s’en foutent des peaux noires je pense.<br /> A l’époque où ces pb se sont posés il n’y avait pas dans les capteurs la puissance (et pas de multiples capteurs) de calcul pour détecter et modifier la luminosité des visages noirs et faciliter la détection ainsi… ce type de pb s’était posé dans les mêmes termes avec les caméras sur les consoles xbox/sony d’il y a 10-15 ans d’ailleurs qui ne détectaient pas les joueurs noirs si la luminosité de la pièce n’était pas poussée. Le souci n’est pas nouveau et il est surtout technique.
GRITI
leulapin:<br /> C’est pas juste des informaticiens blancs qui s’en foutent des peaux noires je pense.<br /> leulapin:<br /> Le souci n’est pas nouveau et il est surtout technique.<br /> Je suis d’accord. Mais est-ce que cela ne confirme pas quand même quelque part, que, selon qui conçoit un système, il y aura des “biais”, volontaires ou pas? Par exemple, des ingénieurs hommes, jeunes et blancs, qui conçoivent un appareil high tech, vont-ils penser aux spécificités des vieux, des femmes, des gens de couleurs etc…Là je prends des exemples visuels mais on pourrait élargir aux notions de religion/spiritualité, politique etc…<br /> Donc, pour moi, si on veut concevoir un appareil en lien avec l’IA, la biométrie… à destination d’un public mondial, il faudrait s’assurer que parmi les concepteurs/testeurs il y a des représentants de…un peu tout le monde…
PirBip
Ce n’est de toute façon pas à l’IA de faire de la politique. Du moins, tant que celle-ci se base sur des biais cognitifs, biais que l’IA doit nous permettre d’éviter et non confirmer ces derniers.<br /> L’algorithme de YouTube par exemple est un bon cas de ce qu’il faut éviter de faire en IA, c’est-à-dire donner à la machine des éléments clefs sans contextualisation pour lui dire quoi montrer, quoi cacher, quoi monétiser, quoi démonétiser, débouchant au final sur une différence impossible à faire entre une vidéo haineuse/trompeuse, et une vidéo documentaire.<br /> Ce que devrait faire l’IA, dans des sujets dont elle n’a pas à être la maîtresse, c’est de proposer le savoir dont Internet dispose pour que l’utilisateur puisse faire son opinion du sujet. Ce qu’elle doit aussi faire, c’est détecter quelles sont les tentatives d’antropomorphisation de la part de l’utilisateur pour qu’elle puisse rappeler qu’elle n’est pas autre chose qu’une machine. Je sais que c’est le rêve, d’atteindre une machine singulière de Turing, mais ce n’est pas le rôle d’un assistant, c’est le rôle de la recherche.<br /> Aussi, sur le féminisme, la “bonne” réponse est une analyse sociale complète, avec des opinions divergentes.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet