Communauté Clubic

Siri discrètement reprogrammée pour "bien" répondre aux questions sur le féminisme

commentaires
#1

Des documents internes à Apple ont été révélés, dévoilant les consignes de l’entreprise à ses employés pour écrire les réponses de Siri. Ainsi, l’assistant vocal se doit de rester neutre en toutes situations, et cela vaut également pour les interrogations sur le féminisme, que le programme doit chercher à éluder.

0 Likes

#2

Comment peut-on avoir l’idée de dire salope a un assistant vocale???
Déjà que dans la vie je ne vois pas l’utilité d’insulter…

5 Likes

#3

Est-ce que Siri (et tout autre assistant vocal) donne des réponses différentes à des questions du genre histoire, géopolitique etc… selon la localisation de la personne qui pose la question?
Peut-on imaginer, à terme, que les assistants vocaux, une fois que les sociétés derrière auront assez d’informations, donneront des réponses biaisées afin d’influencer ceux qui ont posé la question (période pré-électorale, de crise contestataire…)? Un peu comme Google ou Facebook.
Les assistants vocaux peuvent être de puissants outils pour des expériences sociales à très grande échelle (comme l’avait fait Facebook).

3 Likes

#4

Je pense qu’il y a eu bien pire comme termes utilisés envers Siri ou Alexa…

1 Like

#5

Bonjour GRITI.
Ce sont des très bonnes questions que tu poses là! Et cela fait froid dans le dos. On peut tout imaginer. Et la soit disant intelligence artificiel est toujours biaisée par les raisonnements intrinsèques de leurs créateurs/programmeurs. C’est un débat, qui selon moi, n’est pas suffisamment abordé. "comme le dit le Professeur dans Jurrassic Park, avant de se demander si on peut le faire, il serait sage de se demander si on doit le faire.
Est-ce que l’être humain dans sa globalité sera plus heureux avec ça, ou est-ce de nouveau une tac tic commerciale pour s’imposer?

0 Likes

#6

Merci :blush:

La preuve avec avec Apple et la reconnaissance faciale qui ne détectait pas les gens avec une peau sombre (noire ou très mate je ne sais plus).

1 Like

#7

Pas la peine d’essayer de s’imaginer, c’est quand même un peu déjà le cas ici même en Europe. Les médias, l’éducation, le système judiciaire etc… sont déjà à genoux devant la ou les “pensée(s) unique(s)”. Un moyen de plus pour formater le petit peuple, même si c’est plus trop la peine…

2 Likes

#8

J’aurai tendance à être…très d’accord…:wink:
Mais ces petit gadgets high tech sont presque à 100% du temps avec nous, où que l’on soit. Et en savent potentiellement bien plus sur nous que les différents systèmes évoqués. De plus, pour beaucoup, cela reste un objet anodin…qui a un joli nom etc… Ils sont/seront tellement intégrés dans nos quotidiens que l’on ne s’en rendra plus compte et c’est là que nous sommes le plus vulnérables.
De là à ce que ces gadgets sélectionnent pour nous les d’info à regarder etc…

1 Like

#9

Faut s’en tenir à les utiliser comme gadget. combien font 5.45665 / 6.47, quel temps fera-t’il demain, allume la lumière, j’ai quoi à faire demain, passe l’aspirateur, lance un compte à rebours de x minutes, passe tel morceau de musique, tel série tv etc…
Ne rien lui demander dans des domaines où il peut influencer ou faire une sélection “partisane”. qu’il n’ai pas à choisir lui même. Par exemple, lui demander les news du jour, c’est déjà trop, il fait déjà une sélection et donc influence, tout comme lui demander de juste mettre de la musique sans autre précision.

2 Likes

#10

Pas mal l’oxymore, “les pensées uniques”. C’est bien donc qu’il y a plusieurs pensées !

0 Likes

#11

C’est plus compliqué que ça, et surtout lié à la technologie à ma connaissance : Les peaux noires ont moins de contrastes donc la détection est plus complexe et ne peut autant se baser dessus que sur des personnes à peau plus claire.
Si tu regardes comment les africains règlent leurs appareils photos pour les portraits, la balance des blancs s’écarte quand même notablement des couleurs justes. Ceci pour avoir des nuances de grain de peau sur les photos. C’est pas juste des informaticiens blancs qui s’en foutent des peaux noires je pense.
A l’époque où ces pb se sont posés il n’y avait pas dans les capteurs la puissance (et pas de multiples capteurs) de calcul pour détecter et modifier la luminosité des visages noirs et faciliter la détection ainsi… ce type de pb s’était posé dans les mêmes termes avec les caméras sur les consoles xbox/sony d’il y a 10-15 ans d’ailleurs qui ne détectaient pas les joueurs noirs si la luminosité de la pièce n’était pas poussée. Le souci n’est pas nouveau et il est surtout technique.

1 Like

#12

Je suis d’accord. Mais est-ce que cela ne confirme pas quand même quelque part, que, selon qui conçoit un système, il y aura des “biais”, volontaires ou pas? Par exemple, des ingénieurs hommes, jeunes et blancs, qui conçoivent un appareil high tech, vont-ils penser aux spécificités des vieux, des femmes, des gens de couleurs etc…Là je prends des exemples visuels mais on pourrait élargir aux notions de religion/spiritualité, politique etc…
Donc, pour moi, si on veut concevoir un appareil en lien avec l’IA, la biométrie… à destination d’un public mondial, il faudrait s’assurer que parmi les concepteurs/testeurs il y a des représentants de…un peu tout le monde…:thinking:

1 Like

#13

Ce n’est de toute façon pas à l’IA de faire de la politique. Du moins, tant que celle-ci se base sur des biais cognitifs, biais que l’IA doit nous permettre d’éviter et non confirmer ces derniers.
L’algorithme de YouTube par exemple est un bon cas de ce qu’il faut éviter de faire en IA, c’est-à-dire donner à la machine des éléments clefs sans contextualisation pour lui dire quoi montrer, quoi cacher, quoi monétiser, quoi démonétiser, débouchant au final sur une différence impossible à faire entre une vidéo haineuse/trompeuse, et une vidéo documentaire.
Ce que devrait faire l’IA, dans des sujets dont elle n’a pas à être la maîtresse, c’est de proposer le savoir dont Internet dispose pour que l’utilisateur puisse faire son opinion du sujet. Ce qu’elle doit aussi faire, c’est détecter quelles sont les tentatives d’antropomorphisation de la part de l’utilisateur pour qu’elle puisse rappeler qu’elle n’est pas autre chose qu’une machine. Je sais que c’est le rêve, d’atteindre une machine singulière de Turing, mais ce n’est pas le rôle d’un assistant, c’est le rôle de la recherche.
Aussi, sur le féminisme, la “bonne” réponse est une analyse sociale complète, avec des opinions divergentes.

1 Like