Certains sous-traitants d’Apple peuvent écouter vos conversations grâce à Siri

23
Siri

Apple ne serait pas aussi à cheval sur la confidentialité qu'elle le prétend. Des employés auraient en effet accès aux fichiers audio enregistrés par l'assistant, y compris des conversations privées.

La confidentialité est l'un des axes de communication d'Apple depuis de nombreuses années. La firme américaine met un point d'honneur à mettre en avant ses systèmes de sécurité et de chiffrement, censés protéger les données personnelles de ses clients.

Des enregistrements accidentels qui révèlent des détails très intimes de la vie des utilisateurs

Cependant, Apple ne serait pas aussi précautionneuse qu'elle voudrait le faire croire. The Guardian a pu interroger des sous-traitants d'Apple chargés d'écouter des extraits audio enregistrés par l'assistant vocal Siri à des fins d'analyse et d'amélioration du service.

Normalement, l'assistant vocal ne se met en marche que lorsque l'utilisateur a prononcé l'expression « Dis Siri&,nbsp;». Mais sur l'Apple Watch, où lever le poignet suffit à activer l'assistant, où sur le Homepod, l'enceinte connectée installée dans les salons, il n'est pas rare que Siri se déclenche par accident et laisse ses oreilles traîner de longues secondes à l'insu des utilisateurs.

Les sous-traitant ont alors accès à des conversations très intimes, comme l'explique l'un d'entre eux : « Parfois, on entend un docteur parler de l'historique médical d'un patient. Ou vous pouvez entendre quelqu'un, avec un bruit de moteur au fond, en train de dealer de la drogue. Et vous pouvez aussi écouter des gens en train de faire l'amour, et qui s'enregistrent accidentellement sur le HomePod ou la montre ».

Apple doit réagir vite pour rester en phase avec ses grands principes

Si Apple envoie ces fichiers audio à ses partenaires de manière anonymisée, bien souvent, les personnes écoutées mentionnent des noms ou des adresses qui les identifient, elles ou leurs proches.

Selon Apple, toutes les requêtes formulées à Siri sont conservées durant six mois pour l'apprentissage automatique de l'assistant. Une autre copie est conservée durant deux ans cette fois, mais n'est liée à aucun compte Apple, et peut être soumise à une écoute humaine. Google procède exactement de la même manière avec son Google Assistant.

La seule solution pour éviter ces problèmes, sans stopper toutes les procédures d'amélioration du service, serait que Siri se déclenche de manière moins accidentelle, uniquement lorsque l'utilisateur l'a décidé.

Apple n'a pas le choix et doit réagir au plus vite, pour ne pas voir son image de chevalier blanc de la confidentialité sérieusement écornée par cette affaire.

Source : The Guardian
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (23)

Vanilla
Et vous pouvez aussi écouter des gens en train de faire l’amour,<br /> bien souvent, les personnes écoutées mentionnent des noms ou des adresses qui les identifient<br /> petite astuce les gens: ARRÊTEZ DE CRIER VOTRE ADRESSE QUAND VOUS FAITES L’AMOUR!! C’est compris ??
Blues_Blanche
Conclusion, ne mettez pas un micro chez vous !<br /> Et que fait le législateur !<br /> Espionner chez les gens devait coûter très chère au contrevenants. Dire qu’on ne se méfie que de Huawei !!!
rere
Le mieux serait de ne pas avoir ce type d’enceinte chez soi.
tfpsly
Normalement, l’assistant vocal ne se met en marche que lorsque l’utilisateur a prononcé l’expression « Dis Siri&amp;,nbsp;». Mais sur l’Apple Watch[…]<br /> Il y a beaucoup de faux-positif, où Siri se déclenche sur un son ne ressemblant pourtant pas à “dis Siri / hey Siri”. Une explication aux scènes de crac-crac enregistrées :<br /> The sound of a zip, Siri often hears as a trigger,” the contractor said.<br /> the Guardian – 26 Jul 19<br /> Apple contractors 'regularly hear confidential details' on Siri recordings<br /> Workers hear drug deals, medical details and people having sex, says whistleblower<br />
Keorl
“Son image de chevalier blanc”. En terme de communication, c’est sûr, ils font le maximum pour faire croire à leur public qu’ils sont au top de la défense de la vie privée. En terme d’image, je ne sais pas … en ce qui me concerne ce n’est pas l’image que j’ai de cette boite.
Vanilla
Donc quand messieurs vont faire pipi, zip zip = dis Siri ? Ça doit bien les faire marrer d’entendre toute cette « musique »
megadub
En même temps, quand t’acquiert le micro que tu mets sans aucune contrainte chez toi et que t’accepte les CGU, à un moment le législateur ne peux plus rien pour toi.<br /> Va falloir quand même un jour comprendre que lorsqu’on met un assistant qui nécessite une connexion pour fonctionner, c’est qu’on envoie ce qui est écouté quelque part.
megadub
En fait c’est pas comme ça que ça se passe <br /> En réalité, les serveurs reçoivent une requête, analyse la phrase et envoie une réponse. Le boulot des sous-traitants c’est de prendre des requêtes au hasard pour vérifier que la réponse est la bonne. Donc :<br /> 1- ils se foutent totalement de l’auteur de la demande<br /> 2- les requêtes incomprises ne sont en principe pas écouter.<br /> Je rappelle que Google fait ça depuis qu’ils existent, j’avais des potes qui faisaient 3 sous pendant leur étude en corrigeant les résultats des requêtes Google.
zou59
C’ est un peut plus classe que faire caca, plouf plouf dans le chiotte et quand tu dis siri au moment fatal
hub5home
tout cela ne n’inquiète pas du tout. mais alors pas du tout… pourtant j’ai un xs
bmustang
Apple doit réagir vite pour rester en phase avec ses grands principes ? De quels grands principes pensez vous pour apple ? Pas différent des autres et on lit ici qu’apple passe par ses fournisseurs pour arriver à ses fins. C’est scandaleux un point c’est tout !? Et les consommateurs doivent comprendre qu’il n’y a rien de mieux que de contrôler ses données ou d’arrêter d’acheter tous ses mouchards.
Blues_Blanche
Faux. Achète une télé et regarde bien, elles ont systématiquement un micro sur la commande, pareil pour les box…<br /> C’est facile de se réfugier derrière un contrat d’utilisation de 20 à 30 pages au moins et de ne donner aucunes précisions sur ce qui est fait. Crois tu que si il était indiqué sur les appareils en question : attention l’utilisation requière que vous donniez l’autorisation à Apple et à qui la société le veux (c’est pas vague ça ?) de vous écouter, enregister à tout moment. Là je pense que les utilisateurs ne seraient pas d’accord.<br /> C’est un peu facile de faire signer des CLUF aussi compliqué à lire et aussi peu précis. Ca devrait tout simplement être illégal et très très fortement réprimé.
megadub
Blues_Blanche:<br /> Faux. Achète une télé et regarde bien, elles ont systématiquement un micro sur la commande, pareil pour les box…<br /> Uniquement quand la commande vocale est disponible. J’ai pas de micro ni sur ma TV ni ma box
megadub
bmustang:<br /> Apple doit réagir vite pour rester en phase avec ses grands principes ? De quels grands principes pensez vous pour apple ? Pas différent des autres et on lit ici qu’apple passe par ses fournisseurs pour arriver à ses fins.<br /> Apple se défend de revendre les informations personnelles à des tiers ou de les partager pour se faire le chantre de la vie privée… c’est ce principe qu’ils doivent défendre que tu crois ou non à leur discours.
max_971
Peut-être Mr GOUGUEUL est allé chez le médecin puis est rentré chez lui faire l’amour. lol
Orion70
Quand on pense que la quasi-totalité des smartphones Androïd écoute en permanence leurs propriétaires et leur entourage, ne serait-ce que pour pouvoir réagir immédiatement au non moins fameux “OK Google”… Et pourtant, ça n’a jamais gêné grand monde !
KlingonBrain
Clairement, il faudrait que les gens apprennent à utiliser leur cerveau et acceptent d’apprendre un minimum avant de se jeter sur le premier gadget technologique venu.
KlingonBrain
Certes, mais si on réfléchit un peu plus loin, il y a bien plus de questions à se poser. Surtout si on réfléchit à long terme.
tfpsly
Les téléphones Android n’écoutent qu’en local, sans envoyer de données aux serveurs, pour détecter le “Hey Google”. De même pour Siri normalement. Sauf qu’il semble y avoir beaucoup de faux-positifs qui envoient jusque 30s de ce qui suit aux serveurs Apple. J’ignore le taux de faux-positifs chez Google ou Amazon pour comparer, mais les contracteurs pour Apple semblent dire que c’est trop élevé chez eux :<br /> Ask the personal assistant “are you always listening”, for instance, and it will respond with: “I only listen when you’re talking to me.”<br /> That is patently false, the contractor said. They argued that accidental triggers are too regular for such a lighthearted response.<br />
cloomcloom
Espionner serait d’activer le micro à distance pour écouter ce que font les gens.<br /> Là ce sont des enregistrements qui, certes, ont pu être enclenché par erreur, mais ce n’est pas 3h de conversations.<br /> L’écoute de ces enregistrements vont permettre à Apple d’améliorer la détection du mot clé et ainsi avoir moins de “faux” délenchements.
cloomcloom
Il n’y a pas Siri dans votre iPhone? Il n’y a pas Siri sur votre Mac? (quoi qu’il me semble que sur MacOS on doit cliquer pour lancer l’écoute). Ce n’est pas un problème lié uniquement aux enceintes, des micros il y en a partout.
Marvaxx
Acheter un truc qui est capable de vous enregistrer, approuver les conditions de FDP d’entreprises qui se gavent d’oseille grace au data-market sans les lire sous pretexte qu’ils racontent “nous, on est très sérieux” puis s’etonner qu’ils fassent tout sauf être honnête requiert un niveau d’absence d’intellecte qui me fascine. No offense. Evidement que tout ces trucs connectés sont des portes grandes ouvertes sur votre intimité. Et le micro c’est mignon, les caméras présentent sur ces appareils fonctionnent vraiment très très bien aussi … Réveil. Le monde des bisounours n’existe pas. Comme le père-noel et le coca cola pour maigrir.
Voir tous les messages sur le forum