Certains sous-traitants d’Apple peuvent écouter vos conversations grâce à Siri

Mathieu Grumiaux
Par Mathieu Grumiaux, Expert maison connectée.
Publié le 29 juillet 2019 à 13h41
Siri

Apple ne serait pas aussi à cheval sur la confidentialité qu'elle le prétend. Des employés auraient en effet accès aux fichiers audio enregistrés par l'assistant, y compris des conversations privées.

La confidentialité est l'un des axes de communication d'Apple depuis de nombreuses années. La firme américaine met un point d'honneur à mettre en avant ses systèmes de sécurité et de chiffrement, censés protéger les données personnelles de ses clients.

Des enregistrements accidentels qui révèlent des détails très intimes de la vie des utilisateurs

Cependant, Apple ne serait pas aussi précautionneuse qu'elle voudrait le faire croire. The Guardian a pu interroger des sous-traitants d'Apple chargés d'écouter des extraits audio enregistrés par l'assistant vocal Siri à des fins d'analyse et d'amélioration du service.

Normalement, l'assistant vocal ne se met en marche que lorsque l'utilisateur a prononcé l'expression « Dis Siri&,nbsp;». Mais sur l'Apple Watch, où lever le poignet suffit à activer l'assistant, où sur le Homepod, l'enceinte connectée installée dans les salons, il n'est pas rare que Siri se déclenche par accident et laisse ses oreilles traîner de longues secondes à l'insu des utilisateurs.

Les sous-traitant ont alors accès à des conversations très intimes, comme l'explique l'un d'entre eux : « Parfois, on entend un docteur parler de l'historique médical d'un patient. Ou vous pouvez entendre quelqu'un, avec un bruit de moteur au fond, en train de dealer de la drogue. Et vous pouvez aussi écouter des gens en train de faire l'amour, et qui s'enregistrent accidentellement sur le HomePod ou la montre ».

Apple doit réagir vite pour rester en phase avec ses grands principes

Si Apple envoie ces fichiers audio à ses partenaires de manière anonymisée, bien souvent, les personnes écoutées mentionnent des noms ou des adresses qui les identifient, elles ou leurs proches.

Selon Apple, toutes les requêtes formulées à Siri sont conservées durant six mois pour l'apprentissage automatique de l'assistant. Une autre copie est conservée durant deux ans cette fois, mais n'est liée à aucun compte Apple, et peut être soumise à une écoute humaine. Google procède exactement de la même manière avec son Google Assistant.

La seule solution pour éviter ces problèmes, sans stopper toutes les procédures d'amélioration du service, serait que Siri se déclenche de manière moins accidentelle, uniquement lorsque l'utilisateur l'a décidé.

Apple n'a pas le choix et doit réagir au plus vite, pour ne pas voir son image de chevalier blanc de la confidentialité sérieusement écornée par cette affaire.

Source : The Guardian
Mathieu Grumiaux
Par Mathieu Grumiaux
Expert maison connectée

Grand maître des aspirateurs robots et de la domotique qui vit dans une "maison du futur". J'aime aussi parler films et séries sur les internets. Éternel padawan, curieux de tout ce qui concerne les nouvelles technologies.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Vanilla

Et vous pouvez aussi écouter des gens en train de faire l’amour,
bien souvent, les personnes écoutées mentionnent des noms ou des adresses qui les identifient

petite astuce les gens: ARRÊTEZ DE CRIER VOTRE ADRESSE QUAND VOUS FAITES L’AMOUR!! C’est compris ??

Blues_Blanche

Conclusion, ne mettez pas un micro chez vous !
Et que fait le législateur !
Espionner chez les gens devait coûter très chère au contrevenants. Dire qu’on ne se méfie que de Huawei !!!

rere

Le mieux serait de ne pas avoir ce type d’enceinte chez soi.

tfpsly

Normalement, l’assistant vocal ne se met en marche que lorsque l’utilisateur a prononcé l’expression « Dis Siri&,nbsp;». Mais sur l’Apple Watch[…]

Il y a beaucoup de faux-positif, où Siri se déclenche sur un son ne ressemblant pourtant pas à “dis Siri / hey Siri”. Une explication aux scènes de crac-crac enregistrées :

The sound of a zip, Siri often hears as a trigger,” the contractor said.

Keorl

“Son image de chevalier blanc”. En terme de communication, c’est sûr, ils font le maximum pour faire croire à leur public qu’ils sont au top de la défense de la vie privée. En terme d’image, je ne sais pas … en ce qui me concerne ce n’est pas l’image que j’ai de cette boite.

Vanilla

Donc quand messieurs vont faire pipi, zip zip = dis Siri ? Ça doit bien les faire marrer d’entendre toute cette « musique »

megadub

En même temps, quand t’acquiert le micro que tu mets sans aucune contrainte chez toi et que t’accepte les CGU, à un moment le législateur ne peux plus rien pour toi.

Va falloir quand même un jour comprendre que lorsqu’on met un assistant qui nécessite une connexion pour fonctionner, c’est qu’on envoie ce qui est écouté quelque part.

megadub

En fait c’est pas comme ça que ça se passe :wink:

En réalité, les serveurs reçoivent une requête, analyse la phrase et envoie une réponse. Le boulot des sous-traitants c’est de prendre des requêtes au hasard pour vérifier que la réponse est la bonne. Donc :
1- ils se foutent totalement de l’auteur de la demande
2- les requêtes incomprises ne sont en principe pas écouter.

Je rappelle que Google fait ça depuis qu’ils existent, j’avais des potes qui faisaient 3 sous pendant leur étude en corrigeant les résultats des requêtes Google.

zou59

C’ est un peut plus classe que faire caca, plouf plouf dans le chiotte et quand tu dis siri au moment fatal

hub5home

tout cela ne n’inquiète pas du tout. mais alors pas du tout… pourtant j’ai un xs