Certains sous-traitants d’Apple peuvent écouter vos conversations grâce à Siri

Siri

Apple ne serait pas aussi à cheval sur la confidentialité qu'elle le prétend. Des employés auraient en effet accès aux fichiers audio enregistrés par l'assistant, y compris des conversations privées.

La confidentialité est l'un des axes de communication d'Apple depuis de nombreuses années. La firme américaine met un point d'honneur à mettre en avant ses systèmes de sécurité et de chiffrement, censés protéger les données personnelles de ses clients.

Des enregistrements accidentels qui révèlent des détails très intimes de la vie des utilisateurs

Cependant, Apple ne serait pas aussi précautionneuse qu'elle voudrait le faire croire. The Guardian a pu interroger des sous-traitants d'Apple chargés d'écouter des extraits audio enregistrés par l'assistant vocal Siri à des fins d'analyse et d'amélioration du service.

Normalement, l'assistant vocal ne se met en marche que lorsque l'utilisateur a prononcé l'expression « Dis Siri&,nbsp;». Mais sur l'Apple Watch, où lever le poignet suffit à activer l'assistant, où sur le Homepod, l'enceinte connectée installée dans les salons, il n'est pas rare que Siri se déclenche par accident et laisse ses oreilles traîner de longues secondes à l'insu des utilisateurs.

Les sous-traitant ont alors accès à des conversations très intimes, comme l'explique l'un d'entre eux : « Parfois, on entend un docteur parler de l'historique médical d'un patient. Ou vous pouvez entendre quelqu'un, avec un bruit de moteur au fond, en train de dealer de la drogue. Et vous pouvez aussi écouter des gens en train de faire l'amour, et qui s'enregistrent accidentellement sur le HomePod ou la montre ».

Apple doit réagir vite pour rester en phase avec ses grands principes

Si Apple envoie ces fichiers audio à ses partenaires de manière anonymisée, bien souvent, les personnes écoutées mentionnent des noms ou des adresses qui les identifient, elles ou leurs proches.

Selon Apple, toutes les requêtes formulées à Siri sont conservées durant six mois pour l'apprentissage automatique de l'assistant. Une autre copie est conservée durant deux ans cette fois, mais n'est liée à aucun compte Apple, et peut être soumise à une écoute humaine. Google procède exactement de la même manière avec son Google Assistant.

La seule solution pour éviter ces problèmes, sans stopper toutes les procédures d'amélioration du service, serait que Siri se déclenche de manière moins accidentelle, uniquement lorsque l'utilisateur l'a décidé.

Apple n'a pas le choix et doit réagir au plus vite, pour ne pas voir son image de chevalier blanc de la confidentialité sérieusement écornée par cette affaire.

Source : The Guardian
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
23
16
Voir tous les messages sur le forum

Actualités récentes

Intersport lance sa marque de trottinettes électriques : OZE
Pour la 6G, Huawei veut repenser le Web... Pour appliquer plus facilement la censure ?
Freebox : mise à jour des serveurs, des améliorations bienvenues dont la prise en charge du Samba v2 et v3
Pénuries,
Le marché des dérivés en crypto-monnaies atteint le volume d’échange de la Bourse de New York
Google : un petit Easter Egg transpose vos résultats sur Mars pour célébrer le vol d'Ingenuity
Yokô Tarô (NieR) serait déjà au travail sur un nouveau jeu indé chez Square Enix
5G : pour l'ANSES, il n'y a
VESA précise que le DisplayHDR 2000 n'est pas une certification
Vous pouvez analyser des fichiers et URL suspects via le site VirusTotal
Haut de page