Certains sous-traitants d’Apple peuvent écouter vos conversations grâce à Siri

29 juillet 2019 à 13h41
0
Siri

Apple ne serait pas aussi à cheval sur la confidentialité qu'elle le prétend. Des employés auraient en effet accès aux fichiers audio enregistrés par l'assistant, y compris des conversations privées.

La confidentialité est l'un des axes de communication d'Apple depuis de nombreuses années. La firme américaine met un point d'honneur à mettre en avant ses systèmes de sécurité et de chiffrement, censés protéger les données personnelles de ses clients.

Des enregistrements accidentels qui révèlent des détails très intimes de la vie des utilisateurs

Cependant, Apple ne serait pas aussi précautionneuse qu'elle voudrait le faire croire. The Guardian a pu interroger des sous-traitants d'Apple chargés d'écouter des extraits audio enregistrés par l'assistant vocal Siri à des fins d'analyse et d'amélioration du service.

Normalement, l'assistant vocal ne se met en marche que lorsque l'utilisateur a prononcé l'expression « Dis Siri&,nbsp;». Mais sur l'Apple Watch, où lever le poignet suffit à activer l'assistant, où sur le Homepod, l'enceinte connectée installée dans les salons, il n'est pas rare que Siri se déclenche par accident et laisse ses oreilles traîner de longues secondes à l'insu des utilisateurs.

Les sous-traitant ont alors accès à des conversations très intimes, comme l'explique l'un d'entre eux : « Parfois, on entend un docteur parler de l'historique médical d'un patient. Ou vous pouvez entendre quelqu'un, avec un bruit de moteur au fond, en train de dealer de la drogue. Et vous pouvez aussi écouter des gens en train de faire l'amour, et qui s'enregistrent accidentellement sur le HomePod ou la montre ».

Apple doit réagir vite pour rester en phase avec ses grands principes

Si Apple envoie ces fichiers audio à ses partenaires de manière anonymisée, bien souvent, les personnes écoutées mentionnent des noms ou des adresses qui les identifient, elles ou leurs proches.

Selon Apple, toutes les requêtes formulées à Siri sont conservées durant six mois pour l'apprentissage automatique de l'assistant. Une autre copie est conservée durant deux ans cette fois, mais n'est liée à aucun compte Apple, et peut être soumise à une écoute humaine. Google procède exactement de la même manière avec son Google Assistant.

La seule solution pour éviter ces problèmes, sans stopper toutes les procédures d'amélioration du service, serait que Siri se déclenche de manière moins accidentelle, uniquement lorsque l'utilisateur l'a décidé.

Apple n'a pas le choix et doit réagir au plus vite, pour ne pas voir son image de chevalier blanc de la confidentialité sérieusement écornée par cette affaire.

Source : The Guardian
23
16
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

Volvo va brider toutes ses nouvelles voitures à 180 km/h pour lutter contre l'insécurité routière
La NASA vous explique pourquoi la montée des eaux est difficilement perceptible
StopCovid : voici à quoi ressemble l'application, captures d'écran à l'appui
Voiture électrique : un nouveau barème pour le bonus écologique et la prime à la conversion
Les constructeurs tentent l'aventure de la voiture électrique depuis près de 50 ans
À Singapour, une peine de mort prononcée... par ZOOM
Windows 10 : la mise à jour de mai arriverait dans la semaine, mais pas en automatique
Tesla va augmenter le prix de son AutoPilot, Elon Musk explique pourquoi
Le Raspberry Pi 4 peut désormais booter via USB

Notre charte communautaire

  • 1. Participez aux discussions
  • 2. Partagez vos connaissances
  • 3. Échangez vos idées
  • 4. Faites preuve de tolérance
  • 5. Restez courtois
  • 6. Publiez des messages utiles
  • 7. Soignez votre écriture
  • 8. Respectez le cadre légal
  • 9. Ne faites pas de promotion
  • 10. Ne plagiez pas
  • Consultez la charte
scroll top