Siri et Alexa réagissent à des commandes inaudibles pour les humains

11 mai 2018 à 13h37
0
Un chercheur en sécurité informatique a développé une méthode, jusqu'ici infaillible, pour transmettre à Amazon Alexa, Google Now et autres Siri des commandes vocales totalement inaudibles pour l'oreille humaine.

Tous les assistants vocaux disponibles sur le marché seraient plus ou moins touchés.

Google home


Une nouvelle porte d'entrée pour les hackers

C'est la version 2.0 du message subliminal : Nicholas Carlini, doctorant à UC Berkeley et spécialiste de la sécurité informatique, est parvenu à insérer des phrases dissimulées dans des morceaux de musique, complètement inaudibles à l'oreille humaine, mais auxquelles la reconnaissance vocale des assistants réagit bien.

En entendant ces commandes, ces derniers peuvent prendre des photos, envoyer des messages et visiter des sites malicieux. Selon la marque de l'assistant vocal et ses paramétrages, il peut même ouvrir des serrures, envoyer de l'argent et faire des achats en ligne. Le travail de Nicholas Carlini est censé démontrer la vulnérabilité des différents assistants vocaux disponibles sur le marché à ce type d'attaque.

Retransmis via une enceinte, les messages cachés sont captés par l'assistant vocal, qui exécute aussitôt la commande. Dans son article, Nicholas Carlini montre comment, avec quelques modifications - même mineures - des ondes, les assistants domestiques se mettent à confondre des mots. Clin d'œil au fameux « cocaine noodles », faussement interprété par Google Assistant comme un « OK Google » !

google assistant


Les fabricants se défendent

Le travail de Nicholas Carlini fait écho à celui d'autres étudiants de UC Berkeley et de l'Université de Georgetown, qui sont parvenus, en 2016, à contraindre des smartphones à visiter tel ou tel site, ou encore de mettre ces téléphones sur mode avion en les exposant à ce qui est perçu par l'oreille humaine comme du simple bruit blanc.

Et même si ces ondes malicieuses ne peuvent pas (encore) franchir les murs, il est en revanche possible de détourner un assistant vocal en les diffusant via une vidéo YouTube, tout simplement.

L'information est d'autant plus inquiétante que, selon une étude d'Ovum, d'ici 2021, le nombre d'appareils intégrant un assistant vocal devrait surpasser celui des humains. Interrogés par le New York Times, les principaux fabricants se défendent : Apple a rappelé qu'elle demande systématiquement le déblocage de l'iPhone avant de laisser Siri exécuter des commandes pouvant avoir des conséquences appréciables (faire une réservation ou un achat), tandis qu'Amazon a répondu vérifier systématiquement l'« empreinte vocale » de la personne prononçant une commande, avant de dévoiler des informations personnelles sensibles.

Sources : Nicholas Carlini, Ovum, The New York Times.


Modifié le 01/06/2018 à 15h36
0
0
Partager l'article :

Les actualités récentes les plus commentées

Covid-19 : Twitter connaît une hausse de 900% des discours racistes contre la Chine
L'empreinte carbone issue de la consommation des Français a chuté de deux-tiers avec le confinement
Coup dur chez HPE : des SSD destinés aux entreprises pourraient se briquer après 40 000 heures
Le stockage d’énergie sous forme d’hydrogène fait un bond en avant
Xiaomi lancera la très attendue Mi TV 4S 65
Des Macbook propulsés par des processeurs ARM prévus pour l'an prochain
Office 365 devient Microsoft 365 et fait le plein de nouveautés
Folding@home dépasse l'ExaFLOP pour lutter contre le Coronavirus
Renault prête 1 300 véhicules au personnel soignant, dont 300 ZOE électriques
Square-Enix avance (officieusement) la date de sortie de Final Fantasy VII Remake !

Notre charte communautaire

  • 1. Participez aux discussions
  • 2. Partagez vos connaissances
  • 3. Échangez vos idées
  • 4. Faites preuve de tolérance
  • 5. Restez courtois
  • 6. Publiez des messages utiles
  • 7. Soignez votre écriture
  • 8. Respectez le cadre légal
  • 9. Ne faites pas de promotion
  • 10. Ne plagiez pas
  • Consultez la charte
scroll top