Siri et Alexa réagissent à des commandes inaudibles pour les humains

11 mai 2018 à 13h37
0
Un chercheur en sécurité informatique a développé une méthode, jusqu'ici infaillible, pour transmettre à Amazon Alexa, Google Now et autres Siri des commandes vocales totalement inaudibles pour l'oreille humaine.

Tous les assistants vocaux disponibles sur le marché seraient plus ou moins touchés.

Google home


Une nouvelle porte d'entrée pour les hackers

C'est la version 2.0 du message subliminal : Nicholas Carlini, doctorant à UC Berkeley et spécialiste de la sécurité informatique, est parvenu à insérer des phrases dissimulées dans des morceaux de musique, complètement inaudibles à l'oreille humaine, mais auxquelles la reconnaissance vocale des assistants réagit bien.

En entendant ces commandes, ces derniers peuvent prendre des photos, envoyer des messages et visiter des sites malicieux. Selon la marque de l'assistant vocal et ses paramétrages, il peut même ouvrir des serrures, envoyer de l'argent et faire des achats en ligne. Le travail de Nicholas Carlini est censé démontrer la vulnérabilité des différents assistants vocaux disponibles sur le marché à ce type d'attaque.

Retransmis via une enceinte, les messages cachés sont captés par l'assistant vocal, qui exécute aussitôt la commande. Dans son article, Nicholas Carlini montre comment, avec quelques modifications - même mineures - des ondes, les assistants domestiques se mettent à confondre des mots. Clin d'œil au fameux « cocaine noodles », faussement interprété par Google Assistant comme un « OK Google » !

google assistant


Les fabricants se défendent

Le travail de Nicholas Carlini fait écho à celui d'autres étudiants de UC Berkeley et de l'Université de Georgetown, qui sont parvenus, en 2016, à contraindre des smartphones à visiter tel ou tel site, ou encore de mettre ces téléphones sur mode avion en les exposant à ce qui est perçu par l'oreille humaine comme du simple bruit blanc.

Et même si ces ondes malicieuses ne peuvent pas (encore) franchir les murs, il est en revanche possible de détourner un assistant vocal en les diffusant via une vidéo YouTube, tout simplement.

L'information est d'autant plus inquiétante que, selon une étude d'Ovum, d'ici 2021, le nombre d'appareils intégrant un assistant vocal devrait surpasser celui des humains. Interrogés par le New York Times, les principaux fabricants se défendent : Apple a rappelé qu'elle demande systématiquement le déblocage de l'iPhone avant de laisser Siri exécuter des commandes pouvant avoir des conséquences appréciables (faire une réservation ou un achat), tandis qu'Amazon a répondu vérifier systématiquement l'« empreinte vocale » de la personne prononçant une commande, avant de dévoiler des informations personnelles sensibles.

Sources : Nicholas Carlini, Ovum, The New York Times.


Modifié le 01/06/2018 à 15h36
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
0
0

Actualités récentes

Meilleur forfait mobile : le comparatif d'avril 2021
Avis Free Mobile : les forfaits Free sont-ils toujours le meilleur rapport qualité / prix du marché ?
Fortnite : Aloy (Horizon Zero Dawn) débarque dans le jeu
Les meilleures applications Twitter pour Android
La Nintendo Switch Lite recevra un coloris bleu en mai
Microsoft Flight Simulator : la mise à jour France et Benelux vient d’atterrir sur PC
Oppo Find X3 Lite : un coupon de réduction fait chuter son prix chez Amazon
L'opérateur RED relance ses forfaits 100 et 200 Go à prix choc !
PC portable : 100€ de réduction sur l'Asus Vivobook S chez Amazon !
Forfait mobile : B&You annonce le grand retour du forfait 5 Go à moins de 5€
Haut de page