Il est possible de pirater les Google Home et Amazon Echo en simulant une voix via un laser

Google Home Mini

Une équipe de scientifiques a réussi à commander l'ouverture d'une porte ou l'allumage des lumières connectées d'une maison en simulant une voix humaine grâce à la modulation d'un faisceau laser.

Les enceintes connectées ne sont pas les appareils les plus sûrs en matière de confidentialité, l'affaire des écoutes des conversations enregistrées par les assistants vocaux par des sous-traitants en est la preuve.

Un simple rayon laser bien dirigé peut activer votre assistant vocal

Takeshi Sugarawa, chercheur en sécurité, a quant à lui trouvé une autre faille d'ordre matériel cette fois-ci. Le scientifique a pu, à l'aide d'un faisceau laser de 60 milliwatts pointé vers le micro d'une enceinte connectée, ouvrir une porte de garage ou allumer les lumières d'une maison en simulant une commande vocale.

Le chercheur, associé à des scientifiques de l'Université du Michigan, explique dans son étude que les membranes présentes sur les microphones peuvent être trompées par un signal lumineux, qui va l'interpréter comme une commande vocale.

En variant l'intensité lumineuse selon des fréquences précises, il est possible de concevoir des commandes vocales qui peuvent en théorie contrôler toutes les fonctionnalités proposées par les assistants.


« Il est possible de faire en sorte que les microphones réagissent à la lumière comme s'il s'agissait d'un son. Cela signifie que tout ce qui agit sur les commandes sonores agira sur les commandes lumineuses », explique Takeshi Sugarawa.

Une faille difficile à exploiter mais prise au sérieux par Google

Les smartphones sont également concernés par ces possibilités d'attaque, mais dans une moindre mesure. Le sujet doit se trouver au maximum à environ 10 m pour un iPhone et 5 m pour un téléphone Android. Les enceintes connectées Google Home, Amazon Echo ou le système Portal de Facebook sont eux accessibles jusqu'à 110 m de distance.


La possibilité d'une attaque reste minime, l'enceinte connectée devant être clairement visible et l'assaillant devant viser précisément le micro à plusieurs dizaines de mètres de distance. Les chercheurs ont néanmoins partagé leurs découvertes avec Google, qui va se pencher sur le sujet pour corriger le tir sur les prochaines versions de ses enceintes connectées.

Source : Android Police
Modifié le 05/11/2019 à 16h13
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
8
6
Voir tous les messages sur le forum

Actualités du moment

Précommandez le jeu intriguant, énigmatique Death Stranding sur PS4 à 54,99€
Adobe, Twitter et le New York Times partent en guerre contre les fakes
La Mi Watch de Xiaomi se lance en Chine : entre spécifications confortables et prix plancher
Facebook et Google vont-ils interdire les pubs politiques avant les élections britanniques ?
Kia dévoile Futuron, un concept de SUV coupé électrique au look très futuriste
Chrome dévoile deux failles sévères (déjà corrigées)
Bientôt une clé biométrique chez Yubico, la YubiKey Bio
Casque Gamer PC sans-fil Logitech G533 à 71,99€ au lieu de 89,99€
Un pc portable 15
La Chine tente de contrôler la chute de ses fusées
Haut de page