Il est possible de pirater les Google Home et Amazon Echo en simulant une voix via un laser

8
Google Home Mini

Une équipe de scientifiques a réussi à commander l'ouverture d'une porte ou l'allumage des lumières connectées d'une maison en simulant une voix humaine grâce à la modulation d'un faisceau laser.

Les enceintes connectées ne sont pas les appareils les plus sûrs en matière de confidentialité, l'affaire des écoutes des conversations enregistrées par les assistants vocaux par des sous-traitants en est la preuve.

Un simple rayon laser bien dirigé peut activer votre assistant vocal

Takeshi Sugarawa, chercheur en sécurité, a quant à lui trouvé une autre faille d'ordre matériel cette fois-ci. Le scientifique a pu, à l'aide d'un faisceau laser de 60 milliwatts pointé vers le micro d'une enceinte connectée, ouvrir une porte de garage ou allumer les lumières d'une maison en simulant une commande vocale.

Le chercheur, associé à des scientifiques de l'Université du Michigan, explique dans son étude que les membranes présentes sur les microphones peuvent être trompées par un signal lumineux, qui va l'interpréter comme une commande vocale.

En variant l'intensité lumineuse selon des fréquences précises, il est possible de concevoir des commandes vocales qui peuvent en théorie contrôler toutes les fonctionnalités proposées par les assistants.


« Il est possible de faire en sorte que les microphones réagissent à la lumière comme s'il s'agissait d'un son. Cela signifie que tout ce qui agit sur les commandes sonores agira sur les commandes lumineuses », explique Takeshi Sugarawa.

Une faille difficile à exploiter mais prise au sérieux par Google

Les smartphones sont également concernés par ces possibilités d'attaque, mais dans une moindre mesure. Le sujet doit se trouver au maximum à environ 10 m pour un iPhone et 5 m pour un téléphone Android. Les enceintes connectées Google Home, Amazon Echo ou le système Portal de Facebook sont eux accessibles jusqu'à 110 m de distance.


La possibilité d'une attaque reste minime, l'enceinte connectée devant être clairement visible et l'assaillant devant viser précisément le micro à plusieurs dizaines de mètres de distance. Les chercheurs ont néanmoins partagé leurs découvertes avec Google, qui va se pencher sur le sujet pour corriger le tir sur les prochaines versions de ses enceintes connectées.

Source : Android Police
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

Alexol
Impressionnant, le mec qui se dit : « Tiens, on va hacker ces enceintes avec un laser LUMINEUX pour simuler une commande VOCALE ! »
tylt
mouai, en gros faut juste pas mettre le micro face à une fenêtre ou un miroir, et hop faille corrigée
tfpsly
Et tous les 3 assistants se font avoir - Siri, Google et Alexa : Researchers hack Siri, Alexa, and Google Home by shining lasers at them<br /> Démo vidéo d’un immeuble à un autre bâtiment : https://youtu.be/EtzP-mCwNAs<br /> C’est dû à la techno des micros :<br /> The attack exploits a vulnerability in microphones that use micro-electro-mechanical systems, or MEMS. The microscopic MEMS components of these microphones unintentionally respond to light as if it were sound. While the researchers tested only Siri, Alexa, Google Assistant, Facebook Portal, and a small number of tablets and phones, the researchers believe all devices that use MEMS microphones are susceptible to Light Commands attacks.<br />
nirgal76
Faut pas que la voix soit « reconnue » avec ces machins là ?
zeebix
Pas forcément, il y a deux modes, soit uniquement avec ta voix ou l’inverse
nirgal76
Moi j’ai fais enregistré ma voix et celle de mon gamin sur google home (« Hey google, joue moi un son de dinosaure » étant la commande la plus utilisé lol), ce hack ne marcherait pas dessus alors ?
tfpsly
Moi j’ai fais enregistré ma voix et celle de mon gamin […] , ce hack ne marcherait pas dessus alors ?<br /> Il faudrait que le message transmis par laser soit un enregistrement ressemblant à ta voix.
nirgal76
Ouais donc, entre ça et la technologie à mettre en place, y’a vraiment pas de quoi s’inquiéter. Y’a plus de chance de se faire péter une vitre ou fracturer une porte pour entrer.
genzow69
Quelle faille!<br /> « Les chercheurs ont néanmoins partagé leurs découvertes avec Google, qui va se pencher sur le sujet pour corriger le tir sur les prochaines versions de ses enceintes connectées »<br /> Prochaine MAJ des boîtiers, un petit cache en plastique déporté de qques mm parallèle aux micro.<br /> Et hop on évite un brainstorming aux ingé Google, et on augmente sensiblement le prix au passage.<br /> De rien Google, je le fais pour la gloire anonmye.
Voir tous les messages sur le forum