Il est possible de pirater les Google Home et Amazon Echo en simulant une voix via un laser

05 novembre 2019 à 15h55
0
Google Home Mini

Une équipe de scientifiques a réussi à commander l'ouverture d'une porte ou l'allumage des lumières connectées d'une maison en simulant une voix humaine grâce à la modulation d'un faisceau laser.

Les enceintes connectées ne sont pas les appareils les plus sûrs en matière de confidentialité, l'affaire des écoutes des conversations enregistrées par les assistants vocaux par des sous-traitants en est la preuve.

Un simple rayon laser bien dirigé peut activer votre assistant vocal

Takeshi Sugarawa, chercheur en sécurité, a quant à lui trouvé une autre faille d'ordre matériel cette fois-ci. Le scientifique a pu, à l'aide d'un faisceau laser de 60 milliwatts pointé vers le micro d'une enceinte connectée, ouvrir une porte de garage ou allumer les lumières d'une maison en simulant une commande vocale.

Le chercheur, associé à des scientifiques de l'Université du Michigan, explique dans son étude que les membranes présentes sur les microphones peuvent être trompées par un signal lumineux, qui va l'interpréter comme une commande vocale.

En variant l'intensité lumineuse selon des fréquences précises, il est possible de concevoir des commandes vocales qui peuvent en théorie contrôler toutes les fonctionnalités proposées par les assistants.


« Il est possible de faire en sorte que les microphones réagissent à la lumière comme s'il s'agissait d'un son. Cela signifie que tout ce qui agit sur les commandes sonores agira sur les commandes lumineuses », explique Takeshi Sugarawa.

Une faille difficile à exploiter mais prise au sérieux par Google

Les smartphones sont également concernés par ces possibilités d'attaque, mais dans une moindre mesure. Le sujet doit se trouver au maximum à environ 10 m pour un iPhone et 5 m pour un téléphone Android. Les enceintes connectées Google Home, Amazon Echo ou le système Portal de Facebook sont eux accessibles jusqu'à 110 m de distance.


La possibilité d'une attaque reste minime, l'enceinte connectée devant être clairement visible et l'assaillant devant viser précisément le micro à plusieurs dizaines de mètres de distance. Les chercheurs ont néanmoins partagé leurs découvertes avec Google, qui va se pencher sur le sujet pour corriger le tir sur les prochaines versions de ses enceintes connectées.

Source : Android Police
Modifié le 05/11/2019 à 16h13
8
6
Partager l'article :
Voir tous les messages sur le forum

Les actualités récentes les plus commentées

Malgré le coronavirus, Tesla sauve les meubles au second trimestre 2020 avec plus de 90 000 livraisons
Contenus racistes et haineux : LEGO retire à son tour ses publicités des réseaux sociaux
Freebox Pop: retrouvez toutes les annonces présentées ce mardi !
La 5G, une technologie pour
53 millions de tonnes de déchets électroniques en 2019, un record pas très glorieux
Tesla continue de faire dans la pseudo-disruption et commercialise désormais des shorts...
5G : à Singapour, Ericsson et Nokia sont préférés à Huawei, encore...
Facebook Messenger et WhatsApp bientôt réunis ?
Au diable AMD ? Apple travaillerait, aussi, sur des GPUs de son cru
scroll top