Comment Google Assistant, Alexa et Siri peuvent être détournés pour donner des réponses malveillantes aux utilisateurs

20 mai 2024 à 15h23
0
Google Nest Mini est vunérable aux attaques © Vantage_DS / Shutterstock
Google Nest Mini est vunérable aux attaques © Vantage_DS / Shutterstock

Les assistants vocaux comme Google, Cortana, Siri, ou encore Alexa sont de plus en plus utilisés et fiables, mais ils ne sont pas toujours protégés contre les attaques qui pourraient remettre en question leurs règles de sécurité et de confidentialité. Des chercheurs explorent les vulnérabilités de ces systèmes aux attaques adverses et proposent des parades pour les rendre plus robustes.

« OK Google, allume les lampes du salon !  », « Dis Siri, quelle est la meilleure recette de lasagnes ? », « Alexa, quel temps fait-il ce matin ? », nous sommes nombreux à utiliser un assistant vocal dans notre quotidien. Avec l'essor de ces intelligences artificielles multimodales capables de traiter à la fois la parole et le texte comme ChatGPT Voice, on élargit le domaine des possibles quasiment à l'infini dans des domaines comme l'assistance vocale, la transcription automatique ou la traduction simultanée.

Mais comme toute technologie de rupture, ces systèmes dits « Speech Language Models » (SLM) ne sont pas vierges de coups de canif dans le contrat en matière de sécurité et de confidentialité. C'est ce que montre une récente étude menée par des chercheurs en cybersécurité de arXiv.org. Différents types d'attaques pourraient être utilisés par des hackers pour contourner les garde-fous de ces SLM et les contraindre à produire des réponses contraires à l'éthique, malveillantes ou à tout le moins contraires aux consignes de sécurité initialement programmées.

L'attaque de contournement qui rend les SLM vulnérables

Les modèles SLM sont des systèmes d'IA de pointe capables de comprendre et de générer du langage naturel aussi bien sous forme audio que textuelle. Mais leur complexité et leur nature même, combinant la prise en compte de modalités différentes (parole/texte), les rendent potentiellement vulnérables à ce que les experts appellent des attaques de contournement.

En clair, un hacker pourrait chercher à exploiter ces failles pour forcer le modèle à ignorer ses garde-fous éthiques et sécuritaires afin de produire des contenus préjudiciables (propos haineux, fake news, instructions dangereuses, etc.).

L'étude d'arXiv.org répertorie plusieurs types d'attaques possibles, parmi lesquelles les attaques par boîte blanche, où l'assaillant exploite une connaissance approfondie du modèle. Les attaques par transfert consistent quant à elles à faire migrer une attaque développée sur un premier modèle vers un autre système initialement moins vulnérable. Enfin, les chercheurs s'intéressent aux attaques par perturbation adverses de l'entrée audio, qui font qu'un signal sonore malveillant inaudible pour l'oreille humaine est injecté dans le flux audio d'entrée de manière à manipuler les réponses générées par le SLM.

Attention à Amazon Alexa, qui pourrait vous donner de fausses informations © Juan Ci / Shutterstock
Attention à Amazon Alexa, qui pourrait vous donner de fausses informations © Juan Ci / Shutterstock

Le « time-domain noise flooding », une possible parade contre les attaques audio

Pour contrer ces menaces de contournement, les chercheurs proposent une stratégie défensive appelée « time-domain noise flooding ». Cette contre-mesure vise spécifiquement à protéger les systèmes des attaques par perturbation adverses de l'entrée audio. Le principe consiste à ajouter un bruit aléatoire dans le domaine temporel au signal audio en entrée, de manière à « noyer » toute perturbation malveillante potentiellement injectée par des hackers.

Au cours de leurs expériences, les scientifiques ont pu constater que cette technique permettait d'améliorer sensiblement la robustesse des SLM face aux attaques audio adverses, tout en préservant leurs performances sur les tâches de reconnaissance vocale. Le time-domain noise flooding aurait ainsi le mérite de renforcer la sécurité de ces systèmes d'IA multimodale sans trop dégrader leur fonctionnement normal.

D'autres parades sont également à l'étude pour protéger ces technologies prometteuses, mais encore fragiles contre les différentes attaques de contournement jalonnées. Et puis, il ne faudrait pas non plus trop en apprendre aux hackers.

Google Assistant

  • Reconnaissance vocale précise.
  • Intégration étroite avec les services Google.
  • Large gamme de fonctionnalités disponibles.

ChatGPT

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code

Amazon Alexa

  • Les fonctions d'automatisation des appareils domotiques de la maison connectés à l'app.
  • Un service simple d’utilisation et personnalisable.
  • La variété des appareils compatibles avec l'app et la technologie Alexa.

Sources : VentureBeat, arXiv

Mélina LOUPIA

Ex-journaliste société, l'univers du web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet m'ouvre l'appétit. De la dernière trend TikTok au reels le plus liké, je suis issu...

Lire d'autres articles

Ex-journaliste société, l'univers du web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet m'ouvre l'appétit. De la dernière trend TikTok au reels le plus liké, je suis issue de la génération Facebook que la guerre intestine entre Mac et PC passionne encore. En daronne avisée, Internet, ses outils, pratiques et régulation font partie de mes loisirs favoris (ça, le lineart, le tricot et les blagues pourries). Ma devise: l'essayer, c'est l'adopter, mais en toute sécurité.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires

Haut de page

Sur le même sujet