Flippant : les systèmes d'authentification par la voix presque toujours trompés par les logiciels de deepfake

29 juin 2023 à 12h00
3
© KAMAZON STUDIO / Shutterstock
© KAMAZON STUDIO / Shutterstock

Une expérience vient de montrer que les deepfakes imitant les voix d'une personne sont presque toujours capables de duper les systèmes d'authentification par la voix.

Cloner la voix d'une personne n'a jamais été aussi facile qu'en 2023, avec une technologie qui trompe de plus en plus de personnes. Cela n'a finalement rien d'étonnant au vu de ses capacités exceptionnelles, une fois encore démontrées, et cette fois par une étude.

99 % de réussite

L'IA générative est une nouvelle boîte à outils pour les arnaqueurs. Avec sa capacité à imiter l'être humain, elle peut être utilisée pour de nombreuses escroqueries, à l'image des techniques de clonage de voix, qui peuvent être particulièrement lucratives. Ces techniques sont extrêmement efficaces et peuvent mystifier autant les Hommes que les machines.

L'université de Waterloo vient de démontrer dans une expérience que les deepfakes de voix étaient capables de passer les systèmes d'authentification presque à chaque fois. Plus exactement, après 6 essais, les chercheurs ont atteint un taux de réussite de 99 % en utilisant des voix synthétiques, pour être ensuite autorisés à accéder au service protégé.

Qui parle vraiment ? © metamorworks / Shutterstock
Qui parle vraiment ? © metamorworks / Shutterstock

Des mesures de protection « gravement défectueuses »

Ces systèmes fonctionnent sur le principe que chaque individu possède une empreinte vocale unique, extraite au moment de la mise en place de la digue de sécurité en faisant répéter des mots à la personne. Plus tard, lorsqu'elle sera soumise à la procédure d'identification, la même personne devra répéter d'autres phrases, où sera détectée l'empreinte vocale permettant de déverrouiller l'accès.

Ce verrou semble avoir sauté définitivement avec le développement toujours plus avancé des technologies, puisqu'il n'a fallu aux chercheurs que 5 minutes d'extrait de voix d'une personne pour copier son empreinte vocale à l'aide d'un logiciel d'apprentissage automatique. Les universitaires sont formels, les mesures de protection sont « gravement défectueuses ». En conséquence, ils appellent les sociétés utilisant ces systèmes à ajouter des phases de sécurisation supplémentaires.

Source : PCMag

Samir Rahmoune

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les q...

Lire d'autres articles

Journaliste tech, spécialisé dans l'impact des hautes technologies sur les relations internationales. Je suis passionné par toutes les nouveautés dans le domaine (Blockchain, IA, quantique...), les questions énergétiques, et l'astronomie. Souvent un pied en Asie, et toujours prêt à enfiler les gants.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (3)

nicgrover
C’est pour cela que pour l’instant je ne parle plus que le Tuvaluan…
FRANCKYIV
Les IA savent parler chtit avec l’accent ? car moi oui
Belgarath
Décidément, parler à des trucs en plastique, je n’arrive pas à m’y faire.<br /> Autrefois, le type qui faisait ça, on lui mettait une veste matelassée avec des manches attachées devant.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet