Une IA anti-IA pour détecter les voix de synthèse

Alors que les technologies de synthèse de la voix font des bonds de géants grâce au machine learning, une société australienne alerte sur les risques de détournement de la voix humaine à des fins criminelles ou de manipulation de l'information.

Elle est en train de développer une IA capable de détecter les voix synthétiques, ce que l'homme ne sera bientôt plus en mesure de faire à l'oreille...

Des voix de synthèse bluffantes de réalisme


Dans la guerre contre les fake news, toujours avoir un coup d'avance. C'est en substance la devise qui préside aux recherches de la société australienne DT R&D basée à Melbourne. Alors que les voix synthétiques approchent désormais un rendu quasi-humain, elle imagine déjà le pire : de la même manière que l'on peut manipuler des images ou de la vidéo, une IA pourra tout à fait imiter à la perfection la voix de n'importe qui et lui faire dire n'importe quoi.

A l'automne 2016, l'équipe Google travaillant sur DeepMind, l'IA devenue imbattable au jeu de go, avait bluffé le monde en la faisant parler avec une aisance, une fluidité et une spontanéité toute humaine. En nourrissant des réseaux neuronaux, de nombreuses équipes dans le monde sont parvenues à des résultants impressionnants au point que, d'ici quelques années, l'intelligence artificielle mettra probablement au chômage les métiers du doublage, de la traduction, ou redonnera la voix aux malades l'ayant perdu.



l'IA anti-IA


Mais d'autres usages sont aussi envisageables. Illustration ci-dessus avec Lyrebird, une IA qui synthétise à la perfection la voix de Donald Trump et peut, du coup, dire ce qu'elle veut avec sa voix. Si ça a l'air vrai, que ça sonne juste, alors c'est peut-être authentique... Une perspective inquiétante qui a inspiré une réflexion d'autodéfense chez DT R&D, qui a donc mis au point ce qu'ils appellent une IA anti-IA.

Celle-ci prend la forme d'un dispositif auriculaire connecté à un smartphone, lui-même lié à un réseau neuronal. Ce dernier identifie quand la voix est synthétique. Il adresse alors un signal à l'appareil posé sur l'oreille, qui active à son tour un micromodule de refroidissement thermoélectrique en contact avec la peau. Le frisson ressenti vous alerte donc en temps réel que vous écoutez une fake voice. DT R&D en est au stade des expérimentations, mais une fois à maturité, l'IA anti-IA devrait vite trouver sa place dans le monde post-vérité...


Modifié le 02/06/2017 à 15h15
Commentaires