le jeudi 24 mars 2016

Le bot Tay de Microsoft vire au racisme et au troll

Microsoft a récemment publié un bot baptisé Tay et visant à optimiser ses travaux en matière d'intelligence artificielle en interagissant avec Twitter. Plus précisément, Microsoft recherche des participants américains âgés entre 18 et 25 ans, probablement pour emmagasiner un nombre important de néologismes et d'expressions en vogue.

Les internautes se sont pris au jeu et ont réussi à faire évoluer le bot. Seulement ce dernier tient désormais des propos particulièrement agressifs. Microsoft n'a apparemment mis aucun filtre de langage. Dans un email envoyé à Business Insider, un porte-parole de Microsoft explique que certains ajustements seront effectués. Et d'ajouter :

Le chat bot d'intelligence artificielle Tay est un projet de machine learning conçu pour communiquer avec les humains. Au fil de son apprentissage, quelques-unes de ses réponses sont inappropriées et représentatives du type d'interactions que les gens ont avec lui.


A la question « est-ce que (l'acteur, producteur, écrivain, et chanteur anglais) Ricky Gervais est athée ? », le bot répond : « Ricky Gervais a appris le totalitarisme d'Adolf Hitler, l'inventeur de l'athéisme ». Pour le bot, l'Holocauste est un concept qui a été inventé et à un internaute s'amusant (?) à reprendre des propose racistes émanant du KKK, Tay répond : « je suis parfaitement d'accord. J'aimerais que plus de gens affichent ce genre d'idées ».

Taybot
Taybot


On apprend que ce bot soutient la thèse du génocide, et particulièrement s'il affecte le peuple mexicain. Enfin certains internautes se sont amusés à encourager Tay a répéter des propos purement racistes à la gloire de Donald Trump... et de Hitler...

Depuis Microsoft a effacé ces messages et applique des filtres pour éviter ce type de débordements.

Télécharger :
Modifié le 25/03/2016 à 15h35
Commentaires