Alexa a besoin d'un corps pour comprendre le monde, selon l'un des scientifiques d'Amazon

le 31 mars 2019
 0
Alexa Amazon Echo

L'un des responsables d'Alexa pense que l'amélioration du service proposé par l'assistant ne peut venir que de son installation sur un robot mobile et conscient de son environnement proche.

Amazon travaille sans cesse à rendre son assistant Alexa plus utile jour après jour. Si sa version actuelle rend déjà quantité de services à ses millions d'utilisateurs, l'e-commerçant souhaite aller bien plus loin.

Un robot Alexa pour comprendre le monde qui l'entoure


Rohit Prasad, chercheur au sein de l'équipe en charge d'Alexa, s'est exprimé à la conférence EmTech Digital AI, organisée par le MIT Technology Review à San Francisco. Il a alors expliqué que « le seul moyen de rendre les assistants personnels vraiment intelligents est de leur offrir des yeux pour qu'ils explorent le monde ».

Certains appareils équipés d'Alexa possèdent déjà des caméras et peuvent voir l'environnement immédiat dans lequel ils sont placés. Mais si l'on suit le raisonnement de Rohit Prasad, l'objectif ultime d'Amazon serait de concevoir un robot piloté par Alexa et capable d'évoluer par lui-même.

Prochaine étape pour les assistants vocaux : assimiler la subtilité du langage humain


Le scientifique n'est pas allé jusqu'à confirmer un tel développement dans son intervention. Il a néanmoins indiqué être au travail sur des sujets comme le traitement du langage naturel et d'autres capacités d'apprentissage automatique, des compétences indispensables dans l'élaboration d'un robot Alexa, si jamais il venait à l'esprit d'Amazon de se lancer dans sa conception.

« Alexa peut déterminer si vous parlez d'une personne, d'un lieu ou d'un objet. Mais c'est plus un hack qu'une route vers la vraie intelligence. Il y a beaucoup de situations où le sens d'une phrase sera toujours ambigu », ajoute Rohit Prasad.

Donner un corps physique aux assistants vocaux n'est pas une idée absurde. Cela leur permettrait d'accomplir des taches complexes demandant un contexte visuel et d'autres informations subtiles que le cerveau humain tient pour acquis. Pour un jour, peut-être, nous assister encore davantage dans notre vie quotidienne.

Source : The Verge

Cet article vous a intéressé ?
Abonnez-vous à la newsletter et recevez chaque jour, le meilleur de l’actu high-tech et du numérique.

Dernières actualités

L'UE vote en faveur d'une nouvelle limite d'émission de CO2 pour les camions
Test LIFX Beam : l’éclairage connecté au service du design d’intérieur
Oups : Facebook a
Programmation : quels langages sont les plus recherchés et rémunérateurs ?
Google et Amazon font la paix : Chromecast va désormais supporter Amazon Prime Video
Finalement, Pepsi abandonne son idée de mettre de la publicité en orbite
MSI annonce que les cartes mères en chipset AMD 300 supporteront bien les Ryzen 3000
Mi 9 SE, trottinette électrique : Xiaomi signe une distribution exclusive avec Fnac Darty
Notre-Dame de Paris : Drones, robots... La technologie de plus en plus sollicitée par les secours
Les GAFAM désarment un projet de loi protégeant les données personnelles des utilisateurs
Les Furtifs, le dernier livre phénomène d'Alain Damasio, sort aujourd'hui
Lenovo a confirmé la prise de photos à 100 mégapixels sur le Z6 Pro
Les Freebox Delta, Revolution et Mini 4K s'offrent une mise à jour
La NASA publie une vidéo montrant comment des souris réagissent à la microgravité
scroll top