Pour Luc Julia, "pape de l'intelligence artificielle", la voiture autonome de niveau 5 n'existera jamais

Arnaud Marchal
Par Arnaud Marchal, Spécialiste automobile.
Publié le 07 mai 2021 à 18h16
© Renault
© Renault

Luc Julia, ingénieur franco-américain, affirme qu’il est tout bonnement impossible que le niveau 5 de la conduite autonome soit atteint un jour, mais il croit fermement au niveau 4 à l’avenir.

L’ingénieur Luc Julia, en poste chez Renault depuis peu, est un grand spécialiste de l’intelligence artificielle. Et il explique dans une courte vidéo diffusée par BFM Business pourquoi il est tout bonnement impossible d’atteindre le niveau 5, d’après lui.

Le « pape de l’intelligence artificielle »

Ce surnom donné à Luc Julia est dû à son parcours dans le monde de l’intelligence artificielle. Cet ingénieur toulousain, qui travaille maintenant pour Renault, maîtrise parfaitement son sujet.

Il a participé à de nombreux projets dans la Silicon Valley chez HP, Samsung et Apple. Il est l’un des concepteurs de l’assistant vocal Siri chez la marque à la Pomme. Il est également auteur et membre titulaire de l’Académie des technologies, fondée en 2000.

Pour ce spécialiste de l’intelligence artificielle, la voiture autonome de niveau 5 est tout bonnement impossible à réaliser. Il n’est pas raisonnable de penser qu’une voiture autonome puisse l’être en permanence en s’adaptant à toutes les situations possibles et imaginables.

Une intelligence artificielle est capable de réagir à des situations prédéfinies ou à ce qui s’en rapproche le plus, alors que l’être humain peut s’adapter et réagir rapidement à des situations encore jamais vues.

Le niveau 5 : la quête du Graal ?

Si de nombreuses entreprises comme Google ou Tesla travaillent d’arrache-pied sur la question de la conduite autonome, il reste une quantité de paramètres encore impossible à gérer malgré les avancées spectaculaires dans le domaine de ces dernières années. Si le niveau 4 semble être atteignable au cours des prochaines années, le niveau 5 reste encore une chimère inatteignable pour le moment.

Il pense que le niveau 4 sera atteint, ce qui permettra une conduite totalement autonome dans de nombreuses situations, mais pas le dernier palier. Et pour étayer sa thèse, Luc Julia cite un exemple qui s’est produit à Mountain View avec les véhicules autonomes de Google qui sillonnent les routes depuis une dizaine d’années maintenant. Si elles ont accumulé déjà près de 16 millions de kilomètres depuis, dans certains cas, elles n’ont toujours pas la capacité de réagir correctement.

Ainsi, dans l’une des vidéos que Google a mises en ligne, Luc Julia a pu voir une voiture autonome de Google s’arrêter au milieu de la route, puis redémarrer quelques secondes après et s’arrêter à nouveau plusieurs secondes, et ainsi de suite… La raison ? Un piéton qui marche sur le bord de la route en tenant un panneau stop sur l’épaule.

Ce genre de panneau est utilisé pour arrêter la circulation afin de laisser traverser les enfants devant une école, par exemple. Bien entendu, c’est un cas isolé, une situation quasi improbable, mais justement, c’est ce genre d’exemple qui lui permet d’affirmer que le niveau 5 est tout simplement impossible à atteindre.

Les différents niveaux de conduite autonome

La conduite autonome est classifiée en 5 niveaux allant de 1 à 5 suivant le niveau d’autonomie atteint :

  • Le niveau 1 : il s’agit d’une assistance à la conduite simple comme le régulateur de vitesse adaptatif ou le freinage automatique d’urgence.
  • Le niveau 2 : la voiture va être capable de gérer en plus la trajectoire avec le maintien dans la voie ou l’assistance à la conduite dans les embouteillages.
  • Le niveau 3 : le véhicule est ici capable de conduire seul dans certaines conditions spécifiques et dans un environnement adapté comme se garer seul sur un parking ou suivre sa trajectoire sur autoroute, en tenant compte des autres usages (vitesse, distance…), telle une Tesla équipée de la fonction AutoPilot. La voiture a besoin d’un contrôle de son conducteur, il doit rester vigilant pour prendre les commandes de lui-même dès qu’il le juge nécessaire ou si la voiture lui demande.
  • Le niveau 4 : ici, le véhicule va pouvoir gérer la conduite seul dans un environnement particulier comme en niveau 3, mais en se passant de la supervision du conducteur qui peut lire ses e-mails, le journal ou visionner un film. Si le véhicule demande l’aide du conducteur et que celui-ci ne répond pas à cette requête, le véhicule doit être capable de se gérer seul pour aller se garer en zone sécurisée, comme sur une aire de repos.
  • Le niveau 5 : la voiture est capable de tout faire sans l’aide du conducteur. Il n’y a plus besoin de volant ou de pédales pour conduire le véhicule, il est 100 % autonome en toute circonstance. Il pourrait d’ailleurs se conduire sans personne à bord, comme le voudrait Elon Musk avec sa future flotte de robot taxi.

Source : Twitter

Arnaud Marchal
Par Arnaud Marchal
Spécialiste automobile

Passionné d'automobile depuis toujours et d'informatique depuis l'Amiga 500 jusqu'à nos jours !

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Yves64250

L’électronique ne peut pas improviser les millions de combinaisons d’accidents comme un humain.Sans compter les nombreux bugs qui sont bien présents dans l’autopilot Tesla où tout se plante en autopilot.

MqcdupouletBasquez

C’est une affirmation fantaisiste pour une chaine d’info fantaisiste.
Dans la vie, tout est progressif.
Qui aurait imaginé y’a 100 ans payer avec une carte bleue.
Le chèque est un mode paiement récent et en perte de vitesse.

Dans la vie, tout bouge, tout est en mouvement et il est impossible de prédire l’avenir de façon péremptoire.

La voiture de Niveau 5 suppose des voies de circulation adaptées comme on en voit pour les taxis et les bus.

y’a 30 ou 20 ans, qui aurait imaginé des gens faisant des blagues avec des jetpacks ?
qui aurait imaginé y’a 40 ans des drones pour le grand public?

MqcdupouletBasquez

pfffff, dans ma ville, sur Facebook, ils en sont à discuter de la dangerosité de traverser à un passage pieton dans une rue en sortie de rond point, avec une gendarmerie à côté, un radar d’affichage de vitesse dans une petite rue en double sens 1x1 voie où il apparait hasardeux de dépasser le 35-40 km/h
et ça chouine car les arbres gènent la vue, et ça chouine parce qu’ils voudraient un feu rouge…
les mecs, à 50m, ils ne sont pas foutus de comprendre qu’un passage pieton, il faut envisager le passage d’un pieton…

Tu parles qu’un robot ferait mieux, c’est évident. honnêtement je pense que même pas 60% des automobilistes ont intégrés qu’à l’approche d’un passage pieton, il faut avoir le pied au dessus du frein et non sur l’accélérateur.

Yves64250

L’aéromodélisme existe depuis trés longtemps ,c’est plus facile de faire voler un drone qu’un avion ou hélico RC

Yves64250

Ici regarde l’autopilot Tesla qui voit mème pas l’énorme camion renversé.
https://www.youtube.com/watch?v=LfmAG4dk-rU

zeebix

Ah ? un drone sans sa partie autonome c’est quoi ?

flonc

A propos du panneau stop ce n’est pas « un cas isolé, une situation quasi improbable ».
Aux US, les eleves font la circulation devant leur ecole tous les matins. Cela fait partie de l’apprentissage des responsabilites.
Un enfant de 10 ou 12 ans se baladant avec un panneau stop sur l’epaule est quelque chose que l’on voit tous les matins a chaque coin de rue. Si une voiture autonome ne sait pas gerer ca, il y a un gros defaut.

flonc

Dans l’ordre de facilite: avion, helico, drone.
L’avion ne demande aucune electronique a part la liaison radio. Un helico demande un gyroscope de queue 1 axe. Le drone demande minimum un gyroscope 3 axes, et pour l’equivalent d’un mavic des camera, un GPS, des capteurs ultra sonic, de l’intelligence embarquee.
Il y a 40 ans, c’etait inenvisageable.

SlashDot2k19

Zut, moi qui rêvait d’avoir K2000 comme voiture… :sob:

Nmut

J’interprète ça différemment.
L’humain est capable de transgresser des règles fondamentales (dans l’exemple ne pas s’arrêter lorsqu’il y a un panneau stop) quand il « estime » que ce n’est pas correct, c’est l’imperfection et les choix arbitraires de l’esprit humain (il ne faut pas se leurrer on ne fait pas de calcul de proba dans ce cas, on se dit "c’est quoi se bazar et on fonce :stuck_out_tongue: ) face à la rigueur de la machine. Une IA a quelques règles de sécurité immuables au cas ou les biais de sélection de l’entrainement seraient trop importants ou si il y a une possible incohérence dans les données. Le type n’a pas parlé de sécurité mais d’impossibilité de conduite! :smiley: