Tesla teste ses premiers robotaxis dans une zone bien délimitée d’Austin. Des vidéos postées en ligne montrent des trajets sans accident notoire, mais aussi plusieurs erreurs que des spécialistes ont pu analyser en détail.

En 2023, la version du FSD de Tesla était encore une bêta - ©Brian Gallegos /Shutterstock
En 2023, la version du FSD de Tesla était encore une bêta - ©Brian Gallegos /Shutterstock
L'info en 3 points
  • Tesla teste ses robotaxis à Austin, mais des erreurs de conduite montrent que le système n'est pas prêt.
  • Les experts critiquent l'absence de capteurs supplémentaires, soulignant les limites des seules caméras pour l'autonomie.
  • Des incidents de freinage fantôme et de manœuvres interrompues soulèvent des questions sur la sécurité et la fiabilité.

Depuis le 22 juin, des véhicules Tesla sans conducteur officiel circulent dans un périmètre limité à Austin. Le programme, réservé à quelques influenceurs et investisseurs proches de la marque, sert de vitrine publique à la nouvelle version du logiciel de conduite autonome FSD, comme Full Self Driving, « conduite entièrement autonome ». La plupart des trajets enregistrés en vidéo se déroulent sans accroc.

Pour le reste, certains extraits montrent des comportements imprévus. Freinages brusques, changements de voie inappropriés, excès de vitesse ou confusion lors d’un stationnement. Tesla n’a pas répondu aux demandes de précisions de la presse. Trois experts, interrogés par Business Insider, ont passé ces séquences en revue. Tous jugent le système encore loin d’être prêt pour une circulation totalement autonome.

Les incidents enregistrés montrent une conduite encore approximative

Parmi les erreurs observées, certaines reviennent dans plusieurs vidéos. Une influenceuse filme un arrêt brutal en pleine ligne droite, sans aucun obstacle apparent, comme vous pouvez le voir dans la vidéo YouTube qu'elle a publiée.

Dans un autre extrait, le robotaxi se retrouve dans la mauvaise voie. Une séquence montre un agent de sécurité obligé d’interrompre la manœuvre de stationnement du véhicule pour éviter une collision avec un camion en marche arrière.

Raj Rajkumar, professeur d’ingénierie à l’université Carnegie Mellon, évoque un problème récurrent de « freinage fantôme ». Il estime que ce type de réaction pourrait découler d’une mauvaise interprétation de l’environnement par le système. « Il suffit d’une hallucination pour provoquer un coup de frein. Et si un poids lourd arrive derrière, les conséquences peuvent être graves », explique-t-il.

Pour Bryant Walker Smith, professeur de droit et d’ingénierie à l’université de Caroline du Sud, le dispositif reste très encadré. Il rappelle que « de vrais robotaxis circulent déjà aux États-Unis, mais aucun n’est une Tesla ». À ses yeux, la présence d’un moniteur humain, prêt à stopper le véhicule en cas de problème, montre que la démonstration actuelle reste une forme de test. Il compare l’exercice à « une ascension de falaise avec harnais et corde ».

Contrairement aux robotaxis Cruise, pas de lidar ni de radar dans le système de conduite autonome FSD de Tesla - ©Artistic Operations / Shutterstock
Contrairement aux robotaxis Cruise, pas de lidar ni de radar dans le système de conduite autonome FSD de Tesla - ©Artistic Operations / Shutterstock

L’absence de capteurs supplémentaires inquiète les spécialistes

À la différence de Waymo ou Cruise, Tesla n’intègre ni radar ni lidar dans ses robotaxis. Le système repose uniquement sur huit caméras disposées autour du véhicule. Cette configuration ne convainc pas Steven Shladover, chercheur senior au sein du programme de transport avancé de l’université de Californie à Berkeley. Selon lui, « l’automatisation de la conduite suppose une combinaison de données issues de plusieurs capteurs », et non d’une seule source visuelle. Il souligne aussi l’importance d’une localisation précise, appuyée sur des cartes numériques détaillées et des données de signalisation.

Plusieurs vidéos montrent pourtant des comportements incohérents : freinage sans obstacle, confusion dans une voie réservée, manœuvres interrompues par le superviseur à bord. Ce dernier dispose d’un bouton « arrêt sur la voie » directement accessible depuis l’écran de contrôle.

Raj Rajkumar, toujours très réservé sur la maturité du système, note que la zone d’expérimentation reste étroite. Elle s’étend, selon lui, sur moins de dix kilomètres d’un bout à l’autre. Il estime que le logiciel n’est pas encore capable de gérer des situations imprévues de manière autonome. « Il y a des milliers de scénarios imprévisibles en conduite réelle. Un humain s’adapte. L’IA, pas encore ».

Depuis 2022, plus de 750 propriétaires de Tesla ont signalé des freinages brusques en mode Autopilot auprès de la National Highway Traffic Safety Administration. L’enquête reste ouverte. En parallèle, Tesla continue d’agréger les données issues des trajets effectués. Ce volume d'informations alimente l’apprentissage du logiciel, mais les spécialistes interrogés estiment que le cap de l’autonomie complète reste encore lointain.