Full Self-Driving : l'option de conduite autonome de Tesla (encore) sous le coup d'une enquête

Thibaut Keutchayan
Publié le 15 novembre 2021 à 19h25
© TierneyMJ / Shutterstock.com
© TierneyMJ / Shutterstock.com

Le Full Self Driving est-il la cause d'un accident ayant eu lieu en Californie ? C'est ce que doit déterminer une enquête en cours de la NHTSA.

La structure a déjà Tesla dans le viseur, notamment à cause d'une clause de confidentialité entre les testeurs de la version bêta du Full Self Driving et l'entreprise, empêchant ainsi la NHTSA d'avoir accès aux informations à propos des tests de cette technologie d'aide à la conduite.

Un crash causé par le Full-Self Driving : une première

L'enquête poursuit son cours, mais plusieurs éléments sont déjà connus. Aux États-Unis, et plus précisément le 3 novembre dernier en Californie, un accident a eu lieu entre deux véhicules. Rien de bien rare jusqu'ici, sauf que l'une des voitures impliquées est une Tesla Model Y et que le Full Self Driving était activé au moment du crash.

Et le courroux du chauffeur, qui a donc depuis déposé plainte auprès de la National Highway Traffic Safety Administration (NHTSA), provient du fait que, selon lui, le Full Self Driving n'en a fait qu'à sa tête. « Le véhicule […] a donné une alerte au conducteur à mi-chemin du virage, et le conducteur a essayé de tourner le volant pour éviter le reste de la circulation, selon la plainte. Mais la voiture a pris le contrôle et "s'est forcée dans la mauvaise voie, créant une manœuvre dangereuse mettant en danger toutes les personnes impliquées" ».

Si aucun blessé n'est à déplorer, malgré de sévères dégâts matériels, cela rappelle que la NHTSA travaille déjà sur une enquête au sujet d'accidents au cours desquels une autre technologie d'aide à la conduite de la firme, l'Autopilot Tesla, était actif. Un cas qui pourrait donc donner de l'eau au moulin à la structure, avec pas moins de 765 000 véhicules de la marque passés au crible.

De son côté, Tesla argue que le Full Self Driving n'est jamais totalement autonome

La firme d'Elon Musk a notamment répondu que, malgré leurs noms, ces technologies ne sont que des aides d'assistance à la conduite, pas des conducteurs autonomes. Il est à noter que le Full Self Driving est toujours en phase bêta, la dernière mise à jour (10.3) ayant d'ailleurs été suspendue, puis retirée par la firme alors que (justement) plusieurs utilisateurs avaient fait part de messages intempestifs annonçant des collisions malgré l'absence de danger, ou encore des freinages non désirés.

Il faut dire que depuis leur lancement, les technologies d'aide à la conduite telles que l'Autopilot et le Full Self Driving sont sans cesse en cours de rodage. Comme tout système innovant, ceux-ci ont encore de nombreuses limites à dépasser. Par exemple, si l'Autopilot a notamment permis en août dernier de stopper un véhicule Tesla sur la bande d'arrêt d'urgence avec à son bord un chauffeur norvégien manifestement ivre selon l'enquête de police, le fait qu'il ait été plusieurs fois invoqué que l'Autopilot confond le feu orange avec la Lune traduit encore le travail qu'il reste à accomplir pour la firme américaine.

Source : AutoBlog

Thibaut Keutchayan
Par Thibaut Keutchayan

Je m'intéresse notamment aux problématiques liant nouvelles technologies et politique tout en m'ouvrant à l'immense diversité des sujets que propose le monde de la tech' quand je ne suis pas en train de taper dans un ballon.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
gamez

j’espère qu’à force de corriger ces bugs au fil des signalements des situations à problème, on finira par avoir un système qui s’approche de la perfection.

toast

En même temps, ça n’est autorisé que dans un seul pays avec un nombre restreint de clients, c’est pas comme si la planète entière s’éclatait en FSD non plus.
Ce que fait Tesla est un peu gonflé, c’est clair, mais on sait très bien que l’important en machine learning, c’est la data. Et la data, ils ne vont pas la récupérer en faisant rouler 3 mules en Californie.
Tant que ça tient, ils récupèrent des données.

Blackalf

Mais le nombre des autres véhicules également présent sur les routes n’est pas restreint, lui. Ca n’en est donc pas moins des tests sur route ouverte d’un logiciel pas au point, avec tous les problèmes et accidents potentiels que ça peut engendrer. neutre

On notera en passant l’hypocrisie de Tesla qui précise « malgré leurs noms, ces technologies ne sont que des aides d’assistance à la conduite, pas des conducteurs autonomes ».

Alors il fallait peut-être l’appeler autrement que « Full Self-Driving », non ? parce que si je ne me trompe, ça signifie bien « conduite entièrement autonome ».

La simple raison aurait voulu que la marque n’utilise pas ce nom avant qu’il soit réellement fiable et prêt à être déployé en toute sécurité…mais elle fait passer le buzz et le marketing avant la sécurité des autres usagers.

toast

Je suis plutôt d’accord pour le choix de nom complètement stupide.

meudla

En fait il est impossible de rester vigilant lorsque la voiture conduit automatiquement sur 5000km pour corriger l’ecard au 5001 km. Il faut donc interdire toute technologie dite autonome qui n’est pas reelement autonome à 100% ; pour revenir sur des aides à la conduite bienvenue mais qui oblige le conducteur à ‹ conduire › donc être vigilant. (même si la voiture freine ou corrige la trajectoire en cas de besoin clairement identifiée)

Blackalf

Ce n’est pas faux, on sait tous qu’on est moins vigilant après x km sur autoroute, par rapport à la conduite en ville où il faut être sans cesse sur le qui-vive. ^^

Personnellement, j’aime conduire et je me fie pas vraiment aux aides. Peut-être que l’une ou l’autre me sauvera la mise un jour ou l’autre, mais je ne me repose jamais sur elles.

Parce que j’estime que trop d’automatisme peut même être dangereux dans certaines circonstances, j’ai déjà raconté cette histoire : on m’a prêté pendant 3 jours un Mazda CX-5 équipé entre autres du maintien actif dans la voie. De 1. il fallait surveiller sans arrêt sur l’écran que le système affichait bien les lignes de la bande de circulation (pas d’affichage = pas de détection = système inopérant), donc une source de distraction et 2. j’ai du à un moment faire un écart brusque pour éviter un animal surgi au dernier moment et qui traversait en courant…et la voiture a tenté de m’en empêcher. riva

J’ai du forcer sur le volant pour en prendre le contrôle, j’ai d’excellents réflexes, mais il ne fait aucun doute que ma réaction a été ralentie par le système et que dans des circonstances encore plus critiques ça aurait pu faire une différence, et dans le mauvais sens.

Au final j’ai désactivé la fonction, j’avais donc encore moins d’aide que sur ma Mazda 2 qui n’a qu’un avertissement sonore de déviation de la voie. neutre

Proutie66

"De son côté, Tesla argue que le Full Self Driving n’est jamais totalement autonome
"
J’adore.
Sincèrement, Musk c’est un génie. Il le fait croire à tout le monde, les Tesla Boys disent que si une TM3 est pas fichue de prendre un rond point en automne c’est à cause de l’UE, mais même la marque t’avoue qu’un terme aussi clair que « Full self Driving » (explicite), bha en fait c’est pas du tout au point.

xryl

Ouais, perso, je suis plus du côté de Tesla sur le coup que des haters. J’aime pas Tesla, je trouve qu’ils font des voitures beaucoup trop chères par rapport aux finitions réelles.

Cependant, je suis presque sûr que le FSD tel qu’il est est probablement déjà plus fiable que l’humain. Certes, peut être pas Tonton Georges qui a conduit 1 million de kms en 60 ans et qui n’a jamais eu d’accident, si si je vous l’assure. Bref, si on fait abstraction du fait que quasiment tout le monde assure être meilleur que la moyenne des conducteurs, si l’on ramène le nombre d’accident au km parcouru, je suis presque convaincu que le FSD est au moins aussi bon, si ce n’est mieux que l’humain.

Pourquoi on entend plus parler du FSD par rapport aux autres accidents ? Simplement parce que si tu plantes ta caisse alors que t’es distrait, bourré, con ou autre, tu vas pas le crier sur les toits. Si c’est le FSD qui la plante (seul ou par ta négligence), alors là tu te dis, pourquoi pas faire porter le chapeau sur Tesla, histoire de pas avoir à affronter ta responsabilité ?

yoda_net

« Personnellement, j’aime conduire et je me fie pas vraiment aux aides »
« Parce que j’estime que trop d’automatisme peut même être dangereux dans certaines circonstances »
+100000000

« Au final j’ai désactivé la fonction »
Malheureusement, c’est de plus en plus difficile (voire impossible) de désactiver certaines aides, il faut passer dans des menus, des sous menus et il faut recommencer à chaque démarrage. J’espère garder mon véhicule actuel le plus longtemps possible, avec juste l’ABS et un DSC (ESP + anti patinage) déconnectable juste en appuyant sur un seul bouton directement.

fifi58

Pour faire un parallèle sur ce thème, les conducteurs du métro parisien (hors lignes totalement automatiques) ne conduisent pas vraiment, ils se contentent de fermer les portes et ensuite l’automatisme pilote seul la rame jusqu’à la station suivante.
Sauf que parfois, ils doivent conduire quand même, soit à cause d’une panne, soit pour des travaux désactivant le système sur un secteur.
Ne conduisant pas souvent, ils n’avaient plus l’habitude et faisaient des conn… en conduite manuelle !
La RATP a donc institué des périodes « sans pilote automatique », d’abord en période creuse, puis même en période de pointe car c’est plus compliqué et plus stressant quand les rames se suivent de très près.
C’est ce qui a causé un accident à Notre-Dame-de-Lorette par survitesse car le système était totalement désactivé, pilotage automatique comme contrôle de vitesse, les deux étant liés.
Après, ils ont modifié le système pour pouvoir maintenir le contrôle de vitesse tout le temps, même en pilotage manuel.
Comme quoi, un automatisme, même sans problème en lui-même, peut indirectement poser des problèmes !