Full Self-Driving : l'option de conduite autonome de Tesla (encore) sous le coup d'une enquête

15 novembre 2021 à 19h25
17
© TierneyMJ / Shutterstock.com
© TierneyMJ / Shutterstock.com

Le Full Self Driving est-il la cause d'un accident ayant eu lieu en Californie ? C'est ce que doit déterminer une enquête en cours de la NHTSA.

La structure a déjà Tesla dans le viseur, notamment à cause d'une clause de confidentialité entre les testeurs de la version bêta du Full Self Driving et l'entreprise, empêchant ainsi la NHTSA d'avoir accès aux informations à propos des tests de cette technologie d'aide à la conduite.

Un crash causé par le Full-Self Driving : une première

L'enquête poursuit son cours, mais plusieurs éléments sont déjà connus. Aux États-Unis, et plus précisément le 3 novembre dernier en Californie, un accident a eu lieu entre deux véhicules. Rien de bien rare jusqu'ici, sauf que l'une des voitures impliquées est une Tesla Model Y et que le Full Self Driving était activé au moment du crash.

Et le courroux du chauffeur, qui a donc depuis déposé plainte auprès de la National Highway Traffic Safety Administration (NHTSA), provient du fait que, selon lui, le Full Self Driving n'en a fait qu'à sa tête. « Le véhicule […] a donné une alerte au conducteur à mi-chemin du virage, et le conducteur a essayé de tourner le volant pour éviter le reste de la circulation, selon la plainte. Mais la voiture a pris le contrôle et "s'est forcée dans la mauvaise voie, créant une manœuvre dangereuse mettant en danger toutes les personnes impliquées" ».

Si aucun blessé n'est à déplorer, malgré de sévères dégâts matériels, cela rappelle que la NHTSA travaille déjà sur une enquête au sujet d'accidents au cours desquels une autre technologie d'aide à la conduite de la firme, l'Autopilot Tesla, était actif. Un cas qui pourrait donc donner de l'eau au moulin à la structure, avec pas moins de 765 000 véhicules de la marque passés au crible.

De son côté, Tesla argue que le Full Self Driving n'est jamais totalement autonome

La firme d'Elon Musk a notamment répondu que, malgré leurs noms, ces technologies ne sont que des aides d'assistance à la conduite, pas des conducteurs autonomes. Il est à noter que le Full Self Driving est toujours en phase bêta, la dernière mise à jour (10.3) ayant d'ailleurs été suspendue, puis retirée par la firme alors que (justement) plusieurs utilisateurs avaient fait part de messages intempestifs annonçant des collisions malgré l'absence de danger, ou encore des freinages non désirés.

Il faut dire que depuis leur lancement, les technologies d'aide à la conduite telles que l'Autopilot et le Full Self Driving sont sans cesse en cours de rodage. Comme tout système innovant, ceux-ci ont encore de nombreuses limites à dépasser. Par exemple, si l'Autopilot a notamment permis en août dernier de stopper un véhicule Tesla sur la bande d'arrêt d'urgence avec à son bord un chauffeur norvégien manifestement ivre selon l'enquête de police, le fait qu'il ait été plusieurs fois invoqué que l'Autopilot confond le feu orange avec la Lune traduit encore le travail qu'il reste à accomplir pour la firme américaine.

Source : AutoBlog

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (17)

gamez
j’espère qu’à force de corriger ces bugs au fil des signalements des situations à problème, on finira par avoir un système qui s’approche de la perfection.
toast
En même temps, ça n’est autorisé que dans un seul pays avec un nombre restreint de clients, c’est pas comme si la planète entière s’éclatait en FSD non plus.<br /> Ce que fait Tesla est un peu gonflé, c’est clair, mais on sait très bien que l’important en machine learning, c’est la data. Et la data, ils ne vont pas la récupérer en faisant rouler 3 mules en Californie.<br /> Tant que ça tient, ils récupèrent des données.
Blackalf
toast:<br /> En même temps, ça n’est autorisé que dans un seul pays avec un nombre restreint de clients<br /> Mais le nombre des autres véhicules également présent sur les routes n’est pas restreint, lui. Ca n’en est donc pas moins des tests sur route ouverte d’un logiciel pas au point, avec tous les problèmes et accidents potentiels que ça peut engendrer. <br /> On notera en passant l’hypocrisie de Tesla qui précise «&nbsp;malgré leurs noms, ces technologies ne sont que des aides d’assistance à la conduite, pas des conducteurs autonomes&nbsp;».<br /> Alors il fallait peut-être l’appeler autrement que «&nbsp;Full Self-Driving&nbsp;», non ? parce que si je ne me trompe, ça signifie bien «&nbsp;conduite entièrement autonome&nbsp;».<br /> La simple raison aurait voulu que la marque n’utilise pas ce nom avant qu’il soit réellement fiable et prêt à être déployé en toute sécurité…mais elle fait passer le buzz et le marketing avant la sécurité des autres usagers.
toast
Je suis plutôt d’accord pour le choix de nom complètement stupide.
meudla
En fait il est impossible de rester vigilant lorsque la voiture conduit automatiquement sur 5000km pour corriger l’ecard au 5001 km. Il faut donc interdire toute technologie dite autonome qui n’est pas reelement autonome à 100% ; pour revenir sur des aides à la conduite bienvenue mais qui oblige le conducteur à ‹&nbsp;conduire&nbsp;› donc être vigilant. (même si la voiture freine ou corrige la trajectoire en cas de besoin clairement identifiée)
Blackalf
Ce n’est pas faux, on sait tous qu’on est moins vigilant après x km sur autoroute, par rapport à la conduite en ville où il faut être sans cesse sur le qui-vive. ^^<br /> Personnellement, j’aime conduire et je me fie pas vraiment aux aides. Peut-être que l’une ou l’autre me sauvera la mise un jour ou l’autre, mais je ne me repose jamais sur elles.<br /> Parce que j’estime que trop d’automatisme peut même être dangereux dans certaines circonstances, j’ai déjà raconté cette histoire : on m’a prêté pendant 3 jours un Mazda CX-5 équipé entre autres du maintien actif dans la voie. De 1. il fallait surveiller sans arrêt sur l’écran que le système affichait bien les lignes de la bande de circulation (pas d’affichage = pas de détection = système inopérant), donc une source de distraction et 2. j’ai du à un moment faire un écart brusque pour éviter un animal surgi au dernier moment et qui traversait en courant…et la voiture a tenté de m’en empêcher. <br /> J’ai du forcer sur le volant pour en prendre le contrôle, j’ai d’excellents réflexes, mais il ne fait aucun doute que ma réaction a été ralentie par le système et que dans des circonstances encore plus critiques ça aurait pu faire une différence, et dans le mauvais sens.<br /> Au final j’ai désactivé la fonction, j’avais donc encore moins d’aide que sur ma Mazda 2 qui n’a qu’un avertissement sonore de déviation de la voie.
Proutie66
"De son côté, Tesla argue que le Full Self Driving n’est jamais totalement autonome<br /> "<br /> J’adore.<br /> Sincèrement, Musk c’est un génie. Il le fait croire à tout le monde, les Tesla Boys disent que si une TM3 est pas fichue de prendre un rond point en automne c’est à cause de l’UE, mais même la marque t’avoue qu’un terme aussi clair que «&nbsp;Full self Driving&nbsp;» (explicite), bha en fait c’est pas du tout au point.
xryl
Ouais, perso, je suis plus du côté de Tesla sur le coup que des haters. J’aime pas Tesla, je trouve qu’ils font des voitures beaucoup trop chères par rapport aux finitions réelles.<br /> Cependant, je suis presque sûr que le FSD tel qu’il est est probablement déjà plus fiable que l’humain. Certes, peut être pas Tonton Georges qui a conduit 1 million de kms en 60 ans et qui n’a jamais eu d’accident, si si je vous l’assure. Bref, si on fait abstraction du fait que quasiment tout le monde assure être meilleur que la moyenne des conducteurs, si l’on ramène le nombre d’accident au km parcouru, je suis presque convaincu que le FSD est au moins aussi bon, si ce n’est mieux que l’humain.<br /> Pourquoi on entend plus parler du FSD par rapport aux autres accidents ? Simplement parce que si tu plantes ta caisse alors que t’es distrait, bourré, con ou autre, tu vas pas le crier sur les toits. Si c’est le FSD qui la plante (seul ou par ta négligence), alors là tu te dis, pourquoi pas faire porter le chapeau sur Tesla, histoire de pas avoir à affronter ta responsabilité ?
yoda_net
«&nbsp;Personnellement, j’aime conduire et je me fie pas vraiment aux aides&nbsp;»<br /> «&nbsp;Parce que j’estime que trop d’automatisme peut même être dangereux dans certaines circonstances&nbsp;»<br /> +100000000<br /> «&nbsp;Au final j’ai désactivé la fonction&nbsp;»<br /> Malheureusement, c’est de plus en plus difficile (voire impossible) de désactiver certaines aides, il faut passer dans des menus, des sous menus et il faut recommencer à chaque démarrage. J’espère garder mon véhicule actuel le plus longtemps possible, avec juste l’ABS et un DSC (ESP + anti patinage) déconnectable juste en appuyant sur un seul bouton directement.
fifi58
Pour faire un parallèle sur ce thème, les conducteurs du métro parisien (hors lignes totalement automatiques) ne conduisent pas vraiment, ils se contentent de fermer les portes et ensuite l’automatisme pilote seul la rame jusqu’à la station suivante.<br /> Sauf que parfois, ils doivent conduire quand même, soit à cause d’une panne, soit pour des travaux désactivant le système sur un secteur.<br /> Ne conduisant pas souvent, ils n’avaient plus l’habitude et faisaient des conn… en conduite manuelle !<br /> La RATP a donc institué des périodes «&nbsp;sans pilote automatique&nbsp;», d’abord en période creuse, puis même en période de pointe car c’est plus compliqué et plus stressant quand les rames se suivent de très près.<br /> C’est ce qui a causé un accident à Notre-Dame-de-Lorette par survitesse car le système était totalement désactivé, pilotage automatique comme contrôle de vitesse, les deux étant liés.<br /> Après, ils ont modifié le système pour pouvoir maintenir le contrôle de vitesse tout le temps, même en pilotage manuel.<br /> Comme quoi, un automatisme, même sans problème en lui-même, peut indirectement poser des problèmes !
Francis7
@xryl :<br /> Pourquoi on entend plus parler du FSD par rapport aux autres accidents ?<br /> C’est parce qu’à mon avis il est à l’origine d’accidents complètement stupides que l’humain aurait pu éviter. Comme ne pas savoir négocier un virage ou un rond point.<br /> Pour le reste, je n’ai rien contre les aides à la conduite ni contre l’Autopilot, etc qui font le boulot. Mais je ne suis pas fan.<br /> Pour l’anecdote, une voiture dite autonome a emboutie 3 voitures de police arrêtées sur la bande l’arrêt d’urgence pour faire des contrôles. Plusieurs policiers ont été blessés. Je crois que c’est l’accident qui est à l’origine de la première plainte.<br /> La voiture n’a pas reconnu les gyrophares et s’est emballée pour leur rentrer dedans. Il ne faut pas rire, hein !<br /> L’humain n’aurait pas fait cette bourde. Il y a enquête parce que c’est incompréhensible et stupide. On n’a pas cloué les Tesla au sol pour autant.
Blackalf
yoda_net:<br /> Malheureusement, c’est de plus en plus difficile (voire impossible) de désactiver certaines aides, il faut passer dans des menus, des sous menus et il faut recommencer à chaque démarrage.<br /> Ca dépend des marques et de leurs choix. ^^<br /> Sur ma Mazda 2, plusieurs choses sont désactivables en permanence dans les menus, d’autres le sont via un bouton*. Le seul truc qu’il faut désactiver à nouveau chaque fois qu’on remet le contact, c’est le Stop &amp; Start. Mais uniquement avec boîte manuelle, perso je n’ai pas besoin de le faire parce que j’ai une boîte auto et que le S &amp; S est activable ou non à volonté selon la pression sur la pédale de freins.<br /> par exemple le DSC, l’anti-patinage, l’avertissement de maintien dans la voie…indispensable lorsqu’on roule dans une zone en travaux avec de nombreux marquages au sol qui font bipper le truc en permanence. <br />
Guilde69
Combien d’accident/km par les humains ? Combien par les véhicules autonomes ?<br /> Ce qui est aberrant c’est qu’on fasse tout un foin d’un accident comme ça.
_J2B
Quand on voit toutes les pannes, bugs et défauts des différentes IA, apps, sites et algorithmes des grosses multinationales (Facebook, Google, Amazon etc.), ça ne donne pas envie de confier sa vie à une IA et des algorithmes alors qu’elles ne sont même pas foutues d’ajouter vocalement des «&nbsp;œufs&nbsp;» à ma liste de courses. À la place elles m’ajoutent des «&nbsp;E&nbsp;».
EricARF
Cette habitude américaine d’attaquer en justice pour obtenir des millions de $ pour un fait insignifiant.<br /> L’IA a des accidents, la belle affaire. Serait il si difficile de concevoir qu’il n’y a pas de vie sans risque, pas d’actes sans conséquences et qu’il y a des catastrophes sans responsables…
EricARF
Cela s’appelle du marketing. L’illusion totale…
toast
Cela s’appelle un gros préjugé à l’emporte pièce.
Voir tous les messages sur le forum