Tesla poursuivi en justice pour un accident mortel supposément provoqué par l'Autopilot

14 mai 2019 à 13h22
59
Tesla autopilot

Un peu plus d'un an après le décès de Walter Huang au volant de sa Tesla Model X, sa famille intente un procès à Tesla, ainsi qu'à l'État de Californie. Selon les plaignants, la responsabilité de l'entreprise américaine serait engagée car son système de pilotage automatique aurait affiché des défaillances, aux conséquences funestes. Des accusations rejetées par la société d'Elon Musk.

Le 23 mars 2018, Walter Huang, un ingénieur américain, circule sur une autoroute californienne, à bord d'une Tesla Model X. Il est alors victime d'un accident, sa voiture heurtant le terre-plein central à grande vitesse. Il succombera un peu plus tard à ses blessures.

L'Autopilot aurait commis de graves erreurs

Un an plus tard, la famille du défunt a décidé de poursuivre Tesla en justice. Elle reproche notamment à l'Autopilot d'avoir mal interprété le marquage au sol, de n'avoir pas su détecter la glissière en béton et d'avoir accéléré plutôt que freiné à l'approche de l'obstacle. Le département des transports de Californie est également cité dans la plainte, pour n'avoir pas remplacé un dispositif sur le terre-plein censé atténuer les chocs, qui manquait depuis un accident antérieur.

À en croire un des avocats de la famille Huang, un des objectifs de ce procès est de « s'assurer que la technologie derrière les voitures semi-autonomes est sûre, avant de la déployer sur les routes ». Un autre représentant des plaignants a par ailleurs résumé les griefs à l'encontre de l'entreprise d'Elon Musk : « Mme Huang a perdu son mari, et deux enfants ont perdu leur père, parce que Tesla bêta-teste son Autopilot sur des conducteurs en conditions réelles. »



Tesla pointe du doigt l'absence des mains sur le volant

Du côté du constructeur américain, on adopte bien sûr un autre point de vue. Si la société a refusé de commenter le procès à venir, elle avait réagi peu de temps après l'accident. Dès le 30 mars 2018, elle avait publié un post sur son blog, indiquant que le conducteur avait été alerté à plusieurs reprises et qu'il n'avait pas les mains sur le volant avant la collision. Un commentaire qui avait alors provoqué l'ire du Conseil national de la sécurité des transports des États-Unis, qui commençait alors son enquête. Ce qui n'avait pas empêché Tesla de réitérer quelques semaines plus tard, insistant sur l'imprudence de Walter Huang.

Quant à l'enquête officielle, elle a effectivement noté que le conducteur avait été alerté plusieurs fois, de façon visuelle et auditive. Malgré ces invitations, les mains de Walter Huang n'auraient été détectées sur le volant que 34 secondes dans la minute précédant l'accident. Mais le rapport a également révélé que la voiture n'avait pas freiné et qu'elle avait accéléré avant la collision (de 100 à 114 km/h).

Ce sera à présent aux jurés de déterminer la répartition des responsabilités, dans un procès qui pourrait faire date dans le développement des voitures autonomes ou semi-autonomes.

Source : TechCrunch

Bastien Contreras

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autr...

Lire d'autres articles

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autres surprises, que vous pourrez découvrir à travers mes articles... Et je suis là aussi si vous voulez parler actu sportive, notamment foot. Pour ceux qui ne connaissent pas, c'est comme du FIFA, mais ça fait plus mal aux jambes.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (59)

Fulmlmetal
Pourquoi mettre en titre “supposément causé par l’autopilot” !!! pour info, deux conducteurs en Tesla ont reproduit exactement le meme défaut, l’un au meme endroit de l’accident l’autre à un endroit similaire. Dans ces deux cas la voiture se serait également écrasée contre la borne centrale si le conducteur n’avait pas repris la main au dernier moment.
fredolabecane
ça me fait penser a la scène dans Robocop où l’ED209 massacre un gars par accident, commentaire du patron d’OCP “ce n’est qu’une anicroche, une cellule défectueuse…” RAB du gars qui s’est fait pulvériser. C’est une parodie mais c’est tellement vrai quand il y a des enjeux financier aussi gros derrière…
Popoulo
Vous avez malheureusement raison.
manu0086
Quand d’un côté, tu fais croire médiatiquement être prêt pour la complète autonomie et de l’autre tu soulignes que contractuellement, la Tesla n’est en rien une voiture autonome et est très très loin de l’être…
twist_oliver
Hé oui, ces entreprises ont deux solutions:<br /> dépenser des millions en indemnisant des victimes qui de toute manière ne seront jamais satisfaites tout en reconnaissant publiquement qu’il y a eu un soucis ce qui provoquera une crainte des utilisateurs…<br /> ou nier, minimiser et laisser traîner les procédures judiciaires le temps que la technologie s’améliore et que le public l’adopte au prix d’innocentes victimes…<br /> Cruel dilemme lorsqu’on est à la tête de ce genre de grosse entreprise même si dans l’absolu la vie n’a pas de prix.<br />
gwlegion
je suis navré, mais les conditions d’utilisation ca existe …<br /> si vous mettez du gas oil dans votre voiture essance, vous vous retournez contre le fabriquant ?<br /> quand vous mettez 380 v dans votre pc en 220 et qu’il crame, vous vous retourner contre le fabriquant ?<br /> quand tesla vous vends une voiture, en vous repetant que l’autopilote n’est pas fiable a 100% et que le conducteur est le seul responsable de sa securité, vous comprenez quoi ?<br /> C’est pas comme si tesla en fesait un secret … c’est marqué dans la paperasse a l’achat, sur l’ecran a chaque demarage, et si vous mettez pas les mains sur le volant, ca vous alerte encore …<br /> En plus, le mec, c’est pas jojo l’clodo … c’est un ingenieur … meme si c’est pas un ingenieur en informatique , on peut penser qu’il sait lire .<br /> Bref, pour moi, c’est bien le conducteur qui est en faute …<br /> C’est malheureux, c’est triste, mais c’est comme ca.
Fulmlmetal
La logique de Tesla est d’utiliser les conducteurs comme beta testeurs, et je trouve que c’est mettre la charrue avant les boeufs, surtout quand la sécurité est en jeu. Personne n’imaginerait monter dans un avion ou le système n’aurait jamais été testé à fond, et il n’y a qu’à voir le dernier cas du B737 max qui fait un scandale monumental chez Boeing pour un programme qui n’était pas au point.<br /> quand au refus de Tesla de reocnnaitre le défaut et le faire porter sur le conducteur c’est classique, on se rappelle tous de l’affaire dite de l’antennagate de l’iphone 4 où Jobs lui meme disait que c’était à cause des utilisateurs qui tenaient mal le telephone … avant finalement de reconnaitre le défaut devant l’évidence et la pression médiatique.
Fulmlmetal
Tu n’as visiblement pas vu les circonstances de l’accident, je te recommande de voir la vidéo de la reconstitution faite pas un autre conducteur sur place, tu verras qu’à 100km/h le temps de voir que le systeme déraille il était trop tard pour un quelconque rattrapage manuel. Je ne peux pas te mettre le lien YT car clubic censure leur liens.<br /> Ensuite, meme si le systeme de camera a été en cause lors de l’accident (rappelons qu’il n’a pas vu le ligne qui était presque effacé) il y aurait du y avoir de toute façon le système radar LIDAR qui aurait du voir l’obstacle et l’éviter.<br /> C’est toujours un peu trop facile de rejeter toute la responsabilité sur le conducteur et de dédouaner du moindre problème.<br /> Tesla et Musk n’ont pas hésité à faire une grosse pub sur leur autopilote en vantant ses qualités tel un argument de vente. il ne faut donc pas s’étonner que beaucoup le surestime. La faute est disons, partagée, mais ne aucun cas tu ne dois dédouaner la responsabilité du constructeur sous prétexte qu’il affiche un message d’avertissement au démarrage ou à la page 524 du manuel.
hyst33
Le premier gros cas avec une voiture autonome est enfin arriver et ce procès vas faire date et auras un impact énorme sur l’utilisation des voitures autonome.<br /> Je ne suis pas expert en loi américaine mais si je ne me trompe pas dans certains états il est interdit (comme en France) de lâcher le volant des 2 mains (voiture autonome ou pas).
rexxie
@hyst, non, tu n’es pas expert, une voiture de Uber a tué un piéton l’an dernier. Et un fan de Tesla trop confiant a été décapité en 2016.
Fulmlmetal
T’as pas plus impartial qu’un site de fanboys Tesla comme source ?<br /> Evidemment qu’un systeme sécuritaire a pour but de sauver des vies, c’est normal puisque c’est dans cet optique qu’il est créé. L’ABS a sauvé des vies, le freinage d’urgence pieton a sauvé des vies, l’airbag a sauvé des vies etc. Le problème c’est quand ces systemes sauve des vies mais aussi en tue, là y a un soucis. Il ne suffit pas de sortir le ratio vies sauvés vs vies perdues pour se justifier.<br /> Quand boeing a mis sont programme dans ses B737 max il n’a pas justifié l’accident en disant “ça a sauvé plus de vie que ça n’en as tué”. Y a un moment où il n’est pas normal qu’un systeme de sécurité tue.<br /> je sais Rexxie que tu es un fanboys invétéré de Musk et ses sociétés mais à un moment faut arrêter de dire n’importe quoi pour justifier tout et n’importe quoi pourvu que ça vienne de Tesla. ils ont droit de se tromper, d’avoir un systeme pas perfectible et le fait de le mentionner dans le contrat ne les dédouane pas, c’est trop facile. Bon nombre de société ont été condamné en justice pour des clauses abusives qui dédouanait les sociétés vis à vis des clients, ça montre bien que le simple fait de le dire en page 524 ne les rend pas NON responsable.<br /> Quand au coup du “le type voulait se suicider”, faut arrêter la mauvaise foi, rien n’a établi cette thèse complotiste des fanboys de ton genre. On est dans la meme betise de jobs qui disait que les utilisateurs d’iphone 4 recevait mal parce qu’ils tenait mal leur telephone
gwlegion
la diference entre les cas que tu cite (boeing et apple ) et tesla, c’est que pour tesla, tout le monde sait que c’est du beta testing …<br /> que l’autopilote n’est pas autonome et que le conducteur doit etre vigilent en permanance.<br /> Il ne s’agit pas d’un vice caché … il ne me semble d’ailleurs pas que tesla nie le probleme.<br /> La seule chose qu’ils nient, c’est leur responsabilité .<br /> Et encore une fois, si les conditions d’utilisations ne sont pas respectées, cela me semble normal que leur responsabilité ne soit pas engagée …<br /> On pourrais reparler de la pertinence de faire du beta test sur le terrain … personellement, je suis convaincu que c’est la methode la plus rapide et la plus efficasse pour avoir un autopilote fonctionnnel … mais je suis ouvert au debat.<br /> Mais j’en demords pas. SI on ne respecte pas les regles d’usage, faut pas s’etonner que ca pose probleme.<br /> Ps : quand a monter dans un avion testé a fond … renseigne toi sur les qualification en aéronautique …<br /> Un avion n’est quasiment pas testé …<br /> En gros, pour mettre un avion en circulation, il faut presenter les plan a je sais plus quel organisme, que ces plans respectent un certain nombre de regles, et ensuite produire un avion pour faire un vol d’essai … c’est a peu pres tout.<br /> En matiere de test, ca coute plus cher de mettre une voiture en circulation qu’un avion … par ce que l’avion d’essai, apres, tu peux le mettre dans le circuit.<br /> pour les voitures, il en faut un certain nombre pour passer les epreuves de crash - test … qui ne seront bien evidement pas revendues apres.
cyclohexanol_1_1
Tiens, le gourou a rexxie se fait caca dessus sur un risque de pénurie de piles<br /> Numerama – 3 May 19<br /> Tesla craindrait une pénurie des matériaux essentiels à la production des...<br /> Tesla aurait peur de connaître des problèmes de pénurie avec certains composants servant à assembler des batteries.<br />
Fulmlmetal
Le fait de mettre un logiciel en beta teste sur une voiture devrait justement rendre caduc la responsabilité des conducteurs. Dans la mesure ou un logiciel n’est pas certifié qualité on ne peut pas jeter toute la responsabilité sur le conducteur.<br /> pour l’aviation, pas de chance pour toi je travaille dans ce domaine et je te garantie que tu racontes n’importe quoi. Les certifications de la FAA et l’AESA sont très rigoureuses et nécessites plusieurs milliers d’heures d’essais en vol. un avion met plus de 1 à 3 ans pour etre certifié. il y a toute sorte d’essai, en vol, au sol, dans le froid, sous pluie, sous forte chaleur, etc et tous les systemes de sécurité sont testés et validés. Cela n’empeche pas certains bugs logiciel de passer à travers, un programme sans bug n’existe pas, surtout quand ils sont lié à une panne d’instrument dans des conditions particulières. donc évite de balancer des affirmations totalement fausse pour te donner un pseudo crédit.
dvaid
Ça a faillit m arriver : la voiture a hésité entre la sortie et rester sur la 4 voies par défaut de marquage au sol.<br /> J’ ai évidemment eu un gros avertissement sonore et visuel de reprendre le volant en main, avant même de savoir si la voiture allait merder. Je me suis amusé a laisser faire étant seul sur la route : la voiture a pilée et est revenue sur la route.<br /> tant que tu tiens le volant c est une super aide a la conduite, en particulier pour tous les moments d inattention qu on a tous au volant. La voiture se trompe, mais surveille en permanence aussi bien la route que d éventuels chauffards et ça je ne voudrais plus m en passer.<br /> Il faut pas oublier qu’on sacrifie encore plus de vie a attendre un résultat a 100% pour déployer ce type de technologie. Donc la solution intermédiaire ou on demande de rester maître du véhicule est idéal pour améliorer le système en situation réelle.
LeLapinou64
Sur le fond, la famille n’a pas tort : Tesla se sert de cet autopilote (pas au point) comme d’un argument de vente, mais explique aux utilisateurs qu’ils ne peuvent pas s’en servir en tant que tel (puisqu’il est contractuellement précisé qu’il est nécessaire de tenir les mains sur le volant). Il y a quelque chose de profondément schizophrène là dedans. Alors que que l’on arrête d’appeler cette voiture une voiture autonome, et que Tesla désactive ce système complètement sur les voitures vendues au client tant qu’il n’est pas au point (le sera t’il un jour), ainsi, ces derniers seront obligés de garder les mains sur le volant, sans ambiguïté.
cyclohexanol_1_1
C’est bien la toute le problème, ces technologies infantilisent plus qu’elles responsabilisent les conducteurs.<br /> A faire croire que la voiture peut tout et nous protéger a 100% est dangereux.
manu0086
Musk promet des voitures autonomes, affirme depuis 2017 qu’ils en sont très proches… que tout repose maintenant sur la législation… mais en fait euh non, faut garder les mains sur le volant et surveiller le comportement de la voiture en plus de la circulation.<br /> Au revoir Tesla, tu ne survivras pas au marketing de Musk et aux promesses non tenues.
Fulmlmetal
Je ne dirais pas que ça infantilise mais plutot que ça abaisse fortement ta vigilance, ta concentration, voir meme ta conscience du danger donc ca te donne un sentiment de déresponsabilisation.<br /> Dans une telle voiture, sous autopilot, tu as beau avoir les mains sur le volant, tu vas relacher ton attention c’est une évidence. et meme si la camera rate le marquage au sol tu te dis qu’au pire le radar LIDAR empechera un accident avec un obstacle … et pourtant, non.<br /> Ceux qui ont reproduit l’accident ont pu l’éviter de justesse car ils étaient vigilant et savait ce qui se produirait, mais la première fois il était impossible de prévoir et le temps de s’en apercevoir il était trop tard. A 100km/h un obstacle proche arrive très vite.
Elrix
Combien de morts sur les routes à cause de systèmes d’aide à la conduite par rapport au nombre de morts causés par la connerie humaine ?
rexxie
Il n’y a pas de LIDAR dans les Tesla. Renseigne-toi mieux que ça voyons toi qui est supposé tout savoir.<br /> Musk dit aussi que ceux qui utilisent le LIDAR s’en vont dans un cul de sac.<br /> Trop cher et peu efficace sur le long terme.<br /> Jusqu’à présent les propriétaires de Tesla ont accumulé environ 2 milliards de km en mode Autopilot. Il a sauvé de nombreux accrochages et plusieurs vies. Peut-être que ce n’est qu’une habitude à prendre d’être attentif? et que tu cherches désespérément n’importe quoi contre Tesla?<br /> On sait tous que tu n’exagères jamais rien, un modèle d’objectivité /S<br /> Au fait, tes liens ils sont où?<br /> À manu0086, le hic c’est qu’il les a toujours tenu ses paris, aussi audacieux et apparemment impossibles… juste pas toujours dans les délais annoncés.
Niverolle
Le gros problème avec un réseau de neurone c’est qu’il s’agit d’un système complexe. Certifier conforme un système compliqué n’est déjà pas toujours facile, alors un système complexe… On l’a vu avec l’accident contre le camion, l’enquête n’a pas permis de trancher avec certitude (l’hypothèse la plus simple étant que la remorque du camion a dû être interprété comme des panneaux de circulations situés au dessus de la chaussée).<br /> Quand à ceux qui s’extasient devant “homme + machine &gt; homme”, sachez que c’est la moindre des choses et que cela ne prouve absolument pas que “machine &gt; homme”. Le jour où une IA pourra dévaler une route vicinale de montagne par mauvais temps, comme le fait mon chauffeur de taxi depuis 30 ans sans accident, on en reparlera, mais en attendant, et bien justement on attend…
dvaid
Genre désactiver un élément de sécurité…<br /> Ce n’est pas une voiture autonome, mais elle est conçue pour le devenir.<br /> le système te demande de reprendre le volant au bout de 20 seconde si tu le laches pour être sûr que tu es attentif. Elle ou l ambiguïté ?<br /> Sans l autopilot, plus d obligation de respecter les distances de sécurité.<br /> en analysant le comportement humain je préfère obliger les gens a ne pas conduire, mais a contrôler ce que fait le véhicule.
LeLapinou64
Allons, ne fait pas semblant de ne pas la voir, l’ambiguïté… C’est un peu “pousse au crime” de laisser cette fonction activée (“la fonction existe, mais ne vous en servez surtout pas”), sachant que si la voiture peut conduire seule 20s elle peut le faire 20min, autrement dit elle n’est pas plus fiable sur 20s que sur 20min, à part d’un point de vue purement statistique… Alors si c’est pas au point, on le désactive, jusqu’a ce que ce soir au point.
cyclohexanol_1_1
Question très con, vu le nombres de voitures équipé d’aide la conduite VS véhicules classique.<br /> Et l’aide à la conduite ( je met en gras au cas ou certains ne comprendraient pas qu’il faut d’abord conduire) n’empêchera en rien la connerie humaine.<br /> Petit rappel<br /> the Guardian – 1 Jul 16<br /> Tesla driver killed while using autopilot was watching Harry Potter, witness...<br /> Driver in first known fatal self-driving car crash was also driving so fast that ‘he went so fast through my trailer I didn’t see him’, the truck driver involved said<br />
Fulmlmetal
t’as pas plus objectif comme source qu’un site de fanboys de Tesla ?<br /> Ca fait des années que les fans ne jurent que par l’autopilot Tesla qui s’améliore et est le meilleur au monde, et pourtant au fil des ans on constate que les défauts sont toujours là, que maintenant ça tue, et qu’on trouve toujours à la pelle des vidéos d’accident à cause de l’AP qui a déconné.
rexxie
“In the 1st quarter[2019], we registered one accident for every 2.87 million miles driven in which drivers had Autopilot engaged. For those driving without Autopilot, we registered one accident for every 1.76 million miles driven. By comparison, NHTSA’s most recent data shows that in the United States there is an automobile crash every 436,000 miles.”
cyclohexanol_1_1
Tiens encore un homme parfait
cyclohexanol_1_1
J’aime bien les neuneus qui font des copier/coller comme ça les arrange.<br /> Automobile Propre<br /> Autopilot Tesla : plus d'accidents lorsqu'il est activé au premier...<br /> Depuis octobre 2018, Tesla publie chaque trimestre un rapport sur la sécurité de ses véhicules. Le premier de l'année révèle que le nombre d'accidents à légèrement augmenté lorsque l'autopilot est activé et diminué sous conduite manuelle.<br />
cyclohexanol_1_1
Encore un site pro tesla, autant demander a un vegan si il aime la viande, aucune valeur.
rexxie
Avec les données officiels du gouvernement et des rapports de sécurité que tu as pourtant mis en lien tantôt? Lol!
dvaid
Ç est un rappel pour savoir si tu es attentif. Pas une autorisation de lâcher le volant. Tu peux tenir normalement le volant, mais en plus il faut exercer un légère pression dessus toutes les 20 secondes.<br /> En prenant des décisions extrémistes sur des cas isolés, autant interdire les véhicules.<br /> Il manquait aussi les amortisseurs de choque sur la chaussée : on interdit la route jusqu’à ce que ce soit réparé ?<br /> Mais bon c est pas nous qui allons décider.
manu0086
@rexxie, Musk a toujours tenu ses paris? LOL.<br /> T’as vraiment pas honte de sortir ça?
Elrix
On peut ramener le nombre d’accidents au km, c’est pas sale…
odyssseus
Oui, pas de bol. La voiture de test n’avait pas tous les systèmes activés… et une idiote a trouvé intelligent, en pleine nuit, de couper la route à une voiture arrivant tous feux allumés.<br /> Le summum du pas de bol, quoi.
Elrix
J’aime bien les neuneus qui mettent des liens sans les comprendre.<br /> Il y avait 1 accident tous les 2.91 millions de miles puis 1 tous 2.87 millions, c’est une evolution non significative et dans les marges statistiques…<br /> Ensuite :<br /> Selon la NHTSA, un accident survient tous les 436.000 miles (701.673 km). Les Tesla ont donc 4 à 6 fois moins de risques de connaître un accident que la plupart des véhicules.<br /> Donc sans commentaire…
cyclohexanol_1_1
Et?<br /> Ça me fait une belle jambe, l’accidentologie américaine n’est pas comparable celle de la France.<br /> Pas les même vitesses, pas le même état des routes, pas les même infrastructures etc. Si eux calcul en taules froissées, en France nous comptons en morts.<br /> En 2016, le taux de mortalité en France était de 54,7 tués par million d’habitants en France et de 102,5 aux USA. La mortalité en France par milliard de km parcourus est légèrement inférieure à 6.<br /> Si autopilot fonctionne bien sur chez les ricains avec leurs autoroutes en ligne droite interminable, j’ai des doutes sur les petites routes des Cévennes. donc comparons ce qui est comparable, c’est a dire que dalle.
Fulmlmetal
Le nombre d’accident sous autopilot est une stat biaisée, car l’utilisation se fait principalement sur autoroute, là où justement le taux d’accident est déja habituellement très bas par rapport à la route ou la ville.<br /> Le problème de ce type de stat et des stat en général c’est qu’on peut les interpeter comme on veut et les arranger comme on veut selon ce qu’on cherche à obtenir (c’est mon ancien prof de proba-stat de l’université qui disait ça).<br /> Le fait est qu’il n’est pas normal qu’une systeme de sécurité tue.<br /> Rexxie, ok pour le Lidar c’est effectivement un radar, donc peut importe car sur le fond ça ne change rien, ce systeme aurait du voir le pilier central de sortie d’autoroute, il n’a donc pas joué son role sécuritaire.<br /> Le problème de Tesla c’est que Musk, n’ayant pas voulu du Lidar a voulu surtout centrer son autopilot sur les camera, or une camera est fortement perturbé la nuit, par temps dégradés (neige, pluie, brouillard), par un marquage absent ou presque effacé, ou par la circulation des autres véhicule qui cache les panneaux et lignes, voir meme par de simple moustiques qui s’écrasent sur l’optique.<br /> Et arrêtez les fanboys avec vos arguments “les accidents étaient sous l’ancien logiciel”, à chaque fois que vous dites ça il y a un nouvel accident qui vient contredire vos propos.<br /> Y a un moment où il faut grandir, arrêter d’etre un fanatique juvénile, et admettre que le systeme a encore de très gros défauts et qu’i lest loin d’etre autonome et efficace. Et arrêter de rejeter toute responsabilité sur le conducteur.<br /> Rexxie,
redosk
Toujours le même gros troll sur les actu Tesla.
redosk
Tiens, sur une route sans marquage et avec des virages :<br /> (Et oui quand le marquage revient elle est perturbée, évidemment vu comme le marquage est mal fait, mais elle gère sans problème les virages)<br /> Tu ne sais pas de quoi tu parles, CQFD.
redosk
Avec 5 secondes / 150m pour remarquer sur la trajectoire est “droit dans le mur”, si on est attentif, on a le temps de réagir.<br /> Par ailleurs, sa femme a dit elle-même que ce n’était pas la première fois que ça déconnait à cet endroit…<br /> Quand le comportement est anormal à un endroit précis, de manière récurrente, soit on a un minimum d’intelligence et on est très attentif (où on désactivé l’AP) précisément à cet endroit, soit on fait n’importe quoi et on en paie les conséquences.<br /> Même quand on bosse pour Apple, parfois la sélection naturelle opère.<br /> (<br /> Tin les gars de Clubic, ça vous dirait pas de :<br /> mieux gérer le rafraîchissement des commentaires, je veux bien qu’un cache soit utile mais quand il est mal géré, c’est lourd<br /> accepter les liens youtube parce que visiblement celui que j’ai mis n’est pas passé, mais je ne peux pas vérifier/agir à cause du 1) (bon vérifié dans le forum directement, ça a l’air d’être passé)<br /> )<br />
cyclohexanol_1_1
CQFD rien du tout, mauvaise exemple.<br /> 30mph max et encore pas capable de tenir sa voie parce qu’il “y a un petit défaut de marquage” , je me gausse.<br /> Vous surestimez les capacités du bouzin. C’est une aide a la conduite certes sophistiqué, ça ne dispense en aucun cas de conduire, ça sauve des vies seulement si l’interface siège-volant n’est pas un couillon.<br /> Si tu voulait te faire mousser , fallait mettre cette vidéo:<br /> Mais:<br /> 1- c’est pas encore commercialisé<br /> 2- condition de circulation encore trop idéale
Fulmlmetal
pas très concluante ta vidéo, et très sélective. Franchement rouler à 30mph sur nationale c’est tellement lent que n’importe quel systeme ferait aussi bien, y rien de remarquable. Ensuite le parcours n’est pas compliqué et on voit bien qu’à la fin, sur un virage plus sec et un croisement le conducteur reprend la main … avant que l’image ne soit immédiatement coupée. Bref une vidéo pas très révélatrice de la qualité du systeme en tout temps, toute condition, tout route.<br /> On trouve d’ailleurs pluisuers vidéo où le conducteur ne cesse de reprendre le controle, notamment sur un croisement où le systeme n’a plus de repère au sol.<br /> Et pour le cas de l’accident en sortie d’autoroute, peu importe que son conducteur ait réagit mal ou pas, le fait est que le systeme a été berné par un marquage au sol faible et que le radar avant n’a rien fait pour éviter le plot central.
redosk
Bah non, je ne veux pas me faire mousser, juste montrer ce qui est faisable sur la version actuelle contrairement à ce que tu indiques.<br /> Justement je ne surestime rien, quand je m’en sers je reste prudent.<br /> Face à la situation répétitive où le gars s’est tué je serais bien plus attentif qu’en temps normal.<br /> Où est le problème du 30mph ? Vu l’état et la courbure de la route, ici elle serait à 50.<br /> Après s’il est question de rouler en excès de vitesse parce que “ouais moi je sais rouler vite youhou”, c’est ton choix.<br /> Toujours est-il que tu parlais de ne réussir à rester sur la route qu’en ligne droite, la vidéo démontre qu’elle est au contraire capable de gérer une route courbe, même sans signalisation horizontale.<br /> Il faut bien avoir aussi à l’idée que la version actuellement dispo n’a strictement rien à voir avec celle qui gérera le FSD. Ce n’est pas parce que cette version ne sait pas gérer certaine situation simple que le FSD ne sait pas encore le faire.<br /> C’est comme se plaindre de fonctionnalités de Windows 10 absente de Windows 7 même après avoir fait toutes les maj…<br /> Par contre, par rapport au FSD, va donc voir la vidéo ralentie avec le zoom sur l’écran pour bien voir tout ce qu’elle voit et analyse. Beaucoup plus intéressante que le timelapse.
redosk
C’est toi qui est très sélectif.<br /> Tu veux que je te fasse des démos de ce qu’elle arrive à gérer comme routes peut-être ?<br /> Tout temps, toute condition ? Bah j’ai déjà doublé des camions sous une pluie battante (où la visibilité humaine est très limitée) sans être inquiété et en restant parfaitement dans ma voie.<br /> Mais bon quand on critique sans savoir de quoi on parle, c’est un peu compliqué de comprendre hein.<br /> (Pour le “toute route”, je m’en sers sur nationale/départementale et en ville, en faisant beaucoup plus attention que sur autoroute, et je n’ai pas de souci, tant qu’elle a un marquage pour commencer à savoir comment est découpée la route on peut activer l’AP, par la suite même si le marquage disparaît elle continue à savoir où aller. La principale “limite” c’est quand une voie pour tourner apparaît par exemple, ou sur autoroute quand on passe de 3 à 4 voies, là elle n’est pas sûre mais en choisi quand même une des deux au final, genre ici : https://goo.gl/maps/R6ScHtar7Z57dBEs5, ou quand il y a un séparateur :<br /> https://goo.gl/maps/oCDmiVbSC2HvFhJs5, quand on s’en sert, on sait que ce sont des situations compliquées, mais au final elle prend quand même une décision, elle ne lâche pas l’affaire en partant dans le séparateur)
Zourbon
en Russie , l’autopilot évitera des centaines de milliers d’accident bien méchant car il bridera les millions de gens qui roulent bourrés à la limite du coma éthylique.<br /> Il faudrait lui rajouter des bridages de vitesse automatique selon la route empruntée.
dvaid
cyclohexanol_1_1:<br /> ça sauve des vies seulement si l’interface siège-volant n’est pas un couillon.<br /> Qu est ce que tu en sais du nombre de couillons sauvé ou non par l autopilot ?<br /> La voiture a sauvé a plusieurs reprises des conducteurs qui se sont endormis au volant.
gwlegion
vous sortez du sujet messieurs … la question n’est pas la fiabilité de l’autopilote …<br /> On sait qu’il est pas 100% fiable … c’est un fait.<br /> Le probleme c’est de savoir qui est responsable en cas d’accident .<br /> les condition d’utilisation disent que le conducteur doit rester vigilent en permanence et qu’il est responsable de sa securité et de celle des autres … C’est pas une condition cachée … c’est marqué dans le manuel, a chaque demarage de la voiture, avec un avertissement si le conducteur eleve ses mains du volant …<br /> on peux pas l’ignorer .<br /> En plus de ca, c’est de notoriété publique …<br /> La loi française a l’heure actuelle précise également ca … le conducteur est le seul responsable de son véhicule … les notions d’autopilotes n’étant pas encore incorporées aux textes, l’entreprise ne peut être tenue responsable.<br /> Je suis pas sur, mais je crois que le droit americain precise les memes choses …<br /> Donc, quel que soit le point de vue, le seul responsable, c’est le chauffeur…<br /> Je veux bien qu’on discute sur la pertinence d’un clause dans un manuel d’utilisation, meme si pour moi cette clause n’est pas aberante.<br /> mais la loi est claire…<br /> quand au clause aberante … ben c’est est pas une.<br /> d’aulleurs, c’est pas une clause en soi, mais un rappel a la loi . Tesla ne se dedoine pas de ses responsabilité mais rapelle que la securité, c’est la responsabilité du conducteur …
Voir tous les messages sur le forum
Haut de page

Sur le même sujet