Communauté Clubic

Véhicule autonome Uber : une enquête implique des défauts logiciels dans un accident mortel

D’après une série de rapports du conseil national de la sécurité des transports (National Transportation Safety Board, ou NTSB), le logiciel du véhicule autonome de la marque Uber qui a percuté et tué une américaine en 2018 présentait différentes failles. Selon le document, le véhicule de test aurait détecté la victime, mais sa programmation ne lui aurait pas permis de l’identifier comme une personne traversant hors des passages piétons.

Quand je pense qu’on nous sort comme excuse que le pieton etait hors des clous.
Lorsque je suis dans ma voiture, le fait d’écraser quelqu’un en dehors des clous n’est pas considéré comme une excuse recevable !

2 J'aimes

Les pietons (ceux qui sont irresponsables), après avoir été la plaie des automobilistes sera la plaie des voitures autonomes.
Il y a encore du boulot …

En fait, le rapport n’excuse pas le véhicule, ni Uber. Il explique du comportement du véhicule pour mieux cerner le problème, et donc le résoudre.

C’est pas un hasard si le NTSB a envoyé les défauts relevés à Uber.

2 J'aimes

Je pensais que les tests se faisaient avec une personne au volant pour gérer ce genre de cas.

En théorie, c’est le cas. Et d’après Marianne, c’est le cas pour chaque accident impliquant un véhicule autonome.

Justement on voit bien sur la vidéo qui a tourné après l’accident que le véhicvule ne réagit pas mais la personne au volant non plus (enfin elle semble ne pas être concentré sur la route et ne tient pas le volant)…

Merci pour le lien.
Maintenant pourrait se poser la question de la responsabilité entre Uber et le « conducteur ».

Clairement. A mon avis, ces conducteurs devaient sur leur smartphone au moment du choc (lorsqu’il est responsable).

Et là, on en revient au débat qui anime les véhicules autonomes produits actuellement.

La loi précise qu’un conducteur, même si le véhicule est autonome, doit être en pleine mesure de ses moyens et pouvoir reprendre le contrôle à tout moment. Mais du coup, quel intérêt d’avoir une voiture autonome s’il faut constamment avoir les yeux sur la route ?

Les véhicules pleinement autonomes n’existants pas et n’arrivant pas demain, la question ne se pose pas… Et ils ne seront jamais pleinement autonomes sans certification officielle et donc la loi évoluera en conséquence à ce moment là.

D’un autre côté, une personne sensée, en pleine nuit, voyant une voiture arriver tous feux allumés, ne traverse pas juste devant elle. Elle attend 5 secondes que la voiture soit passée.
Pas de bol, la voiture d’essai (avec en plus des fonctions désactivées) est tombée pile poil sur une inconsciente. Bref, tout pour que cela se passe mal.

Le plus fort, c’est de lire qu’il s’agit d’une Volvo : elle était donc équipée en série d’un système de freinage d’urgence lorsqu’elle détecte un piéton, mais ces guignols l’ont désactivé, pensant probablement qu’ils pouvaient faire mieux au lieu de se dire que si le système d’origine se déclenche, c’est qu’ils ont mal fait leur programmation et qu’il y a un problème à corriger…