Tesla Vision est enfin là, voilà ce que c'est

24 mars 2023 à 14h35
18
© Tesla
© Tesla

La première version de Tesla Vision est en cours de déploiement et apporte une nouvelle fonction d'assistance au stationnement.

En octobre dernier, Tesla annonçait que ses nouveaux véhicules Model Y et Model 3 seraient dorénavant livrés sans capteurs à ultrasons. Ces composants situés dans les pare-chocs avant et arrière de ses voitures étaient pourtant indispensables pour le bon fonctionnement de plusieurs options d'aide à la conduite, notamment lors des manœuvres et du stationnement.

Une nouvelle assistance au stationnement

Mais une mise à jour (version 2023.6.9) déployée à travers le monde à partir d'aujourd'hui vient, enfin, compenser cette absence. Celle-ci apporte la première mouture de Tesla Vision, et notamment la fonctionnalité Tesla Vision Park Assist d'assistance au stationnement.

Selon le patch note de la mise à jour, Tesla Vision Park Assist « fournit des alertes visuelles et audio des objets environnants. Cette fonctionnalité utilise le réseau d'occupation pour prédire les contours haute définition des objets à 360 degrés autour de la voiture ».

De premières vidéos de Tesla Vision Park Assist ont commencé à être publiées sur les réseaux sociaux, avec des résultats qui semblent mitigés pour l'instant. Des tests plus approfondis sont nécessaires pour estimer si cette nouvelle option est plus efficace que l'ancien système basé sur les capteurs à ultrason.

Tesla Vision est encore loin d'être complet

Sans capteurs à ultrason, les véhicules Tesla doivent compter sur leurs caméras pour apprécier les distances, ce qui pourrait poser problème en cas de conditions lumineuses insuffisantes ou si le champ de vision des caméras est obstrué.

Pour le conducteur, Tesla Vision Park Assist affiche sur l'écran central un aperçu de la situation dans l'espace du véhicule, avec une ligne entourant la voiture pour matérialiser les obstacles. Un code couleur indique la distance approximative des objets détectés : blanc, vous avez de la marge, orange, cela commence à se rapprocher, et rouge, il va falloir songer à ne pas s'approcher plus.

La mise à jour apporte une version incomplète de Tesla Vision puisque seul Park Assist est proposé. Pour rappel, le retrait des capteurs supprime aussi plusieurs fonctions liées à la conduite entièrement autonome (Full Self Driving), comme le Parking Auto ou le Smart Summon.

Source : Tesla

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (18)

xryl
C’est vrai que retirer des capteurs à 20cts pièce (peut être 20€ avec le câblage de tous les capteurs) alors que toute l’architecture soft était déjà en place pour les gérer correctement, je sois pas sûr que ce fût l’idée du siècle.
fredolabecane
On ne parle plus de conducteur, mais d’assisté, bientôt plus personne ne saura faire un créneau…qué désastre.
gerome21
En faisant l’inverse de Mercedes, avec l’abandon du radar, des capteurs ultra-son, l’absence de lidar, la marque semble se désengage progressivement de la conduite autonome. La seule vision par caméras est largement insuffisante pour assurer une conduite sécurisée.
gekola
C’est bizarre, une image est beaucoup plus coûteuse à analyser d’un écho non ?<br /> Pour la sécurité se baser sur différent types de capteur est une plus grande garantie de fiabilité non ?<br /> Je ne doute pas qu’il n’est pas simple de faire fusionner les données non concordante est compliqué, mais cela à au moins l’intérêt de montrer un problème dans un des deux types de capteur.<br /> Je pense honnêtement que le temps de calcule n’est pas le facteur limitant dans le choix de cette suppression. Le côté économique (capteur en moins + les puces les gérants + le câblage + la simplification du montage) est important, et le côté complexité de fusion des données sont les deux facteurs ayant conduit à cette simplification.<br /> Je n’avais déjà que peu confiance en leur technologie, mais cette évolution ne va clairement pas me rassurer.
philouze
« retirer des capteurs à 20cts pièce (peut être 20€ avec le câblage de tous les capteurs) alors que toute l’architecture soft était déjà en place pour les gérer correctement »<br /> ça part d’une sorte de « vision » de Musk sur le dossier, qu’il a amorcé dès le départ du projet, et qui a été la cause de sa séparation d’avec MobileEye : virer TOUT ce qui n’est pas caméra.<br /> ne gérer qu’un seul média, peu cher, de toute façon indispensable, très évolutif par software.<br /> l’économie doit être vue de ce point de vue là, pas juste les retraits de ces capteurs.<br /> Musk a commencé par virer les Lidars protos des mulets FSD, puis les radars longue portée anicollision, puis les radars ultrasons de l’éventuel park assist.<br /> C’est un peu comme quand Apple a voulu virer un à un tous les ports, molettes, boutons.<br /> C’est dans une démarche centralisatrice / minimaliste.<br /> j’y vois une forme d’idéologie jusqu’au boutiste, mais je comprend qu’on puisse défendre ça.
philouze
"Avec des capteurs de natures différentes (radar + caméra, etc…) le système doit faire corroborer les informations fournies par chaque type de capteur. Ça prend du temps de cycle de calcul qui pourrait être mis à profit pour exploiter davantage les données d’un type de capteur (les caméras)<br /> Les développeurs de Tesla ont expliqué que plus le FSD progressait en vision, plus les données radars étaient redondantes, et généraient du « bruit », et faisaient perdre des cycles de calcul."<br /> Des témoignages qui commencent à sortir nous disent que ça, c’est du storytelling. Musk était complètement buté sur la question et s’est fritté avec les gens de la sécu, a dissimulé plusieurs accidents graves en interne etc.<br /> Le lidar génère peu de bruit, il a son propre circuit et crache beaucoup moins de données brutes au final qu’une double-caméra ultra haute vitesse dont on doit extraire N millions de points / seconde par photogramétrie.<br /> A la nuance près que tous les points du Lidar ont le bon gout d’être tous… justes.
Werehog
Au final c’est toujours le patron qui a raison hein… mais quand on voit le nombre d’échecs qu’il ramasse récemment, il faut croire que sa période « génie » est terminée.
Blackalf
Ce que j’en sais, c’est que la caméra de ma voiture, destinée à surveiller le maintien dans la file et avertir si nécessaire par un bourdonnement dans les haut-parleurs gauches ou droits, signale souvent des faux positifs*, alors que le Lidar anti-collision m’a sauvé la mise à deux reprises. ^^<br /> du genre voir sur la route des lignes presque effacées mais ne pas voir les neuves bien visibles, ou signaler une dérive (souvent par temps de pluie…trompée par des flaques d’eau ?) alors qu’il n’y en a pas.<br />
Martin_Penwald
puis les radars longue portée anicollision<br /> Ça sert à éviter les collisions avec le pastis ?<br /> 《 Maiis naon m’sieur l’agent … les agents … j’suis pas bourré, j’ahaieu évité toutes les rencontres avec des boaasssons à l’anis aaveqeu mon syssstaiime anicollision … 》<br /> (Et vous remarquerez que j’aurais plutôt pu faire une blague avec_anus, mais je suis quelqu’un de sérieux).
raymondp
Impressionnant en effet. Tout ce que fait le cerveau humain de façon naturelle et sans calculs ni matériel complexe, enfin, quand le cerveau marche bien <br /> La scène avec la voiture qui tire la remorque brinquebalante est assez édifiante des situations qui peuvent se produire !<br /> C’est à la fois bien et quelque peu dégradant pour l’homme : l’individu du futur ne saura plus conduire une voiture ni faire un créneau sans l’assistance de l’ordinateur de bord. Et je ne parle pas de se garer avec une remorque derrière.
Electrum
Beaucoup de confusion, tesla vision est sorti pour l autopilot depuis 1 an et demi. Et je parle du tesla vision version 1 sur lequel le Park assist est aussi basé… Il s agit d une analyse d’images 2d indépendante et très approximative… Depuis 1 an environ tesla teste sont tesla vision 2 sur lequel le FSD beta est construit. Il s’agit d cette fois ci d utiliser toutes les caméra pour modéliser m environnement qui entoure 'e véhicule en 3d avec bien plus de précision que le tesla vision 1… Donc le Park assist basé sur tesla vision 1 n est la que pour colmater temporaiement le manque de capteurs ultrason sur les recents véhicules de Tesla en attendant que la version qui utilisera l occupency network sorte un jour… Et la nous aurons quelque chose de suffisamment précis pour lui donner quasi totale confiance car capable de voir à 360 et également à toutes les hauteurs…
philouze
Ecoutes Nicolas, : la démo Tesla est très convaincante, on voit qu’ils ont énormément cerné de problématiques- mais ça me semble beaucoup moins impressionnant que font les concurrents comme Mobile Eye.<br /> Le truc que l’équipe de ME semble avoir dépassé, c’est décoder le « code de la route tacite de chaque coin du monde » et « les intentions précises des autres conducteurs humains » avec des cas de figures impressionnants, bloquants même pour des humains, et que je n’ai pas retrouvé ici.<br /> Quand à la photogrammétrie, je n’ai rien vu qui me semble dépasser les problèmes habituels des caméras et qui ont envoyé quelques Tesla dans le décor : contre jour massifs, routes très enneigées, phares aveuglants sur route mouillée (ou pire : contre jour rasant sur route mouillée)<br /> Il fait très beau et très jour dans toutes ces démos Tesla, avec en retour un magnifique paysage minecraft, ok, mais quand la source est presque inexploitable parce que les cam sont saturées ? on peut avoir une démo ?<br /> Les deux donnent des nuages de points, mais quasiment rien ou presque ne leurre un Lidar, parce que c’est lui qui illumine, dans une bande de fréquence que personne ne partage, il ne dépend pas d’une lumière extérieure éventuellement manquante ou aveuglante, et toujours changeante.<br /> Et c’est pourquoi à part Tesla personne n’a jugé intelligent de tout faire reposer sur la photogrammétrie., tous les autres combinent les deux, depuis le départ.
Martin_Penwald
philouze:<br /> contre jour massifs, routes très enneigées,<br /> Cadeau<br /> 20230201_1315061920×1080 63 KB<br /> Cette photo est sous licence ”Demerden Sie sich”.
philouze
merci Nicolas, je fouille et je t’envoie une vid testée en live avec quelques cas ME, qui je pense sont plus qu’édifiants, (par exemple : croisement de bus, qui fait des appels de phare pour que tu passes, ce que ton AI doit interpréter, ou encore mecs qui forcent un passage par la droite sur un tourne-à-gauche)<br /> je crois l’équipe Tesla très forte, mais elle a probablement perdu un temps considérable avec cette affaire de cam, à « patcher » un maximum d’incohérences, au lieu de passer à l’étape d’après.<br /> « Il est important de noter que : les caméras ont une très grande sensibilité, très vaste, supérieures à l’oeil humain. »<br /> Oui, ça me semble un minimum, mais ça reste dépendant d’une source d’éclairage externe, et il y a bien un moment ou ce gros spot blanc qu’on appelle le soleil et qui crach plusieurs kW par m2 se trouve absolument pile dans l’axe de la caméra, et là : mystère, sauf mise en place d’un coronagraphe ou équivalent je ne vois pas.<br /> Ajoute les reflets neige et flotte ? là aussi des filtres polarisants massifs peut être ?<br /> Dans l’intérêt de la sécurité de son public, Musk devrait littéralement expliquer et démontrer que ces objections n’ont plus lieu d’être, non via une démo réinterprétée, mais en nous montrant que les images-sources sont tellement bien gérées par ces cam et objo magiques, que le problème ne se pose plus à la source.<br /> @Martin_Penwald : très belle vue dans ton job, j’imagine la même mais sans le nuage qui te protégeait un peu du pire !
philouze
comme promis, voilà la vid sur mobile Eye :<br /> dis moi ce que tu en penses, sauf miracle les fan-boy des fofo Tesla exagèrent un poil quand ils pensent la marque devant non ?<br /> [ dans les deux cas, on est d’accord qu’on parle de produits très très avancés et il va être impossible à nos marques européennes de s’aligner sans poser 10 ans de R&amp;D et quelques milliards sur la table ]
Martin_Penwald
Une paire de lunettes de soleil est suffisante, mais nécessaire, la majorité du temps pour éviter d’être aveuglé par la neige. Et quand je suis dehors, mes verres polarisants suffisent à atténuer la luminosité.<br /> Je poste cette photo aussi parce qu’elle montre une situation où les voies ne sont pas délimitées. Il y a 2 voies assez larges au milieu, et là, je suis garé sur l’accotement, où il y a de la place pour mettre au moins 3 camions côte à côte de chaque côté de la route, et ce sur environ 7 ou 800 mètres. Il n’y a d’ailleurs pas de panneaux en amont pour signaler qu’il y a moyen de stationner, donc l’ordinateur doit deviner qu’il ne s’agit pas de voies de circulation. C’est évident pour un humain, mais comment l’ordinateur interprète la situation ?
philouze
ce que les gars de ME expliquent, c’est que certaines choses paraissent évidentes uniquement pour les locaux de l’étape, ou les pros dans certaines zones. C’est pour ça que même en étant le meilleur conducteur du monde, quand on est dans une région éloignée on y conduit « comme un touriste » et c’est très énervant pour les autres.<br /> Leur logique là dessus c’est que par dessus tes règles de bases, le paysage, chaque croisement, est réinterprété par des datas locales qui sont achetées par ME, et qui leur permettent de réinjecter des « solutions » et des comportements « locaux » .<br /> ça patchera pas tout, mais au vu de la vidéo, je pense que certains de mes proches s’en sortent moins bien que la ford de la vidéo au dessus
philouze
en tout cas aujourd’hui même une caisse de chez Cruise s’est bourré un bus par derrière malgré son Lidar. Comme si une logique de loi d’Asimov attribuée à la detection de proximité pouvait « planter » au point de ne pas empêcher une erreur aussi grossière.<br /> Soit qu’elle était dans les choux depuis un moment sans que le système principal ne s’en rende compte, soit que l’arbitrage entre la vision et les lidars a eu un gros gros problème d’arbitrage entre l’impératif et le facultatif…<br /> comme quoi le matos seul n’est pas non plus la clé<br /> Y’a encore du boulot pour eux en tout cas.
Voir tous les messages sur le forum