LiDAR : définition, coût, cas pratiques et avantages d’une technologie aux propriétés multiples

19 février 2021 à 15h43
8

Cultivant sa différence face aux traditionnels radars et caméras, le LiDAR est une technologie de plus en plus sollicitée. La toute jeune start-up française Outsight est l’une des plus actives sur le sujet. Faisons le tour de la question…

Le LiDAR, ou Light Detection And Ranging, fait partie de la grande famille des capteurs. Cette technologie permet de mesurer la distance entre un capteur et sa cible (un objet ou une personne) à l’aide de la lumière qu’elle émet, un laser. Si la technologie LiDAR n’est pas encore grandement répandue, elle tend à se développer dans divers secteurs et marchés, notamment celui du véhicule autonome ou, plus récemment, de la téléphonie mobile avec une incursion dans les derniers iPhone 12 Pro et iPhone 12 Pro Max .

La start-up française Outsight, elle, exploite avec intérêt plusieurs de ses autres propriétés, parmi lesquelles la robotique, le calcul de volume ou le suivi en temps réel des flux de personnes et de marchandises, notamment à l’aéroport Paris-Charles de Gaulle. C’est précisément ce dernier cas pratique que nous avons évoqué avec Raul Bravo, co-fondateur et président d’Outsight. Mais avant toute chose, tentons de préciser les caractéristiques du LiDAR, et de les distinguer de celles de technologies adjacentes aux atouts et inconvénients différents : la caméra et le radar.

LiDAR ADP © ADP / Outsight
Le LiDAR schématise à l'extrême, mais il est d'une... extrême précision (© Outsight / ADP)

Radar, caméras et LiDAR : de rares points communs, de nombreuses différences

Commençons par comparer le LiDAR, la caméra et le radar, au regard de leurs qualités et de leurs défauts respectifs - sans dénigrer aucune de ces technologies. On débute avec la plus célèbre d’entre elles : la caméra.

La caméra

Une caméra, au sens technique du terme, permet de capter la lumière extérieure et de l’enregistrer dans de petites cellules, appelées des pixels. Comme nous l’explique Raul Bravo, « il s’agit d’un dispositif passif, parce que s'il n'y a pas de lumière, il n'y a pas l'information, il n’y a pas de donnée ». C'est donc pour cela que la nuit, à la base, une caméra ne voit rien.

Par définition, la caméra souffre donc d’un désavantage majeur, puisque son bon fonctionnement dépend des conditions de luminosité. « Et les changements d’intensité importants sont difficiles à gérer pour elle », explique l’entrepreneur. « Avant de pénétrer dans un tunnel, vous avez un plein soleil, vous rentrez, puis vous sortez. Même l'humain peut avoir, à ce moment-là, quelques secondes d'adaptation à la nouvelle situation ». Le phénomène expliqué est le même pour une caméra.

camera objectif © geralt / Pixabay
© geralt / Pixabay

Un autre désavantage de la caméra classique est que si elle capte l'image, elle n'a pas une notion de distance, au contraire du LiDAR dont nous allons reparler plus bas. Ses propriétés restent limitées, puisqu’elle a été conçue pour des humains. « Les caméras essaient de représenter de la façon la plus fidèle possible ce que nous voyons avec nos yeux. L'objectif est véritablement que l'humain comprenne ce qu'il voit. Quand on parle de robot ou de voiture autonome, ce n'est plus le cas », nous dit Raul Bravo.

La caméra présente toutefois un avantage important face au radar et au LiDAR : la résolution. « On peut avoir de formidables résolutions, on peut capter des pixels très petits, c’est une vraie différence », témoigne le patron d’Outsight.

Le radar

Avec le radar, nous entrons dans le domaine des ondes radio.

Au contraire de la caméra, le radar est un dispositif actif, un point qu'il partage avec le LiDAR. Le radar génère en effet son propre signal, composé non pas de lumière, mais d'ondes radio. À la différence de la caméra, qui n’aime pas l’obscurité, le radar peut alors fonctionner la nuit.

radar onde
Le radar, lui, émet des ondes électromagnétiques

La différence avec le LiDAR, c'est que le pixel enregistré par le radar est très gros, de l'ordre de quelques mètres. Il en résulte l'impossibilité de distinguer, par exemple, deux personnes placées côte à côte.

« C'est pour cela qu'on l'utilise sur les routes », explique Raul Bravo. « Les voitures sont suffisamment séparées, donc la marge d'erreur diminue. Mais même dans ces applications-là, on commence à avoir des demandes pour le LiDAR, plus précis que le radar ».

Le radar a été la source de plusieurs accidents ces dernières années, notamment avec les véhicules Tesla. Une voiture de la marque embarquant un radar avait notamment traversé un camion blanc, que le radar avait confondu avec un pont. La caméra, elle, avait assimilé le blanc du camion au blanc du ciel. « Le LiDAR, lui, l'aurait perçu », précise Raul. À ce jour, Tesla reste fermement opposée au LiDAR, préférant encore le couple radar-caméra. Pour son fondateur Elon Musk, « le LiDAR est la course d’un imbécile, et quiconque compte sur le LiDAR est condamné ». Une position radicale, qui tiendrait en réalité à des considérations économiques, le LiDAR demeurant une technologie coûteuse pour un véhicule autonome (10 000 dollars par véhicule selon les arguments avancés par les constructeurs).

Le LiDAR : une technologie complémentaire, entre opportunités et précision

Comme le radar, le LiDAR est un système actif, c'est-à-dire qui génère sa propre lumière au lieu d'attendre ou d'utiliser une lumière existante. Envoyée en ligne droite, la lumière voyage en ligne droite, puis rebondit sur un objet avant de revenir. « Et grâce au temps de vol (soit le temps entre l'aller et le retour), on sait connait la distance, parce que la vitesse de la lumière est connue », explique Raul Bravo.

Au contraire de la caméra, on peut alors connaître la distance qui sépare le capteur d’un objet, ou d’une personne. Mais le LiDAR n’est pas utile que pour déterminer des distances. Par extension, il permet aussi de connaître la taille et le volume des objets de façon très précise, ce qui peut se révéler extrêmement utile pour le transport de marchandises.

LiDAR © chimix.com
Le principe du LiDAR, en schéma (© chimix.com)

En termes de résolution, le LiDAR est soumis au fait que chacun de ses pixels est un laser. « Une lumière laser signifie que nous avons une lumière focalisée », explique le co-fondateur d’Outsight. « C'est un point qui ne se déforme pas et permet une grande précision. Il est plus compliqué de multiplier les lasers dans un espace très petit, et c'est pour cela que pour l'instant, le LiDAR a une résolution beaucoup, beaucoup plus faible que la caméra ».

La comparaison entre un smartphone et le LiDAR est criante. « Un mobile peut avoir 8 millions de pixels par image par exemple, alors que dans une image, le LiDAR en aura environ 30 000, au grand maximum », détaille Raul Bravo. Le LiDAR de l'iPhone est notamment utilisé pour des fonctionnalités basiques, comme celle qui consiste à mapper une pièce à proximité immédiate.

Les domaines que le LiDAR touche ou touchera demain

LiDAR principe
© Hackaday.io

Le LiDAR utilise un faisceau laser pour la détection, l’analyse et le suivi. Il possède ainsi des propriétés multiples qui peuvent servir différentes applications.

Son apparition n’est pas récente, puisque la technologie fut notamment utilisée durant la mission Apollo 15, en 1971, pour cartographier la surface de la Lune. Plus récemment, le LiDAR a fait partie des outils ayant permis de réinventer l’archéologie. Avec la télédétection par laser, il est en effet possible de mesurer et cartographier des objets, lieux et autres vestiges comme jamais auparavant. On relève ainsi deux grandes catégories d’utilisation du LiDAR.

¤ Applications nouvelles, impossibles sans LiDAR : ici, on touche à l'autonomie, avec la robotique, l'automatisation, etc. Outsight travaille notamment sur le port de Dubaï pour automatiser le transport des conteneurs. « Tout ça reste "le futur", avec des marchés émergents : la robotique, bien au-delà de la voiture », analyse Raul Bravo.

¤ Applications pour lesquelles le LiDAR remplace ou complète les caméras : ces dernières sont en effet peu à peu limitées par leurs capacités. L'avantage, c'est que ces applications sont déjà existantes. « Ce sont des marchés traditionnels qui vont être bousculés, améliorés », précise Raul Bravo. Dans cette catégorie, il y a le large marché de la surveillance-sécurité au sein duquel le LiDAR est promis à un bel avenir, notamment pour analyser les flux des personnes, des biens et des véhicules.

Cas d’application du LiDAR : une solution utilisée à l’aéroport Paris-Charles de Gaulle pour gérer le flux de voyageurs

LiDAR distanciation sociale © Outsight / ADP
Et si LiDAR devenait l'outil indispensable au respect du geste barrière qu'est la distanciation sociale (© Outsight / ADP)

L’entreprise Outsight a justement été sélectionnée par le groupe ADP pour mener des tests et installer de façon pérenne la technologie LiDAR sur l’aéroport Paris-Charles de Gaulle. L'objectif ? Fournir un suivi précis des flux de personnes en temps réel, tout en préservant la sécurité et la confidentialité des données privées. Voilà un premier exemple de l’application possible de cette technologie par la jeune start-up, que nous détaille Raul Bravo.

Chez ADP, la technologie fournie par Outsight permet de mesurer avec précision le nombre de personnes en salles de livraison de bagages, mais aussi leurs déplacements et leurs interactions, outre, tendance du moment, le respect de la distanciation sociale. « On traque les mouvements des personnes, on comprend comment elles se déplacent, ce qu'elles font, comment elles utilisent les ressources de l'aéroport, comme les tapis ou les chariots. Tout cela est fait pour que l'aéroport comprenne au mieux le comportement des gens, mais sans savoir qui ils sont », explique Raul Bravo.

LiDAR ADP Outsight © Outsight ADP salle des bagages
Le LiDAR permet de distinguer les passagers (en bleu), les bagages (en violet) ainsi que les chariots à bagages (en jaune) (© Outsight / ADP)

« Sans savoir qui ils sont », nous dit-il. Ce détail est d’importance, puisque le suivi des personnes ou des marchandises n’est effectué qu’à l’aide de formes géométriques et de couleurs. La résolution du LiDAR est en effet bien trop faible, comme nous l’expliquions, pour pouvoir identifier une personne, encore moins des visages. L'avantage, c'est que ce processus garanti une vraie anonymisation des sujets.

Au-delà de ça, il est reste tout à fait possible d'analyser individuellement le déplacement de chaque personne, ce qui se révèle pratique dans bien des endroits de l’aéroport. Grâce aux dizaines de capteurs installés dans le terminal 2F de l’aéroport (qui accueillent les compagnies Air France, Air Europa et Alitalia pour des vols domestiques ou au sein de l’espace Schengen), on peut suivre, simultanément et en temps réel, plusieurs dizaines de milliers de personnes.

Attente bagages ADP Outsight © Outsight / ADP
Sur cet écran, on peut surveiller le temps qu'attend chaque passager pour récupérer son ou ses bagages (© Outsight / ADP)

Que se passe-t-il ensuite pour l’aéroport ? « Les services d’ADP disposent d’un tableau de bord via lequel ils peuvent comprendre le comportement des passagers, que ce soit en temps réel ou à l’aide de graphiques et statistiques ».

Si certaines fonctionnalités sont encore en test, la plupart sont aujourd’hui installées de façon pérenne, en « mode production », confirme Raul Bravo, qui voit l’aéroport comme un formidable laboratoire pour le LiDAR, comme pourrait l’être un centre commercial, une gare, un parc d’attractions, une salle de spectacle, ou tout autre lieu pouvant accueillir un public de masse.

LiDAR calcul volume © Outsight
Le LiDAR peut aider à un calcul extrêmement précis du volume (© Outsight)

Une autre application de la technologie porte sur la mesure du volume des déchets, dans un centre de recyclage par exemple. « Les mètres cubes sont difficiles à mesurer à la base », rappelle Raul, qui nous informe que grâce au LiDAR, « on obtient la mesure exacte ». L’avantage : c’est que l’on peut ainsi définir la quantité exacte de déchets à insérer dans un camion, et ainsi davantage rentabiliser chaque trajet. Avec le LiDAR donc, la perte d’espace pourrait n'être qu'un lointain souvenir.

LiDAR calcul volume © Outsight / ADP
(© Outsight)

Le coût du LiDAR : mettons fin aux idées reçues

Il existe une idée reçue selon laquelle le LiDAR est cher. « C'est juste faux », s’étonne Raul Bravo. Notons tout de même que le LiDAR reste onéreux pour une application dans le secteur automobile, comme le soutient Elon Musk. Un radar ne coûte en effet que quelques dizaines d'euros par véhicule, quand le prix d'un LiDAR, atteint plusieurs milliers d’euros. Forcément, pour un usage individuel, la technologie n’est pas rentable. Du moins pas encore.

Or, la mesure de la distance est un domaine tellement important que des entreprises sont prêtes à utiliser des capteurs chers, à faible résolution, qui présentent l’avantage de ne pas être dépendants des conditions climatiques ou de lumière. On retrouve aussi ces attentes pour des marchés comme la sécurité-surveillance par exemple, là où le LiDAR est moins cher. Pourquoi ? « S’agissant de la question du traitement du passage aux frontières et de la vérification du passeport, on va se demander combien de LiDAR il faut pour une surface donnée. Il s'avère qu'avec 1 LiDAR, on peut remplacer 10 caméras. Si le LiDAR est 10 fois plus cher, il reste au même prix que les caméras, du point de vue du client », soutient le patron d’Outsight. Un argument qui peut faire mouche économiquement, et qui a visiblement su convaincre ADP.

« Il y a une idée reçue selon laquelle le LiDAR est cher, mais ce n'est plus le cas dans de nombreuses applications. Ce qui freine le LiDAR aujourd'hui, c'est la disponibilité des logiciels pour l'utiliser », explique Raul Bravo. La technologie n’est en tout cas promise qu’à progresser, et nul doute que son adoption progressive entraînera, à terme, une diminution des coûts.

Présentation d'Outsight

Fondée en 2019, Outsight a démarré ses opérations mi-2020. Une période ô combien compliquée, puisque la France affrontait le plus fort de la crise de coronavirus.

La start-up française développe des systèmes de transport intelligents (ITS ou intelligent transportation systems en anglais), qui consistent à rendre les routes et les villes plus « intelligentes » et réactives face au trafic de personnes ou au trafic de véhicules. Elle travaille aussi sur les carrefours et les feux tricolores dits intelligents. L’un de ses autres champs se situe dans la sphère industrielle, avec la mesure du volume ; mais on la retrouve aussi dans la robotique, où Outsight propose des solutions d'automatisation, notamment sur le port de Dubaï.

Les équipes de la société sont réparties entre trois bureaux : Paris, San Francisco et Helsinki (où la société travaille sur le futur et sur des technologies de rupture, plutôt liées à la technologie de base du LiDAR, le laser). Outsight compte 39 collaborateurs, mais une quarantaine de personnes devraient rejoindre très rapidement l’entreprise, qui va donc doubler de taille.

Raul Bravo Outsight © Outsight
Raul Bravo, co-fondateur et président d'Outsight
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
8
8
Garden_Dwarf
« Sans savoir qui ils sont » … le Lidar permet de capturer des informations que d’autres dispositifs ne peuvent pas capturer (ou le font de manière moins optimale). Il suffit de relier les informations capturée par le Lidar à - par exemple - le passage d’une personne devant une caméra. Et là, vu qu’on sait tout ce que «&nbsp;un inconnu&nbsp;» a fait (Lidar) et qu’on peut relier cette personne à une identité (caméra), le discours ne sera plus le même …<br /> J’ai l’impression qu’on a à chaque fois le même discours. Un tracker ne fait pas grand-chose. Par contre quand on croise les informations, ça peut faire peur quand-même …
sandalfo
oui lidar + caméra + reconnaissance faciale = on te traque partout avec une précision diabolique. Mais lidar sans caméra ça passe…
AlexLex14
Oui…<br /> Après, dans le cadre de la gestion des flux, comme ici dans un aéroport, il y aura toujours débat. Car si le LiDAR est d’une grande utilité, on ne peut pas le soustraire aux caméras, pour des raisons de sécurité. Et il est difficile aujourd’hui de priver les endroits de masse des dispositifs traditionnels de surveillance… Ensuite, tout est une question de réglementation.
djes
Vous occultez complètement les capteurs TOF (Time Of Flight) qui équipent de nombreux smartphones Android depuis quelques années déjà et qui permettent également de mesurer des distances sur une matrice de pixels. Avec l’application 3D Live Scanner, il est par exemple possible de numériser en direct des salles ou des objets. Au départ, ce capteur était essentiellement utilisé pour ajouter de jolis effets de bokeh aux photographies ; avec le projet Tango de Google il est possible d’aller plus loin, notamment pour la réalité virtuelle ou la réalité augmentée.
nicgrover
« Et grâce au temps de vol (soit le temps entre l’aller et le retour), on sait connait la distance, parce que la vitesse de la lumière est connue »<br /> Une petite erreur «&nbsp;on sait connaître&nbsp;» ou «&nbsp;on connaît&nbsp;».<br /> «&nbsp;L’avantage, c’est que ce processus garanti une vraie anonymisation des sujets.&nbsp;» Xi Jinping a déjà dit «&nbsp;non merci&nbsp;»…
yalefeu
Pour info, cela fait bientôt 3 ans que google a mis fin au projet Tango
Demongornot
En fait, c’est un sujet compliqué, non pas à cause du fonctionnement, mais car il y a pleins de technologies différences, certaines se regroupe, d’autre se ressemble, d’autre n’ont qu’une petite différence, et pire encore, certaines sont considéré comme tel ou tel type selon qui on demande…<br /> On retrouve plusieurs méthodes pour obtenir des informations tri-dimensionnelles d’un objet.<br /> A noté qu’il existe également des façons de faire avec une seule caméra et de l’intelligence artificielle, et bien que ça comprend plusieurs façons différentes, en général ça tombe plus ou moins presque toujours sous soit :<br /> De l’AI qui calcule les informations de profondeur (depth data) d’une vidéo, comme vue ici :<br /> Amazing AR Effects Are Coming! - YouTube<br /> La façon dont ça fonctionne est l’équivalent de comme ce gif pris d’une image en 2D donne l’illusion d’une image en 3D :<br /> Comme dit dans la vidéo (bien qu’en Anglais), avec assez de temps, une personne pourrait avec cette image rentrer manuellement les informations de profondeur de l’image.<br /> Soit la photogrammétrie, là c’est plus un type scanner que juste profondeur, le principe consiste à prendre pleins de photo de pleins d’angles de l’objet et d’utiliser un logiciel pour sortir un modèle 3D, explications ici :<br /> PAUSE PROCESS #33 La Photogrammétrie - YouTube<br /> Une version poussée à l’extrême ici qui permet de réaliser un modèle 3D sur 360° :<br /> Professional Photogrammetry Rig For 3D Face Scanning | ESPER LightStage - YouTube<br /> Et une version plus simple, et accessible pour faire ce genre de modèle 3D à 360° ce fait avec pleins de photo, comme la version précédente, mais avec un seul appareil que l’on va utiliser pour prendre le sujet tout autour, un résultat pratique c’est le visionneur 3D de smartphones de GSMArena :<br /> GSMArena labs: 3D models let you examine the phones like never before, courtesy of Binkies 3D - GSMArena.com news<br /> Et comme dit dans la première vidéo sur la Photogrammétrie, à une époque on faisait cela manuellement, donc c’est assez proche de comme l’IA le fait, qui, comme précisé, un humain pourrait faire, bien que le temps que ça prendrait pour le faire dans une vidéo serrait bien trop long pour être pratique.<br /> Et des versions utilisant l’IA existent également :<br /> This Neural Network Learned To Look Around In Real Scenes - YouTube<br /> L’autre méthode pour obtenir de la 3D c’est la stéréoscopie, bien que cela demande beaucoup de puissance de calcul car il faut que pour chaque images, chaque pixels soit identifier sur les deux caméras, et grâce à cela, on obtient de la triangulation entre les deux caméras et le point duquel on va pouvoir déterminer la position.<br /> L’idéal avec la stéréoscopie c’est pour ensuite le visionner tel quel, en tant que film/vidéo/VR.<br /> On retrouve également la méthode du Structured Light, c’est le même système que le Face ID de l’iPhone utilise, également présent sur les Pixel 4 et 4XL de Google, le Huawei Mate 30 Pro et le Oppo Find X.<br /> Le but consiste à projeter un schéma précis, que ce soit une grille de points, des lignes, des cercles, etc.<br /> StrucuturedLightModule-768x247768×247 65.2 KB<br /> On va obtenir ensuite un modèle 3D de l’objet en faisant de la triangulation entre chaque points/lignes etc, le projecteur, et la caméra, la façon dont la surface en 3D va faire déformer ou déplacer les points contrairement à une surface plane permet de calculer le relief :<br /> Et bien que plus lent que les systèmes à base de ToF, c’est largement plus précis.<br /> C’est plus souvent utiliser pour scanner que pour déterminer en temps réel la profondeur, et pour des scanners précis, on va utiliser une version dynamique ou le schéma va changer, souvent c’est des lignes qui vont simplement changer d’épaisseur et d’espacement comme vue ici :<br /> Certains hybride existe, tel que les sytème de stéréoscopie active qui utilise deux caméra et un projecteur de type Structured Light :<br /> Depth Sensors.png-1040x01024×320 65.4 KB<br /> Pour ce qui est du «&nbsp;Light Field&nbsp;», c’est plus simple qu’on pourrait le penser.<br /> teaser3250×790 523 KB<br /> Il s’agit en fait d’utiliser soit pleins de caméra en une, soit un capteur qui va enregistrer les images de lentilles la découpant en pleins de sous images.<br /> La particularité c’est que chaque image à un focus différent, ce qui permet de changer le focus une fois la photo prise, car en fait on a juste pris pleins de photo avec un focus différent, et on change juste d’une à l’autre, mais grâce à cela, en déterminant quels sont les objets en focus et lesquels ne le sont pas, on va pouvoir obtenir des informations de distance et donc, de profondeur.<br /> L’exemple le plus connu est les caméras de Lytro :<br /> Et maintenant, avant de parler des LiDAR, parlons des ToF, qui explique déjà tout des LiDAR par eux même.<br /> ToF ou Time of Flight signifie «&nbsp;temps de vol&nbsp;», et contrairement à ce que l’on pense, beaucoup de choses autre que la lumière peuvent être utilisé pour faire un capteur de type ToF :<br /> tera-ranger-comparison1024×788 160 KB<br /> 3816841626001_6175688663001_5837149644001-vs1280×720 97.1 KB<br /> En fait, même des neutrons peuvent être utilisés :<br /> method_image1448×930 170 KB<br /> Le principe est très simple, on envoie un élément qui voyage à vitesse constante, et on regarde le temps que celui-ci met pour revenir.<br /> Du moins, en théorie, mais c’est là que ça devient compliqué, car les choses ne sont pas si simple.<br /> On retrouve deux types de ToF.<br /> Le premier étant celui mesurant simplement le temps que met la lumière à faire un aller-retour entre l’émetteur et le capteur.<br /> image-91702×314 14.2 KB<br /> Le deuxième, lui, que l’on appel FMCW, utilise les différences de phases, en gros il pulse extrêmement rapidement un schéma précis, et va mesurer la différence entre le schéma qu’il émet actuellement et celui qu’il vient de recevoir.<br /> PDMTechnologies_TOF_Camera_05830×408 716 KB<br /> Ce deuxième type permet de mesurer la vitesse d’un objet grâce à l’effet Doppler en mesurant la modification de cette phase.<br /> Sur cette image Delta t (Δt) ou différence de temps représente la différence de phase, ceux avec quoi on va déterminer la distance, alors que fD lui représentera la différence causée par l’effet Doppler selon si l’objet s’approche ou s’éloigne.<br /> On va vite se rendre compte que c’est souvent des lasers qui sont utilisé, mais pourquoi ? Et pourquoi dans certains cas ce n’est pas nécessaires ?<br /> Déjà, qu’est-ce qu’un laser ?<br /> Un laser c’est un faisceau, pas forcément parallèle contrairement à ce que l’on pourrait penser, mais qui est monochrome et cohérent, c’est-à-dire qui n’as qu’une seule couleur/longeur d’onde, et que celle si sont alignées les unes aux autres :<br /> coherence-of-a-laser-beam-58e940×672 67.2 KB<br /> Ce qui est parallèle ici c’est donc les ondes et non la direction du laser, car avec les lentilles adéquates, on peut facilement focusser ou défocusser un laser et lui faire prendre une forme connique.<br /> Donc l’avantage c’est qu’on connait avec précision la longueur d’onde et qu’on va pouvoir cibler celle si précisément pour éviter les interférences extérieures, mais également que pour tout ce qui pourrait être sensible au changement de phase, ça rend le tout très simple a utilisé, surtout qu’une grande bande du spectre électromagnétique des Ultra-violets jusqu’à très loins dans les Infra-Rouges sont utilisable en tant que laser :<br /> Le système le plus simple qui utilise le principe du ToF c’est le «&nbsp;rangefinder&nbsp;» ou «&nbsp;télémètre laser&nbsp;».<br /> Bien que certains fonctionne sur le principe du Structured Light, en général c’est du ToF, avec une simple diode ou une mini-caméra pour recevoir le laser et calculer la distance.<br /> Tout cela n’est pas trop compliqué, la vraies difficultés c’est de réaliser qu’il y a pleins de façon différentes d’utiliser les ToF dans un LiDAR.<br /> On va retrouver ce genre-là<br /> 0_IsCwbbv4O4VzDl1p4000×2666 1.07 MB<br /> La tête tourne à toute vitesse, et très régulièrement un capteur ToF va mesurer la distance, le corps de l’appareil tourne également mais plus lentement, résultat, on réalise une carte de type «&nbsp;point cloud&nbsp;» d’un environnement avec un seul laser.<br /> Explications ici en Anglais :<br /> Et les LiDAR étant maintenant de plus en plus présent dans l’automobile, sont un bon exemple des différentes versions qui existent :<br /> types1877×1225 330 KB<br /> Que ce soit avec un seul point qui va être utilisé avec une tête tournant très vite comme les fameux topographes, à d’autre scannant pixels par pixels ou par ligne.<br /> Pour la suite, et bien, on retrouve pas mal qui, tel que celui sur l’iPhone, vont scanner de façon simultanée tout le champ de vision, certain vont projeter une grille de points, mais contrairement au style Structured Light qui mesure la triangulation, ils vont mesurer le temps que chaque points va mettre à revenir pour donner la distance.<br /> Et la façon la plus complète c’est le Flash LiDAR qui illumine en un seul coup comme une lampe le ferait, en suite on va utiliser quelque chose de proche d’un capteur de caméra classique, bien qu’avec de l’électronique super rapide, et déterminer par pixels, le temps que ceux si ont mis à revenir.<br /> L’évolution des LiDAR est résumée dans cette image :<br /> media-1304430-tworootsoflidar-nu1048×752 61.9 KB<br /> Et on peut voir sur celle ci qu’il existe pleins de sous types de LiDAR :<br /> image1280×720 78.5 KB<br /> C’est ça qui rend le tout compliqué, des fois les ToF sont leur propre type de capteur, tel que dans les télémètre lasers, et dés fois les LiDAR utilisent des ToF, et dans certains rare cas ils utilisent d’autre techniques tel que les Structured Light.<br /> L’acronyme même du LiDAR a deux significations distinctes :<br /> Light Detection And Ranging et Laser imaging, Detection, And Ranging.<br /> Ce qui est sur c’est que les LiDAR sont définie par quelque chose qui va utiliser la lumière, la partie «&nbsp;ranging&nbsp;» définie le fait de mesurer la distance, par contre les parties «&nbsp;détection&nbsp;» et «&nbsp;imaging&nbsp;» peuvent être interprété.<br /> Du fait que l’utilisation même d’un type de capteur peut en faire ou non un LiDAR, du même fait que les «&nbsp;Depth Sensors&nbsp;» (capteur de profondeurs) ne sont pas un type particulier de capteur, mais une utilisation d’un type, ToF, Structured Light ou même IA dans le cas d’autre méthodes tel qu’avec une seule caméra.<br /> Le soucis c’est que les termes sont tellement utilisé de façon interchangeable, que c’est devenu un vrais enfer de déterminé qu’est ce qui est quoi…
negus56
Chapeau, voilà ce qui s’appelle un commentaire argumenté !
Voir tous les messages sur le forum

Lectures liées

Meta a construit un supercalculateur destiné à l'IA : il sera le plus rapide au monde
Link, l'implant de Neuralink d'Elon Musk, bientôt en test sur des cerveaux humains ?
Google aussi veut un casque de réalité augmentée, mais ce ne sera pas prêt tout de suite
Les premiers taxis volants 4 places arriveront en Europe avant 2025 (si tout va bien)
TV : le Filmmaker mode va être mis à jour pour utiliser les capteurs de luminosité ambiante
CES 2022 : Lenovo présente ses nouveaux PC portables Yoga et Legion
CES 2022 : capteurs multifonctions et hub modulaire NFC, Arlo rend sa gamme plus polyvalente
CES 2022 : MSI dévoile sa nouvelle gamme de PC portables pour joueurs et créatifs
CES 2022 : TP-Link lance une nouvelle gamme de produits domotiques compatible avec Apple HomeKit
Grâce à l'intelligence artificielle, Amazon a économisé 3 millions de tonnes d'emballages depuis 2019
Haut de page