En fait, c’est un sujet compliqué, non pas à cause du fonctionnement, mais car il y a pleins de technologies différences, certaines se regroupe, d’autre se ressemble, d’autre n’ont qu’une petite différence, et pire encore, certaines sont considéré comme tel ou tel type selon qui on demande…
On retrouve plusieurs méthodes pour obtenir des informations tri-dimensionnelles d’un objet.

A noté qu’il existe également des façons de faire avec une seule caméra et de l’intelligence artificielle, et bien que ça comprend plusieurs façons différentes, en général ça tombe plus ou moins presque toujours sous soit :
De l’AI qui calcule les informations de profondeur (depth data) d’une vidéo, comme vue ici :
Amazing AR Effects Are Coming! - YouTube
La façon dont ça fonctionne est l’équivalent de comme ce gif pris d’une image en 2D donne l’illusion d’une image en 3D :

Comme dit dans la vidéo (bien qu’en Anglais), avec assez de temps, une personne pourrait avec cette image rentrer manuellement les informations de profondeur de l’image.
Soit la photogrammétrie, là c’est plus un type scanner que juste profondeur, le principe consiste à prendre pleins de photo de pleins d’angles de l’objet et d’utiliser un logiciel pour sortir un modèle 3D, explications ici :
PAUSE PROCESS #33 La Photogrammétrie - YouTube
Une version poussée à l’extrême ici qui permet de réaliser un modèle 3D sur 360° :
Professional Photogrammetry Rig For 3D Face Scanning | ESPER LightStage - YouTube
Et une version plus simple, et accessible pour faire ce genre de modèle 3D à 360° ce fait avec pleins de photo, comme la version précédente, mais avec un seul appareil que l’on va utiliser pour prendre le sujet tout autour, un résultat pratique c’est le visionneur 3D de smartphones de GSMArena :
GSMArena labs: 3D models let you examine the phones like never before, courtesy of Binkies 3D - GSMArena.com news
Et comme dit dans la première vidéo sur la Photogrammétrie, à une époque on faisait cela manuellement, donc c’est assez proche de comme l’IA le fait, qui, comme précisé, un humain pourrait faire, bien que le temps que ça prendrait pour le faire dans une vidéo serrait bien trop long pour être pratique.
Et des versions utilisant l’IA existent également :
This Neural Network Learned To Look Around In Real Scenes - YouTube
L’autre méthode pour obtenir de la 3D c’est la stéréoscopie, bien que cela demande beaucoup de puissance de calcul car il faut que pour chaque images, chaque pixels soit identifier sur les deux caméras, et grâce à cela, on obtient de la triangulation entre les deux caméras et le point duquel on va pouvoir déterminer la position.
L’idéal avec la stéréoscopie c’est pour ensuite le visionner tel quel, en tant que film/vidéo/VR.
On retrouve également la méthode du Structured Light, c’est le même système que le Face ID de l’iPhone utilise, également présent sur les Pixel 4 et 4XL de Google, le Huawei Mate 30 Pro et le Oppo Find X.
Le but consiste à projeter un schéma précis, que ce soit une grille de points, des lignes, des cercles, etc.

Certains hybride existe, tel que les sytème de stéréoscopie active qui utilise deux caméra et un projecteur de type Structured Light :
Pour ce qui est du « Light Field », c’est plus simple qu’on pourrait le penser.
Et maintenant, avant de parler des LiDAR, parlons des ToF, qui explique déjà tout des LiDAR par eux même.
ToF ou Time of Flight signifie « temps de vol », et contrairement à ce que l’on pense, beaucoup de choses autre que la lumière peuvent être utilisé pour faire un capteur de type ToF :
Le premier étant celui mesurant simplement le temps que met la lumière à faire un aller-retour entre l’émetteur et le capteur.
Le deuxième, lui, que l’on appel FMCW, utilise les différences de phases, en gros il pulse extrêmement rapidement un schéma précis, et va mesurer la différence entre le schéma qu’il émet actuellement et celui qu’il vient de recevoir.
Ce deuxième type permet de mesurer la vitesse d’un objet grâce à l’effet Doppler en mesurant la modification de cette phase.

Sur cette image Delta t (Δt) ou différence de temps représente la différence de phase, ceux avec quoi on va déterminer la distance, alors que fD lui représentera la différence causée par l’effet Doppler selon si l’objet s’approche ou s’éloigne.
On va vite se rendre compte que c’est souvent des lasers qui sont utilisé, mais pourquoi ? Et pourquoi dans certains cas ce n’est pas nécessaires ?
Déjà, qu’est-ce qu’un laser ?
Un laser c’est un faisceau, pas forcément parallèle contrairement à ce que l’on pourrait penser, mais qui est monochrome et cohérent, c’est-à-dire qui n’as qu’une seule couleur/longeur d’onde, et que celle si sont alignées les unes aux autres :
Le système le plus simple qui utilise le principe du ToF c’est le « rangefinder » ou « télémètre laser ».
Bien que certains fonctionne sur le principe du Structured Light, en général c’est du ToF, avec une simple diode ou une mini-caméra pour recevoir le laser et calculer la distance.
Tout cela n’est pas trop compliqué, la vraies difficultés c’est de réaliser qu’il y a pleins de façon différentes d’utiliser les ToF dans un LiDAR.
On va retrouver ce genre-là
Et les LiDAR étant maintenant de plus en plus présent dans l’automobile, sont un bon exemple des différentes versions qui existent :
Pour la suite, et bien, on retrouve pas mal qui, tel que celui sur l’iPhone, vont scanner de façon simultanée tout le champ de vision, certain vont projeter une grille de points, mais contrairement au style Structured Light qui mesure la triangulation, ils vont mesurer le temps que chaque points va mettre à revenir pour donner la distance.
Et la façon la plus complète c’est le Flash LiDAR qui illumine en un seul coup comme une lampe le ferait, en suite on va utiliser quelque chose de proche d’un capteur de caméra classique, bien qu’avec de l’électronique super rapide, et déterminer par pixels, le temps que ceux si ont mis à revenir.

L’évolution des LiDAR est résumée dans cette image :
Et on peut voir sur celle ci qu’il existe pleins de sous types de LiDAR :
C’est ça qui rend le tout compliqué, des fois les ToF sont leur propre type de capteur, tel que dans les télémètre lasers, et dés fois les LiDAR utilisent des ToF, et dans certains rare cas ils utilisent d’autre techniques tel que les Structured Light.
L’acronyme même du LiDAR a deux significations distinctes :
Light Detection And Ranging et Laser imaging, Detection, And Ranging.
Ce qui est sur c’est que les LiDAR sont définie par quelque chose qui va utiliser la lumière, la partie « ranging » définie le fait de mesurer la distance, par contre les parties « détection » et « imaging » peuvent être interprété.
Du fait que l’utilisation même d’un type de capteur peut en faire ou non un LiDAR, du même fait que les « Depth Sensors » (capteur de profondeurs) ne sont pas un type particulier de capteur, mais une utilisation d’un type, ToF, Structured Light ou même IA dans le cas d’autre méthodes tel qu’avec une seule caméra.
Le soucis c’est que les termes sont tellement utilisé de façon interchangeable, que c’est devenu un vrais enfer de déterminé qu’est ce qui est quoi…