HDR10, HDR10+, Dolby Vision : quel est le meilleur format ?

34
Si vous vous intéressez au petit monde des téléviseurs, les mentions « HDR10 », « HDR10+ » ou encore « Dolby Vision » ne vous ont pas échappé. En anglais, l'acronyme HDR signifie « High Dynamic Range » que l'on pourrait traduire en français par « plage dynamique étendue ». Une technologie concurrencée par un autre format appartement à Dolby, appelé « Dolby Vision ». Quels sont les avantages, inconvénients et différences de chaque technologie ? Qu'est-ce que cela change en termes de qualité d'affichage sur votre TV ? Suivez le guide, on vous explique tout.

HDR10-vs-Dolby-Vision.jpg

Les téléviseurs équipés de la technologie HDR10 ou HDR10+ permettent de profiter d'une gamme de couleurs plus réalistes et naturelles, d'un meilleur contraste et d'une meilleure luminosité, à condition d'afficher des contenus qui sont eux-mêmes compatibles avec la technologie HDR (point sur lequel nous allons revenir). Le Dolby Vision permet à peu près la même chose, mais comprend quelques détails techniques qui le démarquent de la concurrence.

HDR10 vs Dolby Vision : quelles différences ?

La première différence est que le HDR10 est un format open source pour lequel les constructeurs de téléviseurs n'ont à payer aucun droit d'exploitation. En revanche, le « Dolby Vision » appartient à la société Dolby, et les marques souhaitant l'utiliser doivent pour cela payer une licence. Pourquoi les constructeurs paieraient-ils ?

Car la technologie Dolby Vision est capable d'afficher des couleurs plus profondes allant jusqu'à 12 bit, soit environ 68,7 milliards de couleurs, contre 10 bit et 1,07 milliard de couleurs pour le HDR10. Mais, car il y a un mais, les TV comme le contenu capable d'afficher du 12 bit n'existent pas encore. Dolby adapte donc la profondeur de couleur de sa technologie à 10 bit, ce qui permet d'afficher une amélioration subtile par rapport au format 10 bit classique.

sdr-hdr-dynamique.jpg

Mais ce n'est pas la seule différence de la technologie Dolby Vision, qui propose également une image HDR avec des métadonnées dynamiques qui sont implémentant image par image, là ou le HDR10 le fait de manière statique. Concrètement, cela signifie qu'un film diffusé sur une TV compatible HDR10 affichera un rendu constant tout au long du visionnage, alors qu'il sera adapté de manière dynamique avec le Dolby Vision, pour un rendu plus immersif des différentes scènes.

Le HDR10+ contre-attaque

Crée par Panasonic, Samsung et 20th Century Fox, le HDR10+ est, comme le Dolby Vision, une plate-forme de métadonnées dynamiques qui permet d'ajuster la courbe de mappage et les métadonnées scène par scène pour un rendu toujours plus réaliste, et non de manière statique comme cela est le cas du HDR10 « classique ».



Comme le HDR10, le HDR10+ propose un affichage 10 bit à 1,07 milliard de couleurs tout en restant open source et libre de droits. Mais cette nouvelle norme pèche pour l'instant par son manque de supports et de contenus compatibles.

Récapitulons :

Tableau-HDR10-Dolby-Vision.jpg

Comment choisir un téléviseur compatible HDR10, HDR10+ ou Dolby Vision ?

Différentes normes existent pour savoir si l'écran que vous achetez est compatible ou non avec ces technologies. Les différentes normes vous assurant une réelle compatibilité avec des couleurs 10 bit sont les suivants : « Ultra HD Premium », « HDR10 », « HDR10+ » et « Dolby Vision » qui monte à 12 bit comme nous l'avons vu précédemment.

Soyez vigilants : les mentions « HDR », « HDR Pro » ou encore « HDR Plus » n'ont rien d'officiel, et ne proposent pas un affichage 10 bit. Ils indiquent simplement que le matériel propose une meilleure plage dynamique (en 8 bit) que les TV et moniteur classiques qui sont uniquement en « SDR ».

Comment profiter d'une image HDR10 ou Dolby Vision ?

Maintenant que vous savez comment choisir votre téléviseur, voici trois excellents téléviseurs compatibles qui méritent votre attention.

Notre sélection des meilleures TV compatibles

QLED 8K et HDR10+
Le meilleur OLED
HDR10 pour gamers PC
Samsung QE55Q950R
+ Compatible HDR10 et HDR10+
+ Pic de luminosité élevé
+ Le filtre antireflet
+ HDR10, HDR10+ et Dolby Vision
+ Image parfaite
+ Contraste infini
Lire le test
TUF Gaming VG27AQ
+ 165 Hz et 1 ms
+ Bonne ergonomie
+ Prise jack



Si vous optez pour un écran de PC ou que votre téléviseur est dépourvu de fonctions connectées (ou que son interface est vieillissante et lente), nous vous conseillons d'acquérir un boîtier multimédia compatible HDR 10+ ou Dolby Vision.

Notre sélection des meilleurs boîtiers TV 4K compatibles

Le choix de la rédac
La TV selon Apple
Le rapport qualité-prix
+ Compatible HDR10, HDR10+ et Dolby Vision
+ Compatible audio DTS et Dolby Atmos
+ Android TV au top
Lire le test
Apple TV 4K
+ Compatible HDR10, HDR10+ et Dolby Vision
+ Interface très intuitive
+ Reconnaissance vocale précise
+ Compatible HDR10, HDR10+ et Dolby Vision
+ Amazon Alexa intégré
+ Télécommande qui allume et éteint la TV
Lire le test


HDR10, HDR10+ et Dolby Vision : les smartphones compatibles

Si la plupart des smartphones haut de gamme supportent aujourd'hui le HDR10, ceux proposant le HDR10+ ou Dolby Vision se font plus rares. Le LG G6 a été précurseur sur Android en étant compatible avec le Dolby Vision.

En revanche, l'adoption du HDR10+ est encore timide sur les smartphones avec l'OS de Google, et complètement absent sur les iPhone. En revanche, les mobiles d'Apple profitent de la technologie Dolby Vision depuis quelques années déjà.

smartphone-hdr10-dolby-vision.png

Les consoles de jeux compatibles

Les films ne sont pas les seuls à pouvoir profiter d'une qualité d'affichage HDR10. Le gain pour les jeux vidéos est également indéniable. À l'exception de la Nintendo Switch, les autres consoles de jeux et le PC sont compatibles avec la technologie HDR10, y compris la PS4 originale et la Xbox One S.

En revanche, aucune plate-forme permettant de jouer aux jeux vidéos n'est (pour l'instant) compatible avec le HDR10+. On retrouve également le Dolby Vision sur les Xbox One S, One X, et le PC, ainsi que sur les Xbox Series X | S. Une TV ou un moniteur PC compatibles sont bien sûr nécessaires pour en profiter.

Ecosysteme HDR - gaming.JPG

Quels câbles HDMI pour profiter du HDR10, HDR10+ et Dolby Vision ?

Maintenant que vous avez votre TV, écran ou vidéoprojecteur ainsi que les boîtiers TV ou consoles compatibles, il va vous falloir les bons câbles HDMI pour transmettre l'information proprement.

Les normes HDMI

normes-connecteur-hdmi.jpg

Commençons par comprendre les différentes normes HDMI, qui s'appliquent aux connecteurs et non aux câbles en eux-mêmes contrairement à ce que certains fabricants de câbles laissent entendre.

normes-hdmi.jpg

Les certifications des câbles HDMI

Pour vous assurer que le câble HDMI que vous achetez a un débit maximal suffisant pour afficher la qualité d'image désirée, quatre certifications existent. Et quoi de mieux qu'un tableau pour les comprendre.

cable-hdmi-dolby-vision.jpg

Vous l'avez compris, la certification du câble que vous allez choisir est aussi importante que la norme HDMI du connecteur de votre boîtier ou console de jeu. Choisissez-les avec précaution...

Les sources de contenus HDR

Avoir une TV, un boîtier et une console compatibles avec les technologies HDR10 ou Dolby Vision, c'est bien. Avoir du contenu à afficher, c'est mieux. Voici une liste non exhaustive des plates-formes sur lesquelles vous pouvez retrouver des contenus compatibles :

  • Blu-Ray UHD-4K : de plus en plus de films sont compatibles avec la technologie HDR et Dolby Vision. Il vous faut bien sûr un lecteur Blu-Ray UHD-4K compatible.
  • Netflix et Amazon Prime Vidéo : Là encore, certains contenus sont compatibles HDR et Dolby Vision. Vous aurez bien sûr besoin de l'abonnement qui va avec, ainsi que d'une connexion internet très haut débit (fibre recommandée).
  • TNT et TV par satellite : Il va falloir se montrer patient. À l'heure actuelle, les contenus HDR sont diffusés ponctuellement à titre expérimental, pour les grands tournois sportifs notamment.
  • YouTube : la plate-forme propose également un large choix de vidéos diffusées en HDR. Vous pouvez en profiter sur votre TV grâce à une box Nvidia Shield TV ou un Amazon Fire TV Stick 4K par exemple.


Conclusion

Vous l'aurez compris, il est très difficile de déclarer un vainqueur dans la bataille qui oppose le HDR10 et HDR10+ au Dolby Vision. D'un point de vue technique, le Dolby Vision est supérieur, mais le HDR10+ s'en rapproche fortement. Pourtant, c'est bien le HDR10 qui tire son épingle du jeu grâce aux nombres de contenus compatibles disponibles par rapport aux deux autres formats.

En matière de qualité d'image, la vraie différence se fera au niveau des téléviseurs. En effet, aucune d'entre elles n'est encore capable d'exploiter pleinement le meilleur de cette technologie (Dolby Vision), qui peut en théorie atteindre un pic de luminosité de 10,000 cd/m2 et une gamme de couleurs étendue de 12bit. La qualité d'affichage de votre TV fera alors une plus grande différence qu'une simple compatibilité avec une de ces technologies.

Veillez également à ce que chaque maillon de la chaîne soit compatible avec la norme dont vous souhaitez profiter. De la TV en passant par le boîtier ou la console, leur norme HDMI respective et la certification du câble qui les relis, soyez vigilant sur le matériel choisi pour profiter d'une expérience optimale.
Haut de page

Les derniers tutoriels

Téléviseur : tous les tutoriels
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (34)

popmpopm
jusqu’à maintenant pas de hdr10+ chez les tv série MU de 2017 de samsung malgré que il sont compatible ( meme pas la norme ST2094 dans les option ) …
Dahita
Excellent article, ca devient vraiment une habitude chez Clubic, bravo.<br /> Attention aux reglages du televiseur; je parle par experience, une Sony non reglee sur Cinema Pro par exemple montrera une image vraiment noire et rendra le film inregardable.
Karl79
Un article vraiment complet et facile à comprendre pour la plupart des gens. Merci Clubic.
yann214
Super travail de synthèse ! merci
Darkpouss
Très bon article.
GabrielM
Avec plaisir, merci à vous pour le commentaire
sandpiper2055
j’ai ceci : le HLG c’est quoi?<br /> HDR (imagerie à grande gamme dynamique)<br /> Cinéma 4K HDR (Dolby VisionMD, HDR10, HLG)<br /> Reproduction tonale dynamique HDR Pro
SanYohan
Hum sauf erreur le HLG c’est plus ou moins l’équivalent du HDR pour les chaines TV
Blues_Blanche
Merci, c’est très intéressa, bien écrit et simple. J’ai appris plein de choses.
newseven
Il y a quel que chose que je ne comprends pas.<br /> Comment que seulement 2 bit peut faire une si grosse différence.<br /> De 10 bit = 1,07 milliard vs 12 bit = 68,7 milliards (couleurs) ?.<br /> Il y a de la compression quelque part.<br /> La résolution.<br /> Soit c’est l’un ou l’autre.<br /> Il y a aussi la métadonnée statique = constant ou dynamique = fluctue (jamais pareille ) .<br /> Donc limage n’est pas de qualité constante !<br /> Mais quand limage est complétement noir il n’y a rien a calculer d’un autre coté.<br /> Il y a du bon et du mauvais.<br /> C’est comme le directx 9 vs 10 .<br /> Je veux dire qu’avant l’image était devisé par le le nombre de Pixel shader donc chaque Pixel shader calculais uniquement la partie de l’image qui était attribué et que peut-être maintenant on peut jouer avec le nombre de bit pour calculer les parties de limage qui sont plus essentiel que d’autre ! .<br /> D’où une meilleur gestion des bits .<br /> Mais là ,il y a 2 problème ,une licence ,le coût du processeur pour la gestion de l’image qui est très grande.
Jacky67
newseven:<br /> Il y a quel que chose que je ne comprends pas.<br /> Comment que seulement 2 bit peut faire une si grosse différence.<br /> De 10 bit = 1,07 milliard vs 12 bit = 68,7 milliards (couleurs) ?.<br /> Ben 2^6 = 64 donc en passant de 10 à 12 bits, tu multiplies le nombre de couleurs par 64.
newseven
Tu est sûr ?<br /> Un peut comme le calcule du son en décibel.<br /> 1 =1 et 2 est 2 foi plus fort que le 1 , le trois est 4 fois plus four que le 1 , le 3 décibels est 16 fois que le 1 est ainsi de suite.<br /> Je pensais que c’était un calcule lineaire et non exponentiel.
kyosho62
newseven:<br /> 1 =1 et 2 est 2 foi plus fort que le 1<br />
Jacky67
Oui, je suis sûr. <br /> Ce qu’il faut comprendre, c’est que quand on parle de « 8 bits », « 10 bits », « 12 bits » ou « 16 bits », c’est le nombre de bits par couleur primaire.<br /> Il faut aussi savoir qu’il y a 3 couleurs primaires (Rouge, Vert et Bleu).<br /> Donc quand on parle de « 10 bits », ça fait un total de 10x3 = 30 bits pour coder la couleur.<br /> Et 2^30 = 1 milliard (environ) de couleurs possibles.<br /> Quand on parle de « 12 bits », ça fait un total de 12x3 = 36 bits pour coder la couleur.<br /> Et 2^36 = 68,7 milliards (environ) de couleurs possibles.<br /> Est-ce plus clair ainsi expliqué ?<br /> En décibels, en fait c’est quand tu ajoutes 3 que ça double.<br /> Donc 1=1, mais c’est 4 qui est 2 fois plus fort que 1, puis 7 qui est 2 fois plus fort que 4 et donc 4 fois plus fort que 1, etc.
newseven
Merci<br /> et maintenant , je vais me prendre aspirine.<br /> C’est seulement pour le calcule du nombre de bits par couleur primaire.
garce_imore
dans cet article il n’est pas précisé les normes HDR400, HDR600, HDR1000, qui concernent la lumiosité et la couverture de l’espace des couleurs.
raymond_raymond
Bon article très intéressant, merci.
fredmc
De toute facon plus la peine de se poser la question la mort du HDR10+ a quasiment sonné.<br /> La fox pourtant à l’origine du projet mais racheté par disney a décidé de se tourner vers le dolby vision …et vu le poids de disney sur le marché autant dire que c’est cuit c’est d’ailleurs eux qui avaient sonné le glas du concurrent du blu ray … (hd dvd de mémoire)<br /> Clubic en avait déjà parlé d’ailleurs : https://www.clubic.com/television-tv/televiseur/actualite-892436-20th-century-hdr10-standard.html<br /> Il vaut mieux miser sur le dolby vision
Jendo80
Bonjour à toutes et tous,<br /> Question qui paraîtra idiote pour certains mais comment se fait-il, en mode Dolby Vision, que ma TV affiche une sorte de « filtre » jaunâtre à l’image; là où, en HDR 10 et/ou 10+, cette dernière ne fait qu’augmenter de manière substantielle la luminosité de la dalle tout en conservant les couleurs d’origine de la source ?
Krypton_80
&lt;&lt; Il faut aussi savoir qu’il y a 3 couleurs primaires (Rouge, Vert et Bleu). &gt;&gt;<br /> Les 3 couleurs primaires sont le rouge, le jaune et le bleu. Le vert est une composante jaune/bleu.
Mike-de-Klubaik
Non, le jaune est une couleur primaire de la synthèse soustractive, comme le cyan et le magenta, alors que le vert est une couleur dans la synthèse additive, tout comme le bleu et le rouge.
trollkien
Existe t’il des écrans 32" FDH compatibles HDR ?
santec
oui et non , via un traitement logiciel qui s’en rapproche mais dans l’absolut non !!<br /> ps: pourtant j’ai eu un sharp fhd avec une dalle 10 bits en 2005
cooper
Les téléviseurs compatibles HDR10, HDR10+ et Dolby Vision sont les Philips et Panasonic en OLED. Mais comme dit le HDR10+ est déjà mort… Donc si vous aimez LG et Sony, aucun soucis malgré l’absence du HDR10+. Le Dolby Vision est l’avenir, d’ailleurs Netflix pousse également ce format sur ces dernières productions.
jvachez
Ca c’est pour la peinture, pour les écrans c’est rouge, vert, bleu. Ca fonctionne pas pareil.
Droz
Toutes ces histoires de formats de cables HDMI super cher aux performances ridicules.<br /> Et même pour les cables DVI et autres…<br /> Pourquoi on utilise pas que du RJ45 pour tout ?
santec
mieux la fibre optique !!
Droz
Pas sur que le rapport qualité/prix/simplicité soit meilleur avec la fibre.
popmpopm
faut autre matos décodeur du data dans les appareil récepteur alors la tele ne peut pas faire tout les tache
k43l
Je pense que la fiche connectique n’est pas faite pour retransmettre l’image. Tout comme le signal ne doit pas être le même.<br /> Le HDMI envoi du son et image, alors que le RJ45 que de la data.<br /> Faudrait voir la composition d’un câble RJ45 avec un câble HDMI mais je suis sur qu’il y a des similitudes.<br /> Et si c’est les différences se limitent à la seule fiche, on pourrait en déduire que les fabricant de câble HDMI s’en mettent plein les fouilles.<br /> Après en termes de prix, on peut quand même trouver de bon câble HDMI 2.1 à 15 - 20€ sur le net. Mais si on se limite au câble vendu en magasin avec des fiches plaqué or (soit disant pour améliorer la connectivité alors que ça ne joue pas) alors oui le prix est exorbitant (70 - 80€)…
krh
Bonjour,<br /> suite a l’article HDR10, HDR10+, Dolby Vision : quel est le meilleur format ? ,<br /> j’ai une question: je voudrais savoir si un televiseur qui ne supporte pas nativement le hdr10+ pourra le supporter plus tard par une mise a jour du televiseur.<br /> Je m’interesse aux tv LG qui ne disposent pas du HDR10+ et je trouve ca dommage car le reste des caracteristiques sont plutot interessantes
Tohrnoriac
pas que je sache, j’ai pas entendu parler de ça ces derniers temps (et ça serait bien dommage, ça fait vendre moins d’articles du coup)
santec
salut en 2005 un lcd tv sharp 32" dalle 10 bits et on ne parlait pas encore de HDR donc le sigle hdr n’est pas une norme seule compte la dalle en 10 12 16 bits, par ce que du hdr sur dalle 8 bits !!!
jotr25
Wow, un article très intéressant.<br /> Je suis entrain de mettre à jour mon cinéma maison et j’ai la question suivante:<br /> Est-ce qu’un câble HDMI avec la certification HDR10 va supporter aussi HDR10+ ?
Voir tous les messages sur le forum