34
Si vous vous intéressez au petit monde des téléviseurs, les mentions « HDR10 », « HDR10+ » ou encore « Dolby Vision » ne vous ont pas échappé. En anglais, l'acronyme HDR signifie « High Dynamic Range » que l'on pourrait traduire en français par « plage dynamique étendue ». Une technologie concurrencée par un autre format appartement à Dolby, appelé « Dolby Vision ». Quels sont les avantages, inconvénients et différences de chaque technologie ? Qu'est-ce que cela change en termes de qualité d'affichage sur votre TV ? Suivez le guide, on vous explique tout.
Les téléviseurs équipés de la technologie HDR10 ou HDR10+ permettent de profiter d'une gamme de couleurs plus réalistes et naturelles, d'un meilleur contraste et d'une meilleure luminosité, à condition d'afficher des contenus qui sont eux-mêmes compatibles avec la technologie HDR (point sur lequel nous allons revenir). Le Dolby Vision permet à peu près la même chose, mais comprend quelques détails techniques qui le démarquent de la concurrence.
Car la technologie Dolby Vision est capable d'afficher des couleurs plus profondes allant jusqu'à 12 bit, soit environ 68,7 milliards de couleurs, contre 10 bit et 1,07 milliard de couleurs pour le HDR10. Mais, car il y a un mais, les TV comme le contenu capable d'afficher du 12 bit n'existent pas encore. Dolby adapte donc la profondeur de couleur de sa technologie à 10 bit, ce qui permet d'afficher une amélioration subtile par rapport au format 10 bit classique.
Mais ce n'est pas la seule différence de la technologie Dolby Vision, qui propose également une image HDR avec des métadonnées dynamiques qui sont implémentant image par image, là ou le HDR10 le fait de manière statique. Concrètement, cela signifie qu'un film diffusé sur une TV compatible HDR10 affichera un rendu constant tout au long du visionnage, alors qu'il sera adapté de manière dynamique avec le Dolby Vision, pour un rendu plus immersif des différentes scènes.
Comme le HDR10, le HDR10+ propose un affichage 10 bit à 1,07 milliard de couleurs tout en restant open source et libre de droits. Mais cette nouvelle norme pèche pour l'instant par son manque de supports et de contenus compatibles.
Récapitulons :
Soyez vigilants : les mentions « HDR », « HDR Pro » ou encore « HDR Plus » n'ont rien d'officiel, et ne proposent pas un affichage 10 bit. Ils indiquent simplement que le matériel propose une meilleure plage dynamique (en 8 bit) que les TV et moniteur classiques qui sont uniquement en « SDR ».
Si vous optez pour un écran de PC ou que votre téléviseur est dépourvu de fonctions connectées (ou que son interface est vieillissante et lente), nous vous conseillons d'acquérir un boîtier multimédia compatible HDR 10+ ou Dolby Vision.
En revanche, l'adoption du HDR10+ est encore timide sur les smartphones avec l'OS de Google, et complètement absent sur les iPhone. En revanche, les mobiles d'Apple profitent de la technologie Dolby Vision depuis quelques années déjà.
En revanche, aucune plate-forme permettant de jouer aux jeux vidéos n'est (pour l'instant) compatible avec le HDR10+. On retrouve également le Dolby Vision sur les Xbox One S, One X, et le PC, ainsi que sur les Xbox Series X | S. Une TV ou un moniteur PC compatibles sont bien sûr nécessaires pour en profiter.
Commençons par comprendre les différentes normes HDMI, qui s'appliquent aux connecteurs et non aux câbles en eux-mêmes contrairement à ce que certains fabricants de câbles laissent entendre.
Vous l'avez compris, la certification du câble que vous allez choisir est aussi importante que la norme HDMI du connecteur de votre boîtier ou console de jeu. Choisissez-les avec précaution...
En matière de qualité d'image, la vraie différence se fera au niveau des téléviseurs. En effet, aucune d'entre elles n'est encore capable d'exploiter pleinement le meilleur de cette technologie (Dolby Vision), qui peut en théorie atteindre un pic de luminosité de 10,000 cd/m2 et une gamme de couleurs étendue de 12bit. La qualité d'affichage de votre TV fera alors une plus grande différence qu'une simple compatibilité avec une de ces technologies.
Veillez également à ce que chaque maillon de la chaîne soit compatible avec la norme dont vous souhaitez profiter. De la TV en passant par le boîtier ou la console, leur norme HDMI respective et la certification du câble qui les relis, soyez vigilant sur le matériel choisi pour profiter d'une expérience optimale.
Les téléviseurs équipés de la technologie HDR10 ou HDR10+ permettent de profiter d'une gamme de couleurs plus réalistes et naturelles, d'un meilleur contraste et d'une meilleure luminosité, à condition d'afficher des contenus qui sont eux-mêmes compatibles avec la technologie HDR (point sur lequel nous allons revenir). Le Dolby Vision permet à peu près la même chose, mais comprend quelques détails techniques qui le démarquent de la concurrence.
HDR10 vs Dolby Vision : quelles différences ?
La première différence est que le HDR10 est un format open source pour lequel les constructeurs de téléviseurs n'ont à payer aucun droit d'exploitation. En revanche, le « Dolby Vision » appartient à la société Dolby, et les marques souhaitant l'utiliser doivent pour cela payer une licence. Pourquoi les constructeurs paieraient-ils ?Car la technologie Dolby Vision est capable d'afficher des couleurs plus profondes allant jusqu'à 12 bit, soit environ 68,7 milliards de couleurs, contre 10 bit et 1,07 milliard de couleurs pour le HDR10. Mais, car il y a un mais, les TV comme le contenu capable d'afficher du 12 bit n'existent pas encore. Dolby adapte donc la profondeur de couleur de sa technologie à 10 bit, ce qui permet d'afficher une amélioration subtile par rapport au format 10 bit classique.
Mais ce n'est pas la seule différence de la technologie Dolby Vision, qui propose également une image HDR avec des métadonnées dynamiques qui sont implémentant image par image, là ou le HDR10 le fait de manière statique. Concrètement, cela signifie qu'un film diffusé sur une TV compatible HDR10 affichera un rendu constant tout au long du visionnage, alors qu'il sera adapté de manière dynamique avec le Dolby Vision, pour un rendu plus immersif des différentes scènes.
Le HDR10+ contre-attaque
Crée par Panasonic, Samsung et 20th Century Fox, le HDR10+ est, comme le Dolby Vision, une plate-forme de métadonnées dynamiques qui permet d'ajuster la courbe de mappage et les métadonnées scène par scène pour un rendu toujours plus réaliste, et non de manière statique comme cela est le cas du HDR10 « classique ».Lire aussi :
HDMI 1.4, 2.0 ,2.1 : quel câble HDMI choisir ?
HDMI 1.4, 2.0 ,2.1 : quel câble HDMI choisir ?
Comme le HDR10, le HDR10+ propose un affichage 10 bit à 1,07 milliard de couleurs tout en restant open source et libre de droits. Mais cette nouvelle norme pèche pour l'instant par son manque de supports et de contenus compatibles.
Récapitulons :
Comment choisir un téléviseur compatible HDR10, HDR10+ ou Dolby Vision ?
Différentes normes existent pour savoir si l'écran que vous achetez est compatible ou non avec ces technologies. Les différentes normes vous assurant une réelle compatibilité avec des couleurs 10 bit sont les suivants : « Ultra HD Premium », « HDR10 », « HDR10+ » et « Dolby Vision » qui monte à 12 bit comme nous l'avons vu précédemment.Soyez vigilants : les mentions « HDR », « HDR Pro » ou encore « HDR Plus » n'ont rien d'officiel, et ne proposent pas un affichage 10 bit. Ils indiquent simplement que le matériel propose une meilleure plage dynamique (en 8 bit) que les TV et moniteur classiques qui sont uniquement en « SDR ».
Comment profiter d'une image HDR10 ou Dolby Vision ?
Maintenant que vous savez comment choisir votre téléviseur, voici trois excellents téléviseurs compatibles qui méritent votre attention.Notre sélection des meilleures TV compatibles
QLED 8K et HDR10+
Le meilleur OLED
HDR10 pour gamers PC
Samsung QE55Q950R
+ Compatible HDR10 et HDR10+
+ Pic de luminosité élevé
+ Le filtre antireflet
+ Pic de luminosité élevé
+ Le filtre antireflet
TUF Gaming VG27AQ
+ 165 Hz et 1 ms
+ Bonne ergonomie
+ Prise jack
+ Bonne ergonomie
+ Prise jack
Si vous optez pour un écran de PC ou que votre téléviseur est dépourvu de fonctions connectées (ou que son interface est vieillissante et lente), nous vous conseillons d'acquérir un boîtier multimédia compatible HDR 10+ ou Dolby Vision.
Notre sélection des meilleurs boîtiers TV 4K compatibles
Le choix de la rédac
La TV selon Apple
Le rapport qualité-prix
+ Compatible HDR10, HDR10+ et Dolby Vision
+ Compatible audio DTS et Dolby Atmos
+ Android TV au top
Lire le test
+ Compatible audio DTS et Dolby Atmos
+ Android TV au top
Lire le test
Apple TV 4K
+ Compatible HDR10, HDR10+ et Dolby Vision
+ Interface très intuitive
+ Reconnaissance vocale précise
+ Interface très intuitive
+ Reconnaissance vocale précise
+ Compatible HDR10, HDR10+ et Dolby Vision
+ Amazon Alexa intégré
+ Télécommande qui allume et éteint la TV
Lire le test
+ Amazon Alexa intégré
+ Télécommande qui allume et éteint la TV
Lire le test
HDR10, HDR10+ et Dolby Vision : les smartphones compatibles
Si la plupart des smartphones haut de gamme supportent aujourd'hui le HDR10, ceux proposant le HDR10+ ou Dolby Vision se font plus rares. Le LG G6 a été précurseur sur Android en étant compatible avec le Dolby Vision.En revanche, l'adoption du HDR10+ est encore timide sur les smartphones avec l'OS de Google, et complètement absent sur les iPhone. En revanche, les mobiles d'Apple profitent de la technologie Dolby Vision depuis quelques années déjà.
Les consoles de jeux compatibles
Les films ne sont pas les seuls à pouvoir profiter d'une qualité d'affichage HDR10. Le gain pour les jeux vidéos est également indéniable. À l'exception de la Nintendo Switch, les autres consoles de jeux et le PC sont compatibles avec la technologie HDR10, y compris la PS4 originale et la Xbox One S.En revanche, aucune plate-forme permettant de jouer aux jeux vidéos n'est (pour l'instant) compatible avec le HDR10+. On retrouve également le Dolby Vision sur les Xbox One S, One X, et le PC, ainsi que sur les Xbox Series X | S. Une TV ou un moniteur PC compatibles sont bien sûr nécessaires pour en profiter.
Quels câbles HDMI pour profiter du HDR10, HDR10+ et Dolby Vision ?
Maintenant que vous avez votre TV, écran ou vidéoprojecteur ainsi que les boîtiers TV ou consoles compatibles, il va vous falloir les bons câbles HDMI pour transmettre l'information proprement.Les normes HDMI
Commençons par comprendre les différentes normes HDMI, qui s'appliquent aux connecteurs et non aux câbles en eux-mêmes contrairement à ce que certains fabricants de câbles laissent entendre.
Les certifications des câbles HDMI
Pour vous assurer que le câble HDMI que vous achetez a un débit maximal suffisant pour afficher la qualité d'image désirée, quatre certifications existent. Et quoi de mieux qu'un tableau pour les comprendre.Vous l'avez compris, la certification du câble que vous allez choisir est aussi importante que la norme HDMI du connecteur de votre boîtier ou console de jeu. Choisissez-les avec précaution...
Les sources de contenus HDR
Avoir une TV, un boîtier et une console compatibles avec les technologies HDR10 ou Dolby Vision, c'est bien. Avoir du contenu à afficher, c'est mieux. Voici une liste non exhaustive des plates-formes sur lesquelles vous pouvez retrouver des contenus compatibles :- Blu-Ray UHD-4K : de plus en plus de films sont compatibles avec la technologie HDR et Dolby Vision. Il vous faut bien sûr un lecteur Blu-Ray UHD-4K compatible.
- Netflix et Amazon Prime Vidéo : Là encore, certains contenus sont compatibles HDR et Dolby Vision. Vous aurez bien sûr besoin de l'abonnement qui va avec, ainsi que d'une connexion internet très haut débit (fibre recommandée).
- TNT et TV par satellite : Il va falloir se montrer patient. À l'heure actuelle, les contenus HDR sont diffusés ponctuellement à titre expérimental, pour les grands tournois sportifs notamment.
- YouTube : la plate-forme propose également un large choix de vidéos diffusées en HDR. Vous pouvez en profiter sur votre TV grâce à une box Nvidia Shield TV ou un Amazon Fire TV Stick 4K par exemple.
Conclusion
Vous l'aurez compris, il est très difficile de déclarer un vainqueur dans la bataille qui oppose le HDR10 et HDR10+ au Dolby Vision. D'un point de vue technique, le Dolby Vision est supérieur, mais le HDR10+ s'en rapproche fortement. Pourtant, c'est bien le HDR10 qui tire son épingle du jeu grâce aux nombres de contenus compatibles disponibles par rapport aux deux autres formats.En matière de qualité d'image, la vraie différence se fera au niveau des téléviseurs. En effet, aucune d'entre elles n'est encore capable d'exploiter pleinement le meilleur de cette technologie (Dolby Vision), qui peut en théorie atteindre un pic de luminosité de 10,000 cd/m2 et une gamme de couleurs étendue de 12bit. La qualité d'affichage de votre TV fera alors une plus grande différence qu'une simple compatibilité avec une de ces technologies.
Veillez également à ce que chaque maillon de la chaîne soit compatible avec la norme dont vous souhaitez profiter. De la TV en passant par le boîtier ou la console, leur norme HDMI respective et la certification du câble qui les relis, soyez vigilant sur le matériel choisi pour profiter d'une expérience optimale.
Vous êtes un utilisateur de
Google Actualités
ou de
WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Rejoignez la communauté Clubic
S'inscrire
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
S'inscrireCommentaires (34)
jusqu’à maintenant pas de hdr10+ chez les tv série MU de 2017 de samsung malgré que il sont compatible ( meme pas la norme ST2094 dans les option ) …
Excellent article, ca devient vraiment une habitude chez Clubic, bravo.<br />
Attention aux reglages du televiseur; je parle par experience, une Sony non reglee sur Cinema Pro par exemple montrera une image vraiment noire et rendra le film inregardable.
Un article vraiment complet et facile à comprendre pour la plupart des gens. Merci Clubic.
Super travail de synthèse ! merci
Très bon article.
Avec plaisir, merci à vous pour le commentaire
j’ai ceci : le HLG c’est quoi?<br />
HDR (imagerie à grande gamme dynamique)<br />
Cinéma 4K HDR (Dolby VisionMD, HDR10, HLG)<br />
Reproduction tonale dynamique HDR Pro
Hum sauf erreur le HLG c’est plus ou moins l’équivalent du HDR pour les chaines TV
Merci, c’est très intéressa, bien écrit et simple. J’ai appris plein de choses.
Il y a quel que chose que je ne comprends pas.<br />
Comment que seulement 2 bit peut faire une si grosse différence.<br />
De 10 bit = 1,07 milliard vs 12 bit = 68,7 milliards (couleurs) ?.<br />
Il y a de la compression quelque part.<br />
La résolution.<br />
Soit c’est l’un ou l’autre.<br />
Il y a aussi la métadonnée statique = constant ou dynamique = fluctue (jamais pareille ) .<br />
Donc limage n’est pas de qualité constante !<br />
Mais quand limage est complétement noir il n’y a rien a calculer d’un autre coté.<br />
Il y a du bon et du mauvais.<br />
C’est comme le directx 9 vs 10 .<br />
Je veux dire qu’avant l’image était devisé par le le nombre de Pixel shader donc chaque Pixel shader calculais uniquement la partie de l’image qui était attribué et que peut-être maintenant on peut jouer avec le nombre de bit pour calculer les parties de limage qui sont plus essentiel que d’autre ! .<br />
D’où une meilleur gestion des bits .<br />
Mais là ,il y a 2 problème ,une licence ,le coût du processeur pour la gestion de l’image qui est très grande.
newseven:<br />
Il y a quel que chose que je ne comprends pas.<br />
Comment que seulement 2 bit peut faire une si grosse différence.<br />
De 10 bit = 1,07 milliard vs 12 bit = 68,7 milliards (couleurs) ?.<br />
Ben 2^6 = 64 donc en passant de 10 à 12 bits, tu multiplies le nombre de couleurs par 64.
Tu est sûr ?<br />
Un peut comme le calcule du son en décibel.<br />
1 =1 et 2 est 2 foi plus fort que le 1 , le trois est 4 fois plus four que le 1 , le 3 décibels est 16 fois que le 1 est ainsi de suite.<br />
Je pensais que c’était un calcule lineaire et non exponentiel.
newseven:<br />
1 =1 et 2 est 2 foi plus fort que le 1<br />
Oui, je suis sûr. <br />
Ce qu’il faut comprendre, c’est que quand on parle de « 8 bits », « 10 bits », « 12 bits » ou « 16 bits », c’est le nombre de bits par couleur primaire.<br />
Il faut aussi savoir qu’il y a 3 couleurs primaires (Rouge, Vert et Bleu).<br />
Donc quand on parle de « 10 bits », ça fait un total de 10x3 = 30 bits pour coder la couleur.<br />
Et 2^30 = 1 milliard (environ) de couleurs possibles.<br />
Quand on parle de « 12 bits », ça fait un total de 12x3 = 36 bits pour coder la couleur.<br />
Et 2^36 = 68,7 milliards (environ) de couleurs possibles.<br />
Est-ce plus clair ainsi expliqué ?<br />
En décibels, en fait c’est quand tu ajoutes 3 que ça double.<br />
Donc 1=1, mais c’est 4 qui est 2 fois plus fort que 1, puis 7 qui est 2 fois plus fort que 4 et donc 4 fois plus fort que 1, etc.
Merci<br />
et maintenant , je vais me prendre aspirine.<br />
C’est seulement pour le calcule du nombre de bits par couleur primaire.
dans cet article il n’est pas précisé les normes HDR400, HDR600, HDR1000, qui concernent la lumiosité et la couverture de l’espace des couleurs.
Bon article très intéressant, merci.
De toute facon plus la peine de se poser la question la mort du HDR10+ a quasiment sonné.<br />
La fox pourtant à l’origine du projet mais racheté par disney a décidé de se tourner vers le dolby vision …et vu le poids de disney sur le marché autant dire que c’est cuit c’est d’ailleurs eux qui avaient sonné le glas du concurrent du blu ray … (hd dvd de mémoire)<br />
Clubic en avait déjà parlé d’ailleurs : https://www.clubic.com/television-tv/televiseur/actualite-892436-20th-century-hdr10-standard.html<br />
Il vaut mieux miser sur le dolby vision
Bonjour à toutes et tous,<br />
Question qui paraîtra idiote pour certains mais comment se fait-il, en mode Dolby Vision, que ma TV affiche une sorte de « filtre » jaunâtre à l’image; là où, en HDR 10 et/ou 10+, cette dernière ne fait qu’augmenter de manière substantielle la luminosité de la dalle tout en conservant les couleurs d’origine de la source ?
<< Il faut aussi savoir qu’il y a 3 couleurs primaires (Rouge, Vert et Bleu). >><br />
Les 3 couleurs primaires sont le rouge, le jaune et le bleu. Le vert est une composante jaune/bleu.
Non, le jaune est une couleur primaire de la synthèse soustractive, comme le cyan et le magenta, alors que le vert est une couleur dans la synthèse additive, tout comme le bleu et le rouge.
Existe t’il des écrans 32" FDH compatibles HDR ?
oui et non , via un traitement logiciel qui s’en rapproche mais dans l’absolut non !!<br />
ps: pourtant j’ai eu un sharp fhd avec une dalle 10 bits en 2005
Les téléviseurs compatibles HDR10, HDR10+ et Dolby Vision sont les Philips et Panasonic en OLED. Mais comme dit le HDR10+ est déjà mort… Donc si vous aimez LG et Sony, aucun soucis malgré l’absence du HDR10+. Le Dolby Vision est l’avenir, d’ailleurs Netflix pousse également ce format sur ces dernières productions.
Ca c’est pour la peinture, pour les écrans c’est rouge, vert, bleu. Ca fonctionne pas pareil.
Toutes ces histoires de formats de cables HDMI super cher aux performances ridicules.<br />
Et même pour les cables DVI et autres…<br />
Pourquoi on utilise pas que du RJ45 pour tout ?
mieux la fibre optique !!
Pas sur que le rapport qualité/prix/simplicité soit meilleur avec la fibre.
faut autre matos décodeur du data dans les appareil récepteur alors la tele ne peut pas faire tout les tache
Je pense que la fiche connectique n’est pas faite pour retransmettre l’image. Tout comme le signal ne doit pas être le même.<br />
Le HDMI envoi du son et image, alors que le RJ45 que de la data.<br />
Faudrait voir la composition d’un câble RJ45 avec un câble HDMI mais je suis sur qu’il y a des similitudes.<br />
Et si c’est les différences se limitent à la seule fiche, on pourrait en déduire que les fabricant de câble HDMI s’en mettent plein les fouilles.<br />
Après en termes de prix, on peut quand même trouver de bon câble HDMI 2.1 à 15 - 20€ sur le net. Mais si on se limite au câble vendu en magasin avec des fiches plaqué or (soit disant pour améliorer la connectivité alors que ça ne joue pas) alors oui le prix est exorbitant (70 - 80€)…
Bonjour,<br />
suite a l’article HDR10, HDR10+, Dolby Vision : quel est le meilleur format ? ,<br />
j’ai une question: je voudrais savoir si un televiseur qui ne supporte pas nativement le hdr10+ pourra le supporter plus tard par une mise a jour du televiseur.<br />
Je m’interesse aux tv LG qui ne disposent pas du HDR10+ et je trouve ca dommage car le reste des caracteristiques sont plutot interessantes
pas que je sache, j’ai pas entendu parler de ça ces derniers temps (et ça serait bien dommage, ça fait vendre moins d’articles du coup)
salut en 2005 un lcd tv sharp 32" dalle 10 bits et on ne parlait pas encore de HDR donc le sigle hdr n’est pas une norme seule compte la dalle en 10 12 16 bits, par ce que du hdr sur dalle 8 bits !!!
Wow, un article très intéressant.<br />
Je suis entrain de mettre à jour mon cinéma maison et j’ai la question suivante:<br />
Est-ce qu’un câble HDMI avec la certification HDR10 va supporter aussi HDR10+ ?
Voir tous les
messages sur le forum