Commentaires : HDR10, HDR10+, Dolby Vision : quel est le meilleur format?

Si vous vous intéressez au petit monde des téléviseurs, les mentions « HDR10 », « HDR10+ » ou encore « Dolby Vision » ne vous ont pas échappé. En anglais, l’acronyme HDR signifie « High Dynamic Range » que l’on pourrait traduire en français par « plage dynamique étendue ». Une technologie concurrencée par un autre format appartement à Dolby, appelé « Dolby Vision ». Quels sont les avantages, inconvénients et différences de chaque technologie ? Qu’est-ce que cela change en termes de qualité d’affichage sur votre TV ? Suivez le guide, on vous explique tout.

10 « J'aime »

jusqu’à maintenant pas de hdr10+ chez les tv série MU de 2017 de samsung malgré que il sont compatible ( meme pas la norme ST2094 dans les option ) …

Excellent article, ca devient vraiment une habitude chez Clubic, bravo.

Attention aux reglages du televiseur; je parle par experience, une Sony non reglee sur Cinema Pro par exemple montrera une image vraiment noire et rendra le film inregardable.

2 « J'aime »

Un article vraiment complet et facile à comprendre pour la plupart des gens. Merci Clubic.

3 « J'aime »

Super travail de synthèse ! merci :wink:

2 « J'aime »

Très bon article.

2 « J'aime »

Avec plaisir, merci à vous pour le commentaire :slightly_smiling_face:

1 « J'aime »

j’ai ceci : le HLG c’est quoi?

HDR (imagerie à grande gamme dynamique)

Cinéma 4K HDR (Dolby VisionMD, HDR10, HLG)
Reproduction tonale dynamique HDR Pro

Hum sauf erreur le HLG c’est plus ou moins l’équivalent du HDR pour les chaines TV

Merci, c’est très intéressa, bien écrit et simple. J’ai appris plein de choses.

2 « J'aime »

Il y a quel que chose que je ne comprends pas.
Comment que seulement 2 bit peut faire une si grosse différence.
De 10 bit = 1,07 milliard vs 12 bit = 68,7 milliards (couleurs) ?.
Il y a de la compression quelque part.
La résolution.
Soit c’est l’un ou l’autre.

Il y a aussi la métadonnée statique = constant ou dynamique = fluctue (jamais pareille ) .
Donc limage n’est pas de qualité constante !
Mais quand limage est complétement noir il n’y a rien a calculer d’un autre coté.
Il y a du bon et du mauvais.

C’est comme le directx 9 vs 10 .

Je veux dire qu’avant l’image était devisé par le le nombre de Pixel shader donc chaque Pixel shader calculais uniquement la partie de l’image qui était attribué et que peut-être maintenant on peut jouer avec le nombre de bit pour calculer les parties de limage qui sont plus essentiel que d’autre ! .
D’où une meilleur gestion des bits .

Mais là ,il y a 2 problème ,une licence ,le coût du processeur pour la gestion de l’image qui est très grande.

Ben 2^6 = 64 donc en passant de 10 à 12 bits, tu multiplies le nombre de couleurs par 64.

1 « J'aime »

Tu est sûr ?
Un peut comme le calcule du son en décibel.
1 =1 et 2 est 2 foi plus fort que le 1 , le trois est 4 fois plus four que le 1 , le 3 décibels est 16 fois que le 1 est ainsi de suite.

Je pensais que c’était un calcule lineaire et non exponentiel.

3 « J'aime »

Oui, je suis sûr. :wink:

Ce qu’il faut comprendre, c’est que quand on parle de « 8 bits », « 10 bits », « 12 bits » ou « 16 bits », c’est le nombre de bits par couleur primaire.
Il faut aussi savoir qu’il y a 3 couleurs primaires (Rouge, Vert et Bleu).

Donc quand on parle de « 10 bits », ça fait un total de 10x3 = 30 bits pour coder la couleur.
Et 2^30 = 1 milliard (environ) de couleurs possibles.

Quand on parle de « 12 bits », ça fait un total de 12x3 = 36 bits pour coder la couleur.
Et 2^36 = 68,7 milliards (environ) de couleurs possibles.

Est-ce plus clair ainsi expliqué ?


En décibels, en fait c’est quand tu ajoutes 3 que ça double.

Donc 1=1, mais c’est 4 qui est 2 fois plus fort que 1, puis 7 qui est 2 fois plus fort que 4 et donc 4 fois plus fort que 1, etc.

1 « J'aime »

Merci
et maintenant , je vais me prendre aspirine.
C’est seulement pour le calcule du nombre de bits par couleur primaire.

dans cet article il n’est pas précisé les normes HDR400, HDR600, HDR1000, qui concernent la lumiosité et la couverture de l’espace des couleurs.

Bon article très intéressant, merci.

De toute facon plus la peine de se poser la question la mort du HDR10+ a quasiment sonné.
La fox pourtant à l’origine du projet mais racheté par disney a décidé de se tourner vers le dolby vision …et vu le poids de disney sur le marché autant dire que c’est cuit c’est d’ailleurs eux qui avaient sonné le glas du concurrent du blu ray … (hd dvd de mémoire)
Clubic en avait déjà parlé d’ailleurs : https://www.clubic.com/television-tv/televiseur/actualite-892436-20th-century-hdr10-standard.html
Il vaut mieux miser sur le dolby vision

Bonjour à toutes et tous,

Question qui paraîtra idiote pour certains mais comment se fait-il, en mode Dolby Vision, que ma TV affiche une sorte de « filtre » jaunâtre à l’image; là où, en HDR 10 et/ou 10+, cette dernière ne fait qu’augmenter de manière substantielle la luminosité de la dalle tout en conservant les couleurs d’origine de la source ?