HDR signifie High Dynamic Range et est une fonctionnalité présentée sur de nombreux nouveaux téléviseurs, moniteurs de PC et même téléphones mobiles. Malheureusement, il existe un certain nombre de normes HDR concurrentes qui rendent difficile la compréhension de ce que fait réellement le HDR et pourquoi il est meilleur que la plage dynamique standard.
DTS
SDR ou Standard Dynamic Range est l'expérience par défaut pour la plupart des appareils. Les moniteurs SDR utilisent une profondeur de couleur de 8 bits, ce qui signifie que 8 bits de données sont utilisés pour spécifier la valeur de chacun des trois canaux de couleur. Le schéma de couleurs standard pour le contenu SDR est connu sous le nom de sRGB (standard Red Green Blue) et est une norme convenue par HP et Microsoft en 1996, avant d'être normalisée par la CEI en 1999.
Le schéma de couleurs sRGB est basé sur les couleurs qui pourraient être représentées sur les moniteurs CRT du jour. En règle générale, les moniteurs SDR fonctionnent à une luminosité comprise entre 120 et 300 nits.
Astuce: cd/m^2 est l'unité SI pour la luminance. Il est basé sur la candela, l'unité SI pour l'intensité lumineuse et le mètre carré. La candela par mètre carré est aussi communément appelée « nit », qui vient du latin « Niter » qui signifie « briller ».
HDR
Le HDR améliore le SDR en utilisant un spectre de couleurs plus large connu sous le nom de WCG, Wide Color Gamut. Le HDR peut en tirer le meilleur parti en augmentant la profondeur de couleur de 8 bits à 10 bits. Cela permet de spécifier beaucoup plus de couleurs, permettant une plus grande précision des couleurs.
Le HDR a également au moins une luminosité maximale de 450 nits, bien que certains téléviseurs puissent atteindre 10 000 nits. Des données supplémentaires sur la luminosité sont transmises sous forme de métadonnées et permettent un plus grand contraste clair/sombre rendant les couleurs plus vives.
Astuce: les métadonnées sont un flux secondaire de données qui fournit des « données sur d'autres données ».
Normes
HDR10 est la norme HDR la plus courante, elle utilise des couleurs 10 bits. La luminosité est transmise sous forme de métadonnées mais uniquement au début d'une transmission, ce qui signifie qu'un seul réglage de la luminosité peut être utilisé plutôt que de modifier dynamiquement la luminosité par rapport à la scène. La norme HDR10 permet également une luminosité maximale de 1000 nits.
HDR10+ s'appuie sur la norme HDR10 en prenant en charge une profondeur de couleur jusqu'à 12 bits, une vidéo 8K et une luminosité maximale de 10 000 nits. HDR10+ permet également une luminosité image par image ou scène par scène permettant un plus grand contraste lors du basculement entre des endroits clairs et sombres.
L'autre norme populaire est Dolby Vision qui prend en charge une fonctionnalité similaire définie sur HDR10+ mais est propriétaire et coûte 3 $ par appareil à prendre en charge plutôt que la norme gratuite HDR10+.