La technologie HDR est maintenant si répandue que les services de streaming populaires tels qu'Amazon Prime, Disney+ et Netflix ont commencé à prendre en charge le contenu HDR. En fait, si vous deviez rechercher un nouveau téléviseur ou un nouveau moniteur aujourd'hui, vous seriez surpris de voir que presque tous les produits disposent du HDR sur leur liste de spécifications.

Ce qui soulève la question: qu'est-ce que le HDR exactement? Comment fonctionne le HDR et comment se compare-t-il au SDR classique ?

Qu'est-ce que le DTS ?

La plage dynamique standard (SDR) est une norme vidéo utilisée depuis les moniteurs CRT. Malgré le succès commercial de Technologie d'écran HDR, SDR est toujours le format par défaut utilisé dans les téléviseurs, les moniteurs et les projecteurs. Bien qu'il ait été utilisé dans les anciens moniteurs CRT (et qu'il soit en fait gêné par les limites de la technologie CRT), le SDR est toujours un format acceptable aujourd'hui. En fait, la grande majorité du contenu vidéo, qu'il s'agisse de jeux, de films ou de vidéos YouTube, utilise toujours le SDR. Fondamentalement, si l'appareil ou le contenu n'est pas classé comme HDR, vous utilisez probablement SDR.

instagram viewer

Qu'est-ce que le HDR ?

La plage dynamique élevée (HDR) est la nouvelle norme en matière d'images et de vidéos. Le HDR est d'abord devenu populaire parmi les photographes souhaitant exposer correctement une composition avec deux sujets ayant une différence de valeur d'exposition de 13 arrêts. Une plage dynamique aussi large permettrait une exposition correcte à des scènes réelles qui n'étaient auparavant pas possibles avec SDR.

Crédit d'image: Richard Huber/Wikimédia Commons

Plus récemment, le HDR a été introduit dans les films, les vidéos et même les jeux. Alors que le contenu SDR fournissait un ciel exagéré, des noirs indiscernables et des problèmes de bandes pendant scènes à contraste élevé, HDR dépeint de manière réaliste ces scènes avec un espace colorimétrique plus étendu, une profondeur de couleur, et luminance.

Un espace colorimétrique plus large, une plus grande profondeur de couleur et une luminance plus élevée rendent le HDR meilleur que le SDR, mais de combien ?

Comparaison HDR vs. DTS

Si vous avez déjà été à la recherche d'un moniteur, vous avez probablement remarqué certaines spécifications telles que sRGB, nits et cd/m2, et couleurs 10 bits. Ces spécifications concernent l'espace colorimétrique, la luminance et la profondeur de couleur. Toutes ces spécifications sont ce qui rend les sujets vibrants, bien mélangés et correctement exposés à l'intérieur d'une image.

Pour mieux comprendre la différence entre HDR et SDR, comparons les deux à travers leur gamme de couleurs, leur luminosité et leur profondeur de couleur. Commençons par la gamme de couleurs.

Gamme de couleurs

Une gamme de couleurs est un spectre théorique de couleurs qui peut être représenté numériquement. Pour représenter toutes les couleurs possibles que les yeux peuvent voir, l'industrie utilise ce que l'on appelle le diagramme de chromaticité CIE 1931. Ce diagramme est la norme avec laquelle différents espaces colorimétriques sont comparés. SDR utilise un espace colorimétrique appelé Rec 709 et HDR avec Rec 2100. Le triangle représente la quantité d'espace qu'ils utilisent à travers l'illustration ci-dessous :

Crédit d'image: Sakurambo/Wikimédia Commons

Comme vous pouvez le voir, l'espace colorimétrique utilisé par le Rec 2100 de HDR est nettement plus grand que celui du Rec 709 de SDR.

Avec le grand espace colorimétrique du HDR, les cinéastes et divers créateurs de contenu disposeront d'un spectre beaucoup plus large de verts, de rouges et de jaunes pour représenter avec précision et art leur travail. Cela signifie que les téléspectateurs qui regardent le HDR verront des couleurs plus vives, en particulier dans les verts, les jaunes, les rouges et tout ce qui se trouve entre eux.

En ce qui concerne le SDR, étant donné que l'espace colorimétrique contient des quantités proportionnelles de couleurs primaires, les coloristes peuvent toujours représenter leur travail de manière magnifique, mais avec des limitations importantes.

Luminosité

Vous avez vu la gamme de couleurs représentée en 2D comme celle utilisée précédemment. Cependant, l'ensemble de l'espace colorimétrique CIE 1931 est en fait un diagramme 3D. La 3e dimension du diagramme représente la luminosité perçue de la couleur. La luminosité, ainsi que la saturation, sont ce qui modifie la qualité de la couleur que les humains sont capables de voir.

Un écran qui peut produire des quantités plus élevées de luminance est plus capable de modifier toutes les teintes représentées par la palette de couleurs 2D et peut donc afficher plus de couleurs visibles à l'œil humain. La luminance est mesurée en nits ou candela/m2.

SDR est capable de produire 100 nits ou 100 cd/m2. En revanche, le HDR10 (la norme HDR la plus courante) peut produire jusqu'à 1 000 nits. Cela signifie que regarder en HDR10 peut permettre aux téléspectateurs de voir plus de variétés de couleurs primaires et secondaires.

La profondeur de la couleur

Bien que les yeux humains voient tout en analogique, les écrans numériques doivent imiter ces ondes de lumière analogiques en bits numériques pour que les processeurs puissent les recréer. Ces bits d'informations numériques sont appelés profondeur de couleur ou bits de couleur.

L'œil humain utilise la perception pour voir différentes couleurs. Les écrans numériques utilisent la profondeur de couleur ou la profondeur de bits pour indiquer à un pixel quelle couleur afficher. Plus un pixel peut clignoter, plus il peut afficher de couleurs.

SDR peut afficher 8 bits de couleur, ce qui signifie qu'un pixel peut afficher une couleur primaire dans 256 variétés. Puisqu'il existe trois couleurs primaires, un panneau 8 bits peut afficher un maximum de 16 777 216 nuances de couleur.

Pour mettre cela en perspective, l'œil humain ne peut distinguer qu'environ 10 millions de couleurs. Cela signifie que SDR est très capable d'afficher les couleurs que nos yeux humains peuvent voir, c'est pourquoi la couleur 8 bits est toujours la norme pour les médias visuels aujourd'hui.

En revanche, HDR10 peut faire une profondeur de couleur de 10 bits, permettant un maximum de 1,07 milliard de nuances de couleur !

Impressionnant, mais comme l'œil humain ne peut distinguer qu'environ 10 millions de couleurs, une profondeur de couleur de 10 bits n'est-elle pas exagérée? Pouvez-vous même voir la différence?

Oui, vous pourriez tout à fait! Mais comment?

Les gens peuvent percevoir plus de couleurs avec une profondeur de 10 bits car l'œil humain ne perçoit pas les teintes de la même manière.

Crédit d'image: Sakurambo/Wikimédia Commons

Si vous regardez l'échelle de chromaticité CIE 1931 (photo ci-dessus), vous pouvez voir que l'œil humain peut voir beaucoup plus de verts et de rouges que de bleus. Bien qu'une profondeur de couleur de 8 bits puisse maximiser étroitement tous les bleus que vos yeux peuvent percevoir, elle ne peut pas faire la même chose avec le rouge, et en particulier avec les verts. Ainsi, même si vous verrez à peu près la même gamme de bleus en 8 et 10 bits, d'autres primaires telles que les rouges et les verts s'afficheront davantage sur un système utilisant une profondeur de couleur de 10 bits.

Avantages et inconvénients du HDR et du SDR

Crédit d'image :tdlucas5000/Flickr

HDR et SDR sont deux normes utilisées dans les médias numériques visuels. L'utilisation d'une norme à partir d'une autre aura ses rues et ses faiblesses. Voici un tableau pour vous montrer comment l'un se compare à l'autre :

En termes de couleur et d'affichage, le HDR est meilleur que le SDR à tous points de vue. Il offre des améliorations significatives dans l'espace colorimétrique, la luminance et la profondeur des couleurs. Donc, si vous avez la possibilité de regarder des films, de visionner des images ou de jouer à des jeux en HDR, vous devriez toujours le faire, mais pouvez-vous ?

Le problème avec HDR est que la plupart des supports consommables ne sont pas compatibles HDR. Souvent, la visualisation de médias HDR sur un écran SDR rendra votre expérience visuelle pire que de la regarder sur un panneau SDR ordinaire.

Un autre problème est que la plupart des appareils HDR utilisent HDR10, qui est vaguement standardisé, alors que sa commercialisation est largement uniforme. Par exemple, vous trouverez le logo HDR10 giflé sur un panneau de qualité inférieure qui ne peut pas fonctionner aussi bien que le panneau de 1 000 nits présenté dans les publicités HDR10.

Bien que le SDR fournisse les normes de visualisation habituelles et ne puisse pas rivaliser avec le HDR lorsqu'il fonctionne, sa facilité d'utilisation, sa compatibilité et son faible coût expliquent pourquoi de nombreuses personnes préfèrent encore l'utiliser.

Vous avez besoin à la fois du HDR et du SDR

Maintenant que vous connaissez la différence entre les normes SDR et HDR, il devient évident que le HDR est clairement le gagnant lorsqu'il s'agit de regarder du contenu divertissant. Cependant, cela ne signifie pas que vous devez arrêter d'utiliser SDR. La vérité est que SDR est toujours la meilleure norme à utiliser lorsque vous ne regardez pas ou ne lisez pas de contenu spécifique au HDR.

Si vous achetez un nouvel écran, il serait judicieux d'investir dans un panneau compatible HDR plus cher, car il vous permet de regarder à la fois du contenu HDR et SDR. Étant donné que le contenu SDR semble mauvais en HDR10, vous pouvez toujours désactiver le HDR lorsque vous regardez, lisez ou visualisez du contenu et des applications SDR.

J'espère que cela vous donne une idée de l'impact que le HDR apporte à la table. Bien que le SDR soit toujours la façon dont vous profitez de divers contenus, ce n'est qu'une question de temps avant que le HDR ne soit mieux pris en charge. Ensuite, ce sera probablement la future norme que tout le monde utilisera.