Alors, la couleur 10 bits : c’est important et nouveau, mais… qu’est-ce que c’est ? Avant de plonger là-dedans, la première question est de savoir quelle est la profondeur de bits et pourquoi est-ce important pour les écrans ?
Qu’est-ce que la profondeur de bits
En programmation informatique, les variables sont stockées dans différents formats avec différentes quantités de bits (c’est-à-dire des uns et des zéros), selon le nombre de bits dont la variable a besoin. En général, chaque bit que vous ajoutez vous permet de compter jusqu’au double du nombre précédent et de stocker le double de la quantité d’informations précédente. Donc, si vous devez compter jusqu’à deux (hors zéro), vous avez besoin d’un bit. Deux bits vous permettent de compter jusqu’à quatre, trois bits jusqu’à huit, et ainsi de suite.
L’autre chose à noter ici est qu’en général, moins il y a de bits, mieux c’est. Moins de bits signifie moins d’informations, donc que vous transmettiez des données sur Internet ou que vous les jetiez sur les capacités de traitement de votre ordinateur, vous obtenez tout ce que vous voulez plus rapidement.
Cependant, vous avez besoin de suffisamment de bits pour compter jusqu’au nombre le plus élevé (ou le plus bas) que vous souhaitez atteindre. Dépasser votre limite est l’une des erreurs logicielles les plus courantes. C’est le type de bogue qui a initialement fait de Gandhi un tyran belliciste et lanceur d’armes nucléaires en Civilisation. Après que sa note de « guerre » ait tenté de devenir négative, il est retourné à son réglage maximum possible. C’est donc un exercice d’équilibre pour le nombre de bits dont vous avez besoin ; moins vous utilisez de bits, mieux c’est, mais vous ne devez jamais en utiliser moins que ce qui est nécessaire.
Fonctionnement de la profondeur de bits avec les écrans
Avec l’image que vous voyez en ce moment, votre appareil transmet trois ensembles différents de bits par pixel, séparés en rouge, vert et bleu. La profondeur de bits de ces trois canaux détermine le nombre de nuances de rouge, de vert et de bleu que votre écran reçoit, limitant ainsi le nombre qu’il peut émettre.
Les écrans les plus bas de gamme (qui sont tout à fait rares maintenant) n’ont que six bits par canal de couleur. La norme sRGB demande huit bits par canal de couleur pour éviter les bandes. Afin de correspondre à cette norme, ces anciens panneaux à six bits utilisent le contrôle de la fréquence d’images pour varier au fil du temps. Ceci, espérons-le, cache les bandes.
Et qu’est-ce que le baguage ? L’effet de bande est un saut soudain et indésirable de couleur et/ou de luminosité alors qu’aucun n’est demandé. Plus vous pouvez compter, dans ce cas pour produire des nuances de rouge, de vert et de bleu, plus vous avez de couleurs à choisir et moins vous verrez de bandes. Le tramage, en revanche, n’a pas ces couleurs intermédiaires. Au lieu de cela, il essaie de masquer les bandes en passant bruyamment d’une couleur à l’autre. Ce n’est pas aussi bon qu’un véritable débit binaire plus élevé, mais c’est mieux que rien.
Avec les écrans HDR d’aujourd’hui, vous demandez que beaucoup plus de couleurs et une plage de luminosité beaucoup plus élevée soient transmises à votre écran. Ceci, à son tour, signifie que plus de bits d’information sont nécessaires pour stocker toutes les couleurs et la luminosité entre les deux sans entraîner de bandes. La question, alors, est de combien de bits avez-vous besoin pour le HDR ?
Actuellement, la réponse la plus couramment utilisée provient du seuil de Barten, proposé dans cet article, pour déterminer dans quelle mesure les humains perçoivent le contraste de luminance. Après l’avoir examiné, Dolby (le développeur de la façon dont les bits s’appliquent à la luminance dans la nouvelle norme HDR utilisée par Dolby Vision et HDR10) a conclu que 10 bits auraient un peu de bandes visibles, alors que 12 bits n’en auraient pas du tout. .
C’est pourquoi HDR10 (et 10+, et tous les autres qui viennent après) a 10 bits par pixel, faisant le compromis entre un peu de bande et une transmission plus rapide. La norme Dolby Vision utilise 12 bits par pixel, ce qui est conçu pour garantir la qualité maximale des pixels même s’il utilise plus de bits. Cela couvre la gamme étendue de luminance (c’est-à-dire la luminosité) que le HDR peut couvrir, mais qu’en est-il de la couleur ?
Le nombre de bits nécessaires pour couvrir une « gamme de couleurs » (la gamme de couleurs qu’une norme peut produire) sans bandes est plus difficile à définir. Les raisons scientifiques sont nombreuses, mais elles reviennent toutes sur le fait qu’il est difficile de mesurer avec précision la façon dont l’œil humain perçoit la couleur.
Un problème est que la façon dont les yeux humains réagissent aux couleurs semble changer en fonction du type de test que vous appliquez. La vision humaine des couleurs dépend des «opsines», qui sont les filtres de couleur que votre œil utilise pour voir respectivement le rouge, le vert et le bleu. Le problème est que différentes personnes ont des opsines quelque peu différentes, ce qui signifie que les gens peuvent voir la même nuance de couleur différemment les uns des autres en fonction de la génétique.
Nous pouvons cependant faire quelques suppositions éclairées. Tout d’abord, sur la base d’observations, la couleur huit bits réalisée dans la norme non HDR « sRGB » et la gamme de couleurs peuvent presque, mais pas tout à fait, couvrir suffisamment de couleurs pour éviter les bandes. Si vous regardez de près un dégradé de couleurs, en supposant que vous avez un écran huit bits, il y a de bonnes chances que vous remarquiez un peu de bandes là-bas. En général, cependant, c’est assez bon pour que vous ne le voyiez pas à moins que vous ne le recherchiez vraiment.
Les deux gammes HDR doivent couvrir une vaste gamme de luminosité et soit la gamme de couleurs P3, qui est plus large que sRGB, soit la gamme de couleurs BT2020 encore plus large. Nous avons déjà couvert le nombre de bits dont vous avez besoin pour la luminance, mais de combien de bits avez-vous besoin pour une gamme plus élevée ? Eh bien, la gamme P3 est moins du double du nombre de couleurs de la gamme SRGB, ce qui signifie que vous avez besoin de moins d’un bit pour la couvrir sans bandes. Cependant, la gamme BT 2020 est un peu plus du double de la gamme sRGB, ce qui signifie que vous avez besoin de plus d’un bit supplémentaire pour la couvrir sans bande.
Cela signifie que la norme HDR10 et la couleur 10 bits n’ont pas une profondeur de bits suffisante pour couvrir à la fois la plage de luminance HDR complète et une gamme de couleurs étendue en même temps sans bandes. N’oubliez pas que la couleur 10 bits ne couvre pas tout à fait la plage de luminosité la plus élevée, et encore moins plus de couleurs.
Cela fait partie de la raison pour laquelle le HDR10 et la couleur 10 bits (la norme HLG utilise également 10 bits) sont limités à la sortie de 1 000 nits de luminosité, au maximum, au lieu de 10 000 nits de luminosité comme Dolby Vision. Sans trop pousser la plage de luminosité, vous pouvez réduire au minimum les bandes apparentes. En fait, avec la luminosité et la gamme de couleurs limitées des panneaux d’aujourd’hui, ce qui entraîne une luminosité et un contenu de couleur limités, très peu de gens peuvent remarquer la différence entre les signaux 12 bits et 10 bits.
Alors, à quoi tout cela ressemble-t-il dans le matériel et le contenu réels que vous pourriez utiliser ?
Mettre en pratique
Tout d’abord, devriez-vous vous inquiéter de la gamme de couleurs et de luminosité plus limitée des couleurs HDR10 et 10 bits ? La réponse pour le moment est non, ne vous inquiétez pas trop. Étant donné qu’une grande partie du contenu est maîtrisée et transmise en couleur 10 bits, le matériel couleur 12 bits ne vous apportera de toute façon pas grand-chose aujourd’hui.
La deuxième chose est de savoir comment vous assurer que vous obtenez des couleurs 10 bits sur votre moniteur. Heureusement, cela sera presque toujours répertorié dans les spécifications techniques d’un appareil, mais méfiez-vous de tout écran HDR qui ne le répertorie pas. Vous aurez besoin d’entrées 10 bits pour la couleur, mais les sorties sont une autre histoire. Il peut s’agir d’une sortie de panneau 10 bits ou de huit bits avec FRC.
L’autre astuce utilisée par les fabricants d’affichage consiste à rechercher des tables. Toutes les scènes n’utilisent pas toutes les couleurs et luminosités qui sont disponibles selon un standard — en fait ; la plupart ne le font pas. Les tables de recherche en profitent en faisant varier les informations que les bits dont vous disposez représentent dans un ensemble plus limité de couleurs et de luminosité. Cela limite le nombre de bits nécessaires pour produire une scène sans effet de bande et peut réduire considérablement l’effet de bande dans 95 % ou plus des scènes. Il faut cependant noter qu’actuellement, cela se trouve exclusivement dans les moniteurs de référence haut de gamme comme ceux d’Eizo. C’est aussi le seul endroit où cette astuce est nécessaire, car après avoir été transféré d’un appareil photo (ou ce que vous avez) vers un appareil sur lequel vous regarderiez le contenu, les signaux HDR d’aujourd’hui sont déjà accompagnés d’une astuce de métadonnées pas différente, qui raconte l’affichage de la plage de luminosité qu’il est censé afficher à un moment donné.
La troisième et dernière pièce est de savoir quand se soucier de la couleur 12 bits. Lorsque la gamme de couleurs BT2020 est utilisable sur des appareils tels que des moniteurs, des téléviseurs et des téléphones, et que ces appareils sont capables d’atteindre une luminosité beaucoup plus élevée, vous pouvez alors penser à 12 bits. Une fois que l’industrie aura atteint ce point, la couleur 10 bits ne suffira plus pour afficher ce niveau de HDR sans bandes. Mais nous n’en sommes pas encore là.