• # HDR

    Posté par  (Mastodon) . Évalué à 4.

    Je comprends ce qu'est la HDR en photographie.

    Maintenant je ne comprends pas ce qu'est la HDR pour un truc qui n'est pas limité par la capacité d'un capteur à capturer le spectre complet de la vie réelle. Si on génère l'image, on n'est pas supposé avoir ces limitations. Du coup quelqu'un peut m'expliquer en quoi consiste la HDR dans le contexte d'un jeu vidéo ou de quelconque contenu généré par ordinateur? Ne serait-on pas en train d'utiliser les mêmes mots pour parler d'un truc qui n'a absolument rien à voir?

    • [^] # Re: HDR

      Posté par  . Évalué à 2.

      Un très court article de Wikipédia : https://fr.wikipedia.org/wiki/High_dynamic_range_rendering

      J'ai pas lu la version anglaise, c'est ptêt mieux…

    • [^] # Re: HDR

      Posté par  (site web personnel) . Évalué à 0.

      La HDR en photographie n'est pas une histoire de limite du capteur mais plutôt du périphérique de sortie et le format d'enregistrement. Un bon appareil pourra t'enregistrer une image avec une plage dynamique très importante, mais pour la restitution tu seras limité par le support: le blanc de ta feuille imprimée et le rétroéclairage de ton écran seront tes valeurs maximales.

      Les filtres HDR sont des traitements d'image qui permettent de reproduire localement les contrastes de l'image originale avec une plage dynamique moins importante: on peut ainsi voir des nuages dans le ciel au lieu d'avoir que du blanc, et des détails dans les ombres au lieu de n'avoir que du noir.

      Dans le cas des jeux, les calculs peuvent aussi créer des scènes en HDR qu'il faut convertir avant de pouvoir l'envoyer sur un écran. Maintenant ça marche sous Linux.

      PS: je ne suis ni photographe ni joueur, c'est juste ce que j'ai compris du sujet

      Un LUG en Lorraine : https://enunclic-cappel.fr

      • [^] # Re: HDR

        Posté par  . Évalué à 4.

        La HDR en photographie n'est pas une histoire de limite du capteur mais plutôt du périphérique de sortie et le format d'enregistrement.

        Alors si, justement, c'est une limite du capteur.

        C'était déjà une limite du temps du film photographique : plus une pellicule est exposée, que ce soit en temps d'exposition ou en diamètre d'ouverture, plus elle marque la lumière. Ce même phénomène régit les règles de capture dans le numérique, et on ne fait pas de capteur capable d'avoir une grande plage de luminosité.

        Donc, les appareils font plusieurs enregistrements, avec des réglages différents, puis compose un résultat. Je ne maîtrise pas du tout la composition (blend), mais c'est ce qui fait que c'est difficile aujourd'hui de faire de la photo HDR de sujets en mouvement : les différentes captures sont forcément séquentielles.

        Ensuite, les écrans ont également une plage de rendu limitée. Avec le rétroéclairage LED, certains fabricants ont fait des zones plus ou moins sombres, agrandissant la plage globalement, mais pas localement. Avec les écrans OLED, c'est encore mieux, mais on n'est toujours pas au niveau de l'œil humain.

        En tout cas, ce qui me fait vraiment envie, c'est pas vraiment un écran 8K (je suis toujours en 720p chez moi !), mais du HDR, pour des couleurs et des luminosités vraiment différentes, et probablement plus réalistes.

        Dans le cas des jeux, les calculs peuvent aussi créer des scènes en HDR qu'il faut convertir avant de pouvoir l'envoyer sur un écran. Maintenant ça marche sous Linux.

        Ça, c'est ce que j'ai compris aussi. J'ai surtout compris que le mot HDR est utilisé partout pour des choses très différentes. Le seul point commun, c'est qu'il s'agit bien d'intervalle de rendu des couleurs et de luminosité.

      • [^] # Re: HDR

        Posté par  . Évalué à 2.

        Ce que tu décris est le tonemapping. Le HDR est juste là pour dire on dépasse 8bits, sur les écrans !

        Sur les capteurs, c'est plus compliqué, car cela ne dépends pas juste de la numérisation mais aussi de la capacité du capteur lui même à reproduire un signal très non-linéaire, qui peut dépasser sa dynamique propre, dans ce cas, en général, on va changer des paramètres (diaphragme, temps d'exposition, iso) pour capter différentes partie du signal afin de le reconstruire. Si par contre le support sur lequel on veut le rendre n'est pas capable de reproduire tout ces détails, alors il faut l’aplatir intelligemment, c'est le tone mapping (ou autre méthode).

    • [^] # Re: HDR

      Posté par  (site web personnel, Mastodon) . Évalué à 6. Dernière modification le 04 janvier 2023 à 10:09.

      Pour comprendre ce qu’est la HDR (« High Dynamic Range ») il faut comprendre d’abord ce qu’est la dynamique d’une image (« Dynamic Range »). C’est tout simplement « l’écart » entre la luminosité maximale (le « blanc ») et la luminosité minimale (le « noir ») de l’image.

      Pour des raisons de perception de l’œil humain, le découpage entre ces luminosités n’est pas linéaire mais logarithmique. On compte en « stops » ou en « intensité lumineuse (IL) » (ça a encore d’autre noms), avec +1 IL = le double de la luminosité.

      Un bon tirage papier avec une belle encre bien noire sur un papier bien blanc peut avoir une dynamique d’environ 8 IL. C’est aussi la dynamique des écrans standards, qui correspond bien au codage informatique sous-jacent (8 bits par canal pour 8 IL, c’est pratique).

      Sauf qu’en fait, 8 IL, c’est peu. Les sources varient, mais l’œil humain a environ 14 IL de dynamique instantanée, et bien plus avec de l’adaptation. N’importe quel capteur d’appareil photo même médiocre, utilisé à sa sensibilité nominale, a une sensibilité d’au moins 12 IL (en plus d’être linéaire, mais c’est un autre problème).

      C’est là qu’intervient le HDR, qui recouvre toutes les techniques visant à acquérir, traiter et restituer une dynamique supérieure aux 8 IL « standard » de l’informatique (surtout de la photo, très en retard sur la vidéo sur ce point).

      • En prise de vue : le capteur, la chaine de traitement.
      • En restitution : les capacités de l’écran ou du projecteur, en particulier sa luminosité maximale et la profondeur d’encodage de couleurs, on a souvent 10 bits par canal et 10 IL.
      • En photo, c’est particulier : il y a
        • le HDR réel (l’image est encodée avec une meilleure dynamique que 10 bits par canal – donc pas en jpeg) ;
        • et « l’effet HDR » qui consiste à compresser (pas toujours de façon très subtile) la dynamique d’une image à haute dynamique pour la faire rentrer de force dans une image à basse dynamique affichable n’importe où. C’est souvent cette technique seule à laquelle on pense quand on dit « HDR » (parce que c’est la plus ancienne), sauf qu’elle ne permet pas de comprendre ce qui se passe avec les écrans HDR, ou ici avec le support du HDR dans Linux, parce que ça n’a rien à voir.

      Le mode de la vidéo génère des contenus en HDR (généralement 10 bits par canal) depuis un moment déjà. Les écrans de télévision et parfois les écrans d’ordinateur gèrent plus ou moins bien cette dynamique, avec une jungle de normes et de formats incompatibles et incompréhensibles. L’un des points principaux à vérifier c’est la luminosité maximale, sans quoi la « haute dynamique » va se faire surtout entre du très très sombre et du pas si lumineux que ça, et n’aura pas grand intérêt. J’esquive volontairement les notions de colorimétrie et de contraste dynamique qui rentrent en jeu.

      Quant aux moteurs de jeu vidéo, ça ne leur pose aucune difficulté de générer des images réellement HDR, à partir du moment ou ils ont été conçus pour ça. Au contraire, ça permet d’éliminer des techniques de compression de dynamique dont le rendu peut être étrange (vous vous rappelez d’Oblivion ?). La difficulté dans le jeu vidéo, c’est surtout d’avoir toute la chaine de traitement (jeu, pilotes, carte graphique, OS, écran) capable de gérer les images pondues par le jeu.

      La connaissance libre : https://zestedesavoir.com

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.