La VESA annonce une nouvelle spécification : le DisplayHDR
Pour donner une indication sur les capacités HDR des écrans d'ordinateur

Le , par LittleWhite, Responsable 2D/3D/Jeux
Après les télévisions, ce sont aux écrans d'ordinateur d'adopter l'affichage d'images HDR (High Dynamic Range, soit, des images ayant plus de 8 bits de couleurs par composante).
Pour suivre cette évolution, mais aussi pour mieux encadrer les constructeurs et ainsi aider les acheteurs, le Video Electronics Standards Association (VESA) annonce une nouvelle spécification : DisplayHDR. Celle-ci définit trois catégories DisplayHDR 400, DisplayHDR 600 et DisplayHDR 1000 ainsi qu'une méthodologie destinée aux constructeurs pour tester leurs matériels. D'ailleurs, l'utilisateur final pourra aussi tester son écran grâce à un outil qui sera mis à disposition par VESA (début 2018).

Voici les catégories de la spécification :


(Cliquez sur l'image pour l'agrandir)

Dans le futur, VESA souhaite ajouter d'autres catégories et aussi prendre en compte les écrans OLED. On remarquera que la certification est indépendante des aspects comme la résolution et le ratio (contrairement à ce qui a été fait pour les télévisions). Les logos/catégories peuvent aussi être utilisés par les constructeurs de télévisions.

Votre opinion

Trouvez-vous cette nouvelle spécification utile ? Que pensez-vous des catégories ?
Êtes-vous intéressé par un écran HDR pour ordinateurs ?

Voir aussi

Qu'est-ce que le High Dynamic Range (HDR) ?

Source

Site officiel


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de cirle78 cirle78 - Membre régulier https://www.developpez.com
le 14/12/2017 à 11:15
C'est sur, nous en avons besoin pour faire du code, du Word ou du Excel.
Avatar de 23JFK 23JFK - Membre expérimenté https://www.developpez.com
le 14/12/2017 à 14:23
C'est sûr qu'avec des écrans pouvant afficher des ultraviolets et des infrarouges, les images serlnt plus belles.
Avatar de foetus foetus - Expert confirmé https://www.developpez.com
le 15/12/2017 à 20:55
Ayant acheté un moniteur en novembre 2017 et j'ai failli prendre un LG 32UD99 qui a une dalle IPS avec HDR justement. (je me suis rabattu sur le petit frère LG 32UD59 avec une dalle VA)

Et j'ai l'impression que cette norme n'est faite que pour patienter parce qu'on ne sait pas faire du HDR 1000 pixel par pixel; qui arrivera en 2019.
Et justement sur le HDR, il y a la norme HDR 10 mais qu'aucun écran HDR ne l'implémente à 100% : donc c'est bien avant tout un truc commercial et que cette norme permet au moins de proposer une clarté d'achat.
Enfin, actuellement c'est du HDR région par région et les constructeurs gardent plus ou moins secret comment ils implémentent leur HDR

Il y a le ROG Swift PG27UQ qui sera [peut être] un HDR 1000, mais il a été repoussé à 2018 et ce n'est qu'un 27 pouces (pour de la 4K)

L'idée du HDR (du moins ce que j'ai compris), c'est de pouvoir modifier la luminosité d'un pixel avec des valeurs allant jusqu'à 1000 (actuellement c'est à peine 300-400).
Afin d'avoir des noirs de plus profond à plus brillant (comme au cinéma)
Avatar de Jipété Jipété - Expert éminent https://www.developpez.com
le 15/12/2017 à 22:35
Citation Envoyé par foetus Voir le message
L'idée du HDR (du moins ce que j'ai compris), c'est de pouvoir modifier la luminosité d'un pixel avec des valeurs allant jusqu'à 1000 (actuellement c'est à peine 300-400).
Ce que je ne comprends pas, dans toutes ces histoires (mis à part que ça doit surtout être de l'enfumage de marketeux), c'est à quoi ça servirait des valeurs de 0 à 1000 quand l'œil n'est pas capable de détecter une variation de 1 point sur cette (bientôt vieille, à les écouter) échelle de 0 à 255.

Citation Envoyé par foetus Voir le message
Afin d'avoir des noirs de plus profond à plus brillant (comme au cinéma)
Euh, noir c'est noir (RIP) et point barre.
Bon, faut dire que ça fait longtemps que je ne suis pas allé au cinoche, mais pour moi, s'il y a deux noirs et qu'on voit la différence, c'est que l'un des deux n'est pas vraiment noir, et si c'est sur un écran d'ordi, un coup de color picker lèvera le lièvre : si on mesure un patch à 3 fois 0 et l'autre à 3 fois 5, ben ce dernier n'est pas noir, c'est tout.
Et en dessous, on ne verra pas la différence.
Avatar de foetus foetus - Expert confirmé https://www.developpez.com
le 16/12/2017 à 2:58
Citation Envoyé par Jipété Voir le message
Ce que je ne comprends pas, dans toutes ces histoires (mis à part que ça doit surtout être de l'enfumage de marketeux), c'est à quoi ça servirait des valeurs de 0 à 1000 quand l'œil n'est pas capable de détecter une variation de 1 point sur cette (bientôt vieille, à les écouter) échelle de 0 à 255.
Regarde les images test/ marketing : il y a une réelle différence. Cela permet de rendre certaines zones plus brillantes et d'autres plus sombres (<- mais effectivement c'est plus pour les films)
Et là on joue sur la luminosité (si je ne dis pas de bêtises) : essaye de monter la luminosité de ton écran (il doit être actuellement entre 200 et 250 cd/m², peut être moins) et tu verras bien

D'ailleurs, cette information sera directement stockée dans l'image et la vidéo dite HDR.

Édit : Le premier truc grand public HDR c'est l'extension/ démo du jeu Half-Life 2 : Lost Coast. (<- lien youtube)

Citation Envoyé par Jipété Voir le message
Euh, noir c'est noir (RIP) et point barre.
Je ne suis pas spécialiste mais tout le monde dit que les dalles IPS ont des couleurs fadasses par rapport aux dalles VA. Donc oui, il y a bien différents rendus des couleurs.
D'ailleurs pour les téléviseurs (plus pour regarder des films qu'un moniteur ), les téléviseurs plasma étaient très prisés pour cette raison : "les écrans plasma génèrent un spectre de couleurs plus large, un gamut plus étendu, et bénéficient d'un meilleur contraste, notamment grâce à la qualité des noirs" (d'après l'ami Wiki)
Avatar de Jipété Jipété - Expert éminent https://www.developpez.com
le 16/12/2017 à 8:47
Vit' vit' parce qu'après on va dire que je trolle, mais :
Citation Envoyé par foetus Voir le message
[...] D'ailleurs pour les téléviseurs (plus pour regarder des films qu'un moniteur ), les téléviseurs plasma étaient très prisés pour cette raison : "les écrans plasma génèrent un spectre de couleurs plus large, un gamut plus étendu, et bénéficient d'un meilleur contraste, notamment grâce à la qualité des noirs" (d'après l'ami Wiki)
L'ami Wiki s'est fait enfumer et reproduit le message marketing.
Je ne vois pas comment un noir pourrait être plus noir qu'un autre. À l'époque des tubes cathodiques, le noir c'était les trois canons éteints, et je ne vois pas comment ils pourraient être plus éteints que déjà éteints...
Une porte peut-elle être plus fermée que fermée ?
Tiens, on dirait du Coluche et le blanc plus blanc que blanc.

Générer un spectre de couleurs plus large, admettons, c'est du bête hardware mais comme l'œil n'est pas capable de voir la différence, ça ne sert à rien.

Ou alors ils trafiquent les images, ils travestissent la réalité, quoi, et tout le monde trouve ça génial sinon on passe pour un ringard.
Lecture récente ici.
Avatar de chrtophe chrtophe - Responsable Systèmes https://www.developpez.com
le 16/12/2017 à 9:21
L’œil humain est plus sensible à la luminosité qu'à la teinte. C'est le principe utilisé dans le format jpeg pour supprimer des données de chrominance, et réduire le poids d'une image (par destruction d'information) sans perte significative pour la vision.

Le principe du HDR est de prendre plusieurs clichés pour une même image avec des temps d'exposition variables. Un algorithme va prendre les meilleures zones claires et obscures.

Adapté à la vidéo, il va donc falloir des caméras gérant cette norme si j'ai bien compris. A moins que ce soit un truc du genre, la caméra filme en 72 images par secondes, le rendu se fait en 24 images par secondes, avec pour chaque image rendue, 3 images en entrées passant par l'algorithme HDR.
Avatar de Chatanga Chatanga - Membre averti https://www.developpez.com
le 16/12/2017 à 14:55
Citation Envoyé par Jipété Voir le message
L'ami Wiki s'est fait enfumer et reproduit le message marketing.
Je ne vois pas comment un noir pourrait être plus noir qu'un autre. À l'époque des tubes cathodiques, le noir c'était les trois canons éteints, et je ne vois pas comment ils pourraient être plus éteints que déjà éteints...
Une porte peut-elle être plus fermée que fermée ?
Tiens, on dirait du Coluche et le blanc plus blanc que blanc.

Générer un spectre de couleurs plus large, admettons, c'est du bête hardware mais comme l'œil n'est pas capable de voir la différence, ça ne sert à rien.

Ou alors ils trafiquent les images, ils travestissent la réalité, quoi, et tout le monde trouve ça génial sinon on passe pour un ringard.
Un code RGB est limité et n'est pas une description absolue ni suffisamment fine de la perception chromatique. Un « noir » est effectivement obscur sur un cathodique, mais l'est nettement moins sur un LCD où le rétro-éclairage n'est jamais obturé à 100%. Sur l'un ou l'autre, un « blanc » ne sera jamais qu'un gris plus ou moins marqué. Au passage, c'est Coluche qui se plante : le plus blanc que blanc existe ou, plus précisément, est perceptible. Ça consiste à ajouter de l'azuréen dans les lessives pour rendre les textiles plus brillants* et donc visiblement « plus blancs » (jette donc un œil à un paysage enneigé pour découvrir de la neige plus blanche que blanche). La plage de rendu de la luminosité par un écran est donc limitée. Même si l’œil humain a aussi une plage limité (et c'est pourquoi il fonctionne comme un appareil photo capable de limiter l'exposition de sa rétine), sa plage reste plus étendue et un écran HDR garde un sens. Évidemment, une publicité pour le HDR sur un écran classique est vouée à relever de la manipulation (tout comme vanter le 100 Hz ou la 3D sur un écran 60 Hz affichant de la 2D).

De manière peut-être plus simple et évocatrice : attache 2 écrans LCD côte à côte et règle la luminosité de l'un au minimum et celle de l'autre au maximum. Tu obtiens ainsi un écran HDR (un peu merdique il est vrai) et comprend bien au passage la nécessité de coder les couleurs avec une plage de valeurs plus grande (au moins un bit dans notre cas, histoire de distinguer entre la luminosité du premier écran et celle du second)

* C'est d'ailleurs pourquoi les militaires doivent utiliser des lessives sans azuréens sous peine de passer pour des sapins de Noël en vision de nuit.
Avatar de Jipété Jipété - Expert éminent https://www.developpez.com
le 16/12/2017 à 16:18
Citation Envoyé par Chatanga Voir le message
(jette donc un œil à un paysage enneigé pour découvrir de la neige plus blanche que blanche).
Je ne vais pas m'appesantir, je dirai simplement que plus blanc que blanc ne peut pas exister pour la bonne et simple raison qu'en l'état actuel des technologies, il n'y a rien au-delà de 255,255,255 (et si c'était sur 10 bits, la limite serait à 1023, hardwarement figée par construction, par design), et qu'on peut blablater tout ce qu'on veut, il n'y a rien au-delà de la limite.

Ton paysage enneigé avec des blancs plus blancs que blanc, c'est juste qu'il y a juste beaucoup plus de blanc que sous les Tropiques, mais le blanc c'est du blanc.
255 255 255 c'est du blanc, 254 254 254 c'est un gris extrêmement clair mais ça n'est déjà plus du blanc.

Et je ne vois () pas ce qu'il y a à redire à çà.
Avatar de foetus foetus - Expert confirmé https://www.developpez.com
le 17/12/2017 à 6:56
Citation Envoyé par Jipété Voir le message
Ou alors ils trafiquent les images, ils travestissent la réalité, quoi, et tout le monde trouve ça génial sinon on passe pour un ringard.
Lecture récente ici.
Je pense que justement c'est parce qu'on n'a pas toute la chaîne en HDR ou qu'elle est naissante (de la capture à la restitution) que certains contenus HDR sont des faux contenus bricolés en y rajoutant les informations manquantes (et souvent cela fait des images avec des couleurs surexposées)
Responsable bénévole de la rubrique Hardware : chrtophe -