La nouvelle norme HDMI 2.1 annoncée
Une bande passante grandement augmentée pour de nouvelles résolutions

Le , par LittleWhite, Responsable 2D/3D/Jeux
C'est à l'occasion du Consumer Electronics Show 2017 (CES) que le HDMI Forum a annoncé la nouvelle norme 2.1 pour le High-Definition Multimedia Interface (HDMI). Celle-ci ajoute la possibilité de diffuser des vidéos avec des résolutions étendues (allant jusqu'à des images 10K à 120 Hz), la possibilité de définir les métadonnées HDR à chaque image, une amélioration des formats et appareils audio à travers eARC et un mode jeu permettant d'afficher l'image au moment où elle est générée (Game Mode Variable Refresh Rate (Game Mode VRR)).

Pour obtenir les nouvelles résolutions (comme la 4K à 120 Hz, 8K à 60 Hz), il faudra acquérir un nouveau câble capable de débit allant jusqu'à 48 Gb/s (contre 18 Gb/s pour la norme 2.0). Toutefois, le HDR dynamique et le mode jeu pourront être utilisés avec les anciens câbles. Pour eARC, cela fonctionnera à partir avec les câbles High Speed avec support d'Ethernet. De plus, il est possible que eARC et le HDR dynamique soient disponibles à travers une mise à jour du firmware, mais cela dépend des constructeurs.

On remarquera que la technologie Game Mode VRR rappelle fortement les technologies G-Sync/FreeSync proposées par NVIDIA/AMD.

La spécification sera disponible dans le deuxième trimestre de l'année.

Votre opinion

Quels sont les aspects de la nouvelle norme que vous trouvez intéressants ?
Quels est la résolution et la surface adéquate pour les films ? les jeux ?

Source

Annonce de la norme HDMI 2.1


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse

Avatar de Iradrille Iradrille - Expert confirmé https://www.developpez.com
le 07/01/2017 à 9:06
Citation Envoyé par LittleWhite  Voir le message
allant jusqu'à des images 10K à 120 Hz

Je vois pas comment ça peut passer :
Bande passante dispo : 48 / 10*8 (encodage TMDS) = 38.4 Gb/sec
Bande passante requise : 1920*6 * 1080*6 (10K résolution) * 120 (Hz) * 1.05 (overhead : vSync / hSync) * 8 (bits / pixel) = 70.07Gb/sec

Citation Envoyé par LittleWhite  Voir le message
Quels sont les aspects de la nouvelle norme que vous trouvez intéressants ?

Ça devrait être suffisant pour l'avenir (avenir proche en tout cas).

Citation Envoyé par LittleWhite  Voir le message
Quels est la résolution et la surface adéquate pour les films ? les jeux ?

Le 16/9 est sympa pour ça avec une résolution de 1080p ou 1440p
Du 16/10 (1920*1200) est vraiment cool pour bosser par contre.
Avatar de LittleWhite LittleWhite - Responsable 2D/3D/Jeux https://www.developpez.com
le 07/01/2017 à 11:10
@Iradrille : http://www.hdmi.org/manufacturer/hdmi_2_1/index.aspx . Mais je ne sais pas dans quelles conditions ils y arrivent.
Avatar de foetus foetus - Expert confirmé https://www.developpez.com
le 07/01/2017 à 20:46
Citation Envoyé par LittleWhite  Voir le message
Mais je ne sais pas dans quelles conditions ils y arrivent.

Comme d'hab Il n'y arrive pas.

Mais lorsque le 8K sera une réalité pré-pré-commerciale (*), ils te sortiront une norme HDMI 12K (ou plus) qui supportera au moins correctement le 8K.

* -> C'est à dire lorsque les tous premiers produits 8K arriveront, les produits "démos" ou les produits commerciaux aux prix exorbitants (les produits qui en théorie commencent à rembourser le R&D déjà faite et commencent à tâter le terrain niveau rentabilité)
Avatar de Jipété Jipété - Expert éminent https://www.developpez.com
le 08/01/2017 à 10:32
Salut,

Un truc m'échappe dans leur bla-bla technico-enfumo-commercial. En suivant le lien de LittleWhite,
on peut lire, tout en haut :
Dynamic HDR ensures every moment of a video is displayed at its ideal values for depth, detail, brightness, contrast, and wider color gamuts—on a scene-by-scene or even a frame-by-frame basis.

Et ça veut dire quoi ?
Qui va déterminer les ideal values du contraste ou de la luminosité, par exemple ?
Pour moi, un film c'est de l'art, c'est une œuvre de l'esprit créée par un réalisateur et je peux supposer que lorsque la scène que je vois à l'écran a tel niveau de gris et tel degré de contraste, c'est que ça a été déterminé, voulu, par le réalisateur.
Normalement il n'y a pas à y toucher, alors pourquoi cette norme va-t-elle se permettre de modifier ces réglages ? Et sur quelles bases, surtout pour la notion de "frame-by-frame basis" : infos encodées dans le film ? Mais qui va les déterminer ?

Quelque chose m'échappe, là, comme si on allait au Louvre chacun avec un casque de RV pour mater la Joconde, chacun avec ses réglages : Léonard va s'en retourner dans sa tombe, àmha !

Et à quand la réécriture des romans, tant qu'à y être et en poussant le bouchon un peu plus loin ?
Changer la fin de L'Écume des jours de Vian parce que c'est trop triste, par exemple ?
Avatar de LittleWhite LittleWhite - Responsable 2D/3D/Jeux https://www.developpez.com
le 08/01/2017 à 10:51
Pour moi, un film c'est de l'art, c'est une œuvre de l'esprit créée par un réalisateur et je peux supposer que lorsque la scène que je vois à l'écran a tel niveau de gris et tel degré de contraste, c'est que ça a été déterminé, voulu, par le réalisateur.

Oui, mais le média que vous utilisez pour voir le film (que ce soit au cinéma, à la télévision hertzienne ou sur un DVD) n'est pas exactement une copie 1:1 de ce qu'à voulu le réalisateur. On peut le voir d'ailleurs, lorsque l'on fait les comparaisons de Star Wars (le vrai premier) avec les remaster, remaster HD et la recréation par les fans avec les master de l'époque.
Il y a une perte, notamment par une numérisation où les couleurs peuvent être limitée (souvent (et grâce au HDR cela change) à 8 bits par composante).
Et je ne parle pas des différences de téléviseur avec la différence luminosité/contraste et les technologies CRT/LED/OLED/Plasma et ainsi de suite.

Normalement il n'y a pas à y toucher, alors pourquoi cette norme va-t-elle se permettre de modifier ces réglages ? Et sur quelles bases, surtout pour la notion de "frame-by-frame basis" : infos encodées dans le film ? Mais qui va les déterminer ?

Les méta données décrivant la palette de couleurs HDR seront encodées pour chaque frame (ou pour chaque scène). Alors que jusqu'à présent (HDMI 2.0) c'était une méta donnée pour tout le film.

Le Dynamic HDR (je n'aime personnellement pas ce nom, car dans HDR, il y a déjà un "dynamic" ) permet d'étendre virtuelle la palette de couleurs car on peut la changer à chaque image. Du coup, la fidélité avec l'original sera d'autant meilleur.
Et les informations seront créées par les logiciels de montage et par le monteur/réalisateur (ou je ne sais pas fait l'image finale).
Avatar de MikeRowSoft MikeRowSoft - Provisoirement toléré https://www.developpez.com
le 08/01/2017 à 14:34
Comme sur le forum playstation, le codec standard est pour deux support différent pour la 3D relief ? (Bluray Disc)

Sachant que http://demo-uhd3d.com/ soit l'image affiché sans le bon matériel (ou codec ?) est en double (cote à cote ou superposé) ou soit autres.
Offres d'emploi IT
Ingénieur développement électronique H/F
Safran - Ile de France - 100 rue de Paris 91300 MASSY
Architecte systèmes externes TP400 H/F
Safran - Ile de France - Moissy-Cramayel (77550)
Architecte / concepteur électronique analogique H/F
Safran - Ile de France - Éragny (95610)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Hardware