Developpez.com - Rubrique Hardware

Le Club des Développeurs et IT Pro

La nouvelle norme HDMI 2.1 annoncée

Une bande passante grandement augmentée pour de nouvelles résolutions

Le 2017-01-06 23:13:30, par LittleWhite, Responsable 2D/3D/Jeux
C'est à l'occasion du Consumer Electronics Show 2017 (CES) que le HDMI Forum a annoncé la nouvelle norme 2.1 pour le High-Definition Multimedia Interface (HDMI). Celle-ci ajoute la possibilité de diffuser des vidéos avec des résolutions étendues (allant jusqu'à des images 10K à 120 Hz), la possibilité de définir les métadonnées HDR à chaque image, une amélioration des formats et appareils audio à travers eARC et un mode jeu permettant d'afficher l'image au moment où elle est générée (Game Mode Variable Refresh Rate (Game Mode VRR)).

Pour obtenir les nouvelles résolutions (comme la 4K à 120 Hz, 8K à 60 Hz), il faudra acquérir un nouveau câble capable de débit allant jusqu'à 48 Gb/s (contre 18 Gb/s pour la norme 2.0). Toutefois, le HDR dynamique et le mode jeu pourront être utilisés avec les anciens câbles. Pour eARC, cela fonctionnera à partir avec les câbles High Speed avec support d'Ethernet. De plus, il est possible que eARC et le HDR dynamique soient disponibles à travers une mise à jour du firmware, mais cela dépend des constructeurs.

On remarquera que la technologie Game Mode VRR rappelle fortement les technologies G-Sync/FreeSync proposées par NVIDIA/AMD.

La spécification sera disponible dans le deuxième trimestre de l'année.

Votre opinion

Quels sont les aspects de la nouvelle norme que vous trouvez intéressants ?
Quels est la résolution et la surface adéquate pour les films ? les jeux ?

Source

Annonce de la norme HDMI 2.1
  Discussion forum
13 commentaires
  • RyzenOC
    Inactif
    C'est bien d'anticiper sur l'avenir (ce qu'ils n'ont pas fait pour la 4K)

    Mais le systeme de numérotation est vraiement mauvais.
    Sa rime à quoi de faire une norme HDMI "1.4" ou "2.1", je pense que se serais plus logique de passer directement à l'hdmi 3.0 ou lieu de 2.1

    Concernant la 8K je pense qu'on en est encore loin pour le grand publique j'entends. Déja la 4K faut un pc monstre pour l'encoder et faut des HDD abominable pour y stocker des films (le blu ray 4K c'est quand meme 100Go le film un peu pres).
  • Moltroon
    Membre du Club
    Envoyé par RyzenOC

    Concernant la 8K je pense qu'on en est encore loin pour le grand publique j'entends. Déja la 4K faut un pc monstre pour l'encoder et faut des HDD abominable pour y stocker des films (le blu ray 4K c'est quand meme 100Go le film un peu pres).
    Sans compter que ça demande une carte graphique toujours meilleure pour l'affichage, jeux, travail, etc...
  • RyzenOC
    Inactif
    Envoyé par Moltroon
    Sans compter que ça demande une carte graphique toujours meilleure pour l'affichage, jeux, travail, etc...
    Sa dépend pour quoi faire je dirais.
    Afficher un bureau windows ou une vidéo 8K les gpu actuel doivent pouvoir le faire non ? et les vieux jeux videos aussi doivent je pense pouvoir tourner.
    Les adeptes du multi écran doivent d’ailleurs surement être proche d'un écran 8K.

    Bon après, le passage d'un 4K à du 8K pas sur qu'il ait une différence sur nos petits écrans, même sur les grosses télé sauf à avoir les yeux à 3cm de l'écran (dans ce cas vous serrez aveugle bien avant l'arrivé de la 8K )
    je fais partie des partisans qui pense déjà que le 4K sur smartphone est une hérésie.

    L’intérêt pour moi c'est plus le 4K 120Hz que le 8K.
  • LittleWhite
    Responsable 2D/3D/Jeux
    Pour moi, un film c'est de l'art, c'est une œuvre de l'esprit créée par un réalisateur et je peux supposer que lorsque la scène que je vois à l'écran a tel niveau de gris et tel degré de contraste, c'est que ça a été déterminé, voulu, par le réalisateur.
    Oui, mais le média que vous utilisez pour voir le film (que ce soit au cinéma, à la télévision hertzienne ou sur un DVD) n'est pas exactement une copie 1:1 de ce qu'à voulu le réalisateur. On peut le voir d'ailleurs, lorsque l'on fait les comparaisons de Star Wars (le vrai premier) avec les remaster, remaster HD et la recréation par les fans avec les master de l'époque.
    Il y a une perte, notamment par une numérisation où les couleurs peuvent être limitée (souvent (et grâce au HDR cela change) à 8 bits par composante).
    Et je ne parle pas des différences de téléviseur avec la différence luminosité/contraste et les technologies CRT/LED/OLED/Plasma et ainsi de suite.

    Normalement il n'y a pas à y toucher, alors pourquoi cette norme va-t-elle se permettre de modifier ces réglages ? Et sur quelles bases, surtout pour la notion de "frame-by-frame basis" : infos encodées dans le film ? Mais qui va les déterminer ?
    Les méta données décrivant la palette de couleurs HDR seront encodées pour chaque frame (ou pour chaque scène). Alors que jusqu'à présent (HDMI 2.0) c'était une méta donnée pour tout le film.

    Le Dynamic HDR (je n'aime personnellement pas ce nom, car dans HDR, il y a déjà un "dynamic" ) permet d'étendre virtuelle la palette de couleurs car on peut la changer à chaque image. Du coup, la fidélité avec l'original sera d'autant meilleur.
    Et les informations seront créées par les logiciels de montage et par le monteur/réalisateur (ou je ne sais pas fait l'image finale).
  • LittleWhite
    Responsable 2D/3D/Jeux
    @Iradrille : http://www.hdmi.org/manufacturer/hdm...2_1/index.aspx . Mais je ne sais pas dans quelles conditions ils y arrivent.
  • foetus
    Expert éminent sénior
    Envoyé par LittleWhite
    Mais je ne sais pas dans quelles conditions ils y arrivent.
    Comme d'hab Il n'y arrive pas.

    Mais lorsque le 8K sera une réalité pré-pré-commerciale (*), ils te sortiront une norme HDMI 12K (ou plus) qui supportera au moins correctement le 8K.

    * -> C'est à dire lorsque les tous premiers produits 8K arriveront, les produits "démos" ou les produits commerciaux aux prix exorbitants (les produits qui en théorie commencent à rembourser le R&D déjà faite et commencent à tâter le terrain niveau rentabilité)
  • foetus
    Expert éminent sénior
    Je vais faire mon chieur mais la définition 3840x2160 correspond à du UHD (Ultra Haute Définition, en 16:9).
    Le 4K c'est 4096×2160 (DCI 4K natif)

    Envoyé par RyzenOC
    4K 120Hz que le 8K.
    Les écrans UHD HDR à 240Hz sont prévus au début 2019. Donc, il faut être très patient
  • RyzenOC
    Inactif
    Envoyé par foetus

    Les écrans UHD HDR à 240Hz sont prévus au début 2019. Donc, il faut être très patient
    Perso le 240Hz ne m’intéresse pas. Autant je vois une grosse différence entre du 60/120hz autant je ne vois pas de différence entre du 120,144 et 240hz.
    J'ai un écran 2K 144hz et sa me suffit. J'ai déjà pu jouer tester un écran 240hz et j'ai pas vu différence (le jeu testé tournait à plus de 300fps). De toute façon encore faut t'il avoir un gpu pouvant envoyer du 120-240fps. Sur des jeux moderne y'en pas. Meme la titanXP en 2K c'est 90fps max et en 4K c'est dans les 50fps max.
    Le bon compromis actuellement c'est un écran 2K à 120hz. De toute façon pas sur que le 4K apporte quoique se soit en plus à moins d'avoir un écran > 30 pouces.

    La 4K c'est pas magique. Je déplore que Sony/MS avec leurs console propose du 4K 30fps au lieu d'un fullHD à 120hz qui me semblerais bien plus intéressant.
    Meme chose sur les smartphones, plutot que de continuer la course à la définition et la colorimétrie la plus grosse, qu'ils fasse des écran 120hz bon sang ! c'est bien plus agréable pour les yeux. Je parle pas que de JV, rien que du surf sur internet le défilement d'une page est bien mieux en 120hz.
  • Jipété
    Expert éminent sénior
    Salut,

    Un truc m'échappe dans leur bla-bla technico-enfumo-commercial. En suivant le lien de LittleWhite,
    on peut lire, tout en haut :
    Dynamic HDR ensures every moment of a video is displayed at its ideal values for depth, detail, brightness, contrast, and wider color gamuts—on a scene-by-scene or even a frame-by-frame basis.
    Et ça veut dire quoi ?
    Qui va déterminer les ideal values du contraste ou de la luminosité, par exemple ?
    Pour moi, un film c'est de l'art, c'est une œuvre de l'esprit créée par un réalisateur et je peux supposer que lorsque la scène que je vois à l'écran a tel niveau de gris et tel degré de contraste, c'est que ça a été déterminé, voulu, par le réalisateur.
    Normalement il n'y a pas à y toucher, alors pourquoi cette norme va-t-elle se permettre de modifier ces réglages ? Et sur quelles bases, surtout pour la notion de "frame-by-frame basis" : infos encodées dans le film ? Mais qui va les déterminer ?

    Quelque chose m'échappe, là, comme si on allait au Louvre chacun avec un casque de RV pour mater la Joconde, chacun avec ses réglages : Léonard va s'en retourner dans sa tombe, àmha !

    Et à quand la réécriture des romans, tant qu'à y être et en poussant le bouchon un peu plus loin ?
    Changer la fin de L'Écume des jours de Vian parce que c'est trop triste, par exemple ?
  • Comme sur le forum playstation, le codec standard est pour deux support différent pour la 3D relief ? (Bluray Disc)

    Sachant que http://demo-uhd3d.com/ soit l'image affiché sans le bon matériel (ou codec ?) est en double (cote à cote ou superposé) ou soit autres.