Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La nouvelle norme HDMI 2.1 annoncée
Une bande passante grandement augmentée pour de nouvelles résolutions

Le , par LittleWhite

26PARTAGES

9  0 
C'est à l'occasion du Consumer Electronics Show 2017 (CES) que le HDMI Forum a annoncé la nouvelle norme 2.1 pour le High-Definition Multimedia Interface (HDMI). Celle-ci ajoute la possibilité de diffuser des vidéos avec des résolutions étendues (allant jusqu'à des images 10K à 120 Hz), la possibilité de définir les métadonnées HDR à chaque image, une amélioration des formats et appareils audio à travers eARC et un mode jeu permettant d'afficher l'image au moment où elle est générée (Game Mode Variable Refresh Rate (Game Mode VRR)).

Pour obtenir les nouvelles résolutions (comme la 4K à 120 Hz, 8K à 60 Hz), il faudra acquérir un nouveau câble capable de débit allant jusqu'à 48 Gb/s (contre 18 Gb/s pour la norme 2.0). Toutefois, le HDR dynamique et le mode jeu pourront être utilisés avec les anciens câbles. Pour eARC, cela fonctionnera à partir avec les câbles High Speed avec support d'Ethernet. De plus, il est possible que eARC et le HDR dynamique soient disponibles à travers une mise à jour du firmware, mais cela dépend des constructeurs.

On remarquera que la technologie Game Mode VRR rappelle fortement les technologies G-Sync/FreeSync proposées par NVIDIA/AMD.

La spécification sera disponible dans le deuxième trimestre de l'année.

Votre opinion

Quels sont les aspects de la nouvelle norme que vous trouvez intéressants ?
Quels est la résolution et la surface adéquate pour les films ? les jeux ?

Source

Annonce de la norme HDMI 2.1

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de RyzenOC
Inactif https://www.developpez.com
Le 30/11/2017 à 15:58
C'est bien d'anticiper sur l'avenir (ce qu'ils n'ont pas fait pour la 4K)

Mais le systeme de numérotation est vraiement mauvais.
Sa rime à quoi de faire une norme HDMI "1.4" ou "2.1", je pense que se serais plus logique de passer directement à l'hdmi 3.0 ou lieu de 2.1

Concernant la 8K je pense qu'on en est encore loin pour le grand publique j'entends. Déja la 4K faut un pc monstre pour l'encoder et faut des HDD abominable pour y stocker des films (le blu ray 4K c'est quand meme 100Go le film un peu pres).
4  0 
Avatar de Moltroon
Membre du Club https://www.developpez.com
Le 30/11/2017 à 17:47
Citation Envoyé par RyzenOC Voir le message

Concernant la 8K je pense qu'on en est encore loin pour le grand publique j'entends. Déja la 4K faut un pc monstre pour l'encoder et faut des HDD abominable pour y stocker des films (le blu ray 4K c'est quand meme 100Go le film un peu pres).
Sans compter que ça demande une carte graphique toujours meilleure pour l'affichage, jeux, travail, etc...
4  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 01/12/2017 à 9:41
Citation Envoyé par Moltroon Voir le message
Sans compter que ça demande une carte graphique toujours meilleure pour l'affichage, jeux, travail, etc...
Sa dépend pour quoi faire je dirais.
Afficher un bureau windows ou une vidéo 8K les gpu actuel doivent pouvoir le faire non ? et les vieux jeux videos aussi doivent je pense pouvoir tourner.
Les adeptes du multi écran doivent d’ailleurs surement être proche d'un écran 8K.

Bon après, le passage d'un 4K à du 8K pas sur qu'il ait une différence sur nos petits écrans, même sur les grosses télé sauf à avoir les yeux à 3cm de l'écran (dans ce cas vous serrez aveugle bien avant l'arrivé de la 8K )
je fais partie des partisans qui pense déjà que le 4K sur smartphone est une hérésie.

L’intérêt pour moi c'est plus le 4K 120Hz que le 8K.
4  0 
Avatar de LittleWhite
Responsable 2D/3D/Jeux https://www.developpez.com
Le 08/01/2017 à 10:51
Pour moi, un film c'est de l'art, c'est une œuvre de l'esprit créée par un réalisateur et je peux supposer que lorsque la scène que je vois à l'écran a tel niveau de gris et tel degré de contraste, c'est que ça a été déterminé, voulu, par le réalisateur.
Oui, mais le média que vous utilisez pour voir le film (que ce soit au cinéma, à la télévision hertzienne ou sur un DVD) n'est pas exactement une copie 1:1 de ce qu'à voulu le réalisateur. On peut le voir d'ailleurs, lorsque l'on fait les comparaisons de Star Wars (le vrai premier) avec les remaster, remaster HD et la recréation par les fans avec les master de l'époque.
Il y a une perte, notamment par une numérisation où les couleurs peuvent être limitée (souvent (et grâce au HDR cela change) à 8 bits par composante).
Et je ne parle pas des différences de téléviseur avec la différence luminosité/contraste et les technologies CRT/LED/OLED/Plasma et ainsi de suite.

Normalement il n'y a pas à y toucher, alors pourquoi cette norme va-t-elle se permettre de modifier ces réglages ? Et sur quelles bases, surtout pour la notion de "frame-by-frame basis" : infos encodées dans le film ? Mais qui va les déterminer ?
Les méta données décrivant la palette de couleurs HDR seront encodées pour chaque frame (ou pour chaque scène). Alors que jusqu'à présent (HDMI 2.0) c'était une méta donnée pour tout le film.

Le Dynamic HDR (je n'aime personnellement pas ce nom, car dans HDR, il y a déjà un "dynamic" ) permet d'étendre virtuelle la palette de couleurs car on peut la changer à chaque image. Du coup, la fidélité avec l'original sera d'autant meilleur.
Et les informations seront créées par les logiciels de montage et par le monteur/réalisateur (ou je ne sais pas fait l'image finale).
3  1 
Avatar de LittleWhite
Responsable 2D/3D/Jeux https://www.developpez.com
Le 07/01/2017 à 11:10
@Iradrille : http://www.hdmi.org/manufacturer/hdm...2_1/index.aspx . Mais je ne sais pas dans quelles conditions ils y arrivent.
1  0 
Avatar de foetus
Expert éminent https://www.developpez.com
Le 07/01/2017 à 20:46
Citation Envoyé par LittleWhite Voir le message
Mais je ne sais pas dans quelles conditions ils y arrivent.
Comme d'hab Il n'y arrive pas.

Mais lorsque le 8K sera une réalité pré-pré-commerciale (*), ils te sortiront une norme HDMI 12K (ou plus) qui supportera au moins correctement le 8K.

* -> C'est à dire lorsque les tous premiers produits 8K arriveront, les produits "démos" ou les produits commerciaux aux prix exorbitants (les produits qui en théorie commencent à rembourser le R&D déjà faite et commencent à tâter le terrain niveau rentabilité)
1  0 
Avatar de foetus
Expert éminent https://www.developpez.com
Le 01/12/2017 à 19:05
Je vais faire mon chieur mais la définition 3840x2160 correspond à du UHD (Ultra Haute Définition, en 16:9).
Le 4K c'est 4096×2160 (DCI 4K natif)

Citation Envoyé par RyzenOC Voir le message
4K 120Hz que le 8K.
Les écrans UHD HDR à 240Hz sont prévus au début 2019. Donc, il faut être très patient
1  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 02/12/2017 à 10:04
Citation Envoyé par foetus Voir le message

Les écrans UHD HDR à 240Hz sont prévus au début 2019. Donc, il faut être très patient
Perso le 240Hz ne m’intéresse pas. Autant je vois une grosse différence entre du 60/120hz autant je ne vois pas de différence entre du 120,144 et 240hz.
J'ai un écran 2K 144hz et sa me suffit. J'ai déjà pu jouer tester un écran 240hz et j'ai pas vu différence (le jeu testé tournait à plus de 300fps). De toute façon encore faut t'il avoir un gpu pouvant envoyer du 120-240fps. Sur des jeux moderne y'en pas. Meme la titanXP en 2K c'est 90fps max et en 4K c'est dans les 50fps max.
Le bon compromis actuellement c'est un écran 2K à 120hz. De toute façon pas sur que le 4K apporte quoique se soit en plus à moins d'avoir un écran > 30 pouces.

La 4K c'est pas magique. Je déplore que Sony/MS avec leurs console propose du 4K 30fps au lieu d'un fullHD à 120hz qui me semblerais bien plus intéressant.
Meme chose sur les smartphones, plutot que de continuer la course à la définition et la colorimétrie la plus grosse, qu'ils fasse des écran 120hz bon sang ! c'est bien plus agréable pour les yeux. Je parle pas que de JV, rien que du surf sur internet le défilement d'une page est bien mieux en 120hz.
1  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 08/01/2017 à 10:32
Salut,

Un truc m'échappe dans leur bla-bla technico-enfumo-commercial. En suivant le lien de LittleWhite,
on peut lire, tout en haut :
Dynamic HDR ensures every moment of a video is displayed at its ideal values for depth, detail, brightness, contrast, and wider color gamuts—on a scene-by-scene or even a frame-by-frame basis.
Et ça veut dire quoi ?
Qui va déterminer les ideal values du contraste ou de la luminosité, par exemple ?
Pour moi, un film c'est de l'art, c'est une œuvre de l'esprit créée par un réalisateur et je peux supposer que lorsque la scène que je vois à l'écran a tel niveau de gris et tel degré de contraste, c'est que ça a été déterminé, voulu, par le réalisateur.
Normalement il n'y a pas à y toucher, alors pourquoi cette norme va-t-elle se permettre de modifier ces réglages ? Et sur quelles bases, surtout pour la notion de "frame-by-frame basis" : infos encodées dans le film ? Mais qui va les déterminer ?

Quelque chose m'échappe, là, comme si on allait au Louvre chacun avec un casque de RV pour mater la Joconde, chacun avec ses réglages : Léonard va s'en retourner dans sa tombe, àmha !

Et à quand la réécriture des romans, tant qu'à y être et en poussant le bouchon un peu plus loin ?
Changer la fin de L'Écume des jours de Vian parce que c'est trop triste, par exemple ?
1  1 
Avatar de
https://www.developpez.com
Le 08/01/2017 à 14:34
Comme sur le forum playstation, le codec standard est pour deux support différent pour la 3D relief ? (Bluray Disc)

Sachant que http://demo-uhd3d.com/ soit l'image affiché sans le bon matériel (ou codec ?) est en double (cote à cote ou superposé) ou soit autres.
0  0