Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Nvidia annonce des puces graphiques GeForce RTX de la série 3000 basées sur la nouvelle architecture Ampère de la société
La démo du RTX 3090 de Nvidia met l'accent sur l'absurdité du jeu 8K

Le , par Bill Fassinou

199PARTAGES

5  0 
Nvidia a dévoilé mardi ses nouvelles puces graphiques GeForce RTX série 3000 : les GeForce RTX 3070, 3080 et 3090. Ces trois puces incluront la seconde génération de RTX, ou graphiques de ray tracing en temps réel. Elles sont basées sur la nouvelle architecture Ampère de la société et sont conçues pour succéder aux puces GeForce RTX de la série 2000. Elles apportent des performances graphiques 3D améliorées, deux fois supérieures à celles de l'architecture Turing de la génération précédente et 1,9 fois plus efficaces en termes de consommation d'énergie.

L’annonce des RTX 3000 par Jensen Huang, le PDG de Nvidia, confirme plus d'un mois de rumeurs de fuites et de conceptions de puces. L’annonce a été accueillie par une vague d'autres annonces de partenariats matériels, applicatifs et logiciels. « C’est le plus grand saut générationnel que nous ayons jamais fait », a déclaré Huang lors d'un point de presse. Il a poursuivi en laissant entendre ce qui suit : « Si les 20 dernières années ont été étonnantes, les 20 prochaines ne ressembleront à rien de moins que de la science-fiction ».

Pour commencer, Nvidia a introduit le ray tracing en temps réel il y a deux ans avec sa première génération de RTX, et les jeux ont commencé à l'adopter. Cette technologie a considérablement amélioré le réalisme des ombres, des reflets, ainsi que l'éclairage dans les jeux. Les développeurs de jeux n'étaient pas prêts jusque-là, mais Huang a déclaré mardi qu'il y a à présent des centaines de jeux RTX en cours de développement. En outre, il a aussi ajouté que des jeux tels que Minecraft, Control, et “Wolfenstein 3D : Youngblood” utilisent déjà RTX.


Parlant de Fortnite, Huang a déclaré que le jeu activera les fonctions du ray tracing en temps réel sur RTX prochainement pour améliorer les caractéristiques de réalisme graphique telles que les reflets, les ombres, l'éclairage global et l'occlusion ambiante. De plus, le processus Ampere fait apparaître 28 milliards de transistors sur les nouvelles puces, contre 19,8 milliards à Turing, et il prend également en charge ce que Huang décrit comme une « mémoire G6X à modulation d'amplitude d'impulsion à quatre niveaux ». Ce qui apporte plus de puissances aux nouvelles puces.

Selon les propos de Huang, elles devraient doubler les performances graphiques des dernières puces qui utilisent l’architecture Turing. À titre illustratif, la RTX 3080, conçue pour succéder aux puces RTX 2080 et 2080 Ti, devrait en temps normal doubler les performances offertes par la RTX 2080. Huang soutient qu’elle est plus rapide que la RTX 2080 Ti et qu’elle sera livrée avec 10 Go de mémoire GDDR6X. Elle sera vendue au prix de 699 dollars lors de son expédition le 17 septembre. La RTX 3090, une puce haut de gamme, sera livrée à partir du 24 septembre à 1499 dollars, avec une mémoire de 24 Go.

Bien que Huang affirme que la RTX 3070 dépassera la RTX 2080 Ti, il est plutôt considéré comme une puce “1440p, 60fps”, avec des effets RTX activés. L’on estime qu’il s’agit de la performance que vous pouviez attendre actuellement d'un RTX 2080 Ti. Son seuil de 4K/60fps est plus facile à atteindre avec des effets RTX réduits ou DLSS augmentés. La RTX 3070 commencera à être livrée en octobre au prix de 499 dollars. Par ailleurs, la RTX 3090 comporte 10 496 cœurs CUDA, 8 704 pour la RTX 3080 et 5 888 pour la RTX 3070.

C’est un bond significatif par rapport aux 4352 cœurs CUDA de la RTX 2080 Ti apparue à la fin de l’année 2018. La société utilise un nouveau connecteur à 12 broches sur ses nouvelles puces RTX 3000, plus petit que les deux connecteurs traditionnels à huit broches. Nvidia a prévu d’inclure un adaptateur compatible avec les câbles à huit broches avec ses puces Founders Edition. Il a choisi un connecteur à 12 broches pour laisser plus de place sur la carte pour les composants et le refroidissement.

En outre, Huang a présenté Nvidia Reflex, qui permet aux écrans de fonctionner à des vitesses plus élevées, ce qui favorise les temps de réaction des joueurs compétitifs. Reflex réduit la latence, ou les délais d'interaction, jusqu'à 50 %. Il a également présenté Omniverse Machinima, qui permet aux joueurs d'utiliser les jeux pour raconter des histoires avec des animations en temps réel. Et il a dévoilé la diffusion gratuite de Nvidia Broadcast, qui permet de diffuser plus facilement des jeux en streaming sans aucun problème.

Par rapport aux jeux 8K, la RTX 3090 aurait permis de montrer que cette résolution n’est pas aussi fiable qu’on le dit. En effet, dans sa vidéo promotionnelle sur la RTX 3090, Nvidia a fait s'asseoir un certain nombre de livestreamers et d'influenceurs pour leur faire découvrir le jeu à 4320p. Les résultats ont semblé impressionner toutes les personnes impliquées. Elles ont fourni beaucoup de halètements et d'exclamations. Cela dit, pour obtenir cette réaction, Nvidia a fait en sorte que ces personnes soient assises à quelques pas seulement d'un LG OLED 8K de 80 pouces.

Cela est nécessaire pour obtenir ne serait-ce que les avantages minimaux de cette résolution. Même à 80 pouces, il faudrait s'asseoir à moins de 3 pieds du panneau pour remarquer une différence de densité de pixels entre 4K et 8K. Ainsi, certaines critiques qualifient le jeu 8K de « quête stupide ». Elles estiment également que la démonstration de Nvidia est utile pour d'autres raisons. La technologie DLSS de l'entreprise prend maintenant tout son sens. Le DLSS est le super-échantillonnage basé sur apprentissage profond qu’utilisent les GPU de Nvidia.

Il leur permet de reconstruire une image de plus faible résolution en quelque chose avec beaucoup plus de détails. L’entreprise a passé les deux dernières années à travailler sur le DLSS, et d’après ces critiques, c'est la seule chose qui donne un sens au jeu 8K et même 4K. Dans la démo du jeu 8K du RTX 3090. Nvidia a fait tourner les jeux en 8K natif pour ses participants à la démonstration, mais cela a fait baisser les performances en dessous de 20 images par seconde. Même ce taux d'images est étonnant et témoigne de la puissance du RTX 3090.

Cependant, le DLSS serait si performant qu'il transforme les ultra-hautes résolutions d'un luxe en une option insensée. Thomas Edison a promis de rendre l'électricité si bon marché que seuls les riches brûleraient des bougies, et maintenant Nvidia fait de même avec la résolution. DLSS fabrique du 4K et du 8K si bon marché que seuls les riches les utiliseront en natif. Pour cela, beaucoup pensent qu’on n'a pas vraiment besoin de plus de 4K pour les jeux, et certainement pas besoin du 8K.

Source : Nvidia

Et vous ?

Qu'en pensez-vous ?

Voir aussi

NVIDIA lance GeForce RTX 2060 qui dispose de 1920 cœurs CUDA, 240 cœurs Tensor et 30 cœurs RT

NVIDIA dévoile ses GPU Turing avec une GeForce RTX 2080 Ti en tête d'affiche qui promet des performances record en matière de ray tracing et d'IA

Découvrez la chaîne de fabrication des cartes graphiques ZOTAC GeForce RTX 20XX, une vidéo retrace leur parcours jusqu'à la mise en boîte

Les avantages des cartes NVIDIA RTX diminuent, le lancer de rayons disponible sur les GTX

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de grunk
Modérateur https://www.developpez.com
Le 02/09/2020 à 15:13
Ainsi, certaines critiques qualifient le jeu 8K de « quête stupide ».
C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
6  1 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 02/09/2020 à 15:40
Citation Envoyé par grunk Voir le message
On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
S'ils continuent à monter en puissance, ce n'est pas forcément pour les joueurs, qui ne représentent pas une énorme partie de leurs profits. S'ils veulent être présents dans les superordinateurs à venir, ils n'ont pas d'autre choix que de proposer toujours plus de puissance de calcul en consommant moins d'énergie. Sinon, pour monter à un exaflops ou plus, les décideurs devront se tourner vers d'autres technologies…

Citation Envoyé par Karshick Voir le message
Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la vitesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).
Peut-être ne font-ils pas la lithographie la plus fine, mais il s'agit à chaque fois d'avancées sur d'autres points. Quand tu vois à quel point une puce Intel peut monter en fréquence par rapport à, par exemple, un processeur AMD, sans devoir recourir à du surcadençage, ça montre qu'Intel fait certains trucs mieux que la concurrence (au niveau microarchitectural, par contre, ils ne sont pas en avance…).
4  0 
Avatar de youtpout978
Membre expert https://www.developpez.com
Le 02/09/2020 à 16:34
Citation Envoyé par grunk Voir le message
C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
Du 8K pour du jeu PC je vois pas l’intérêt, sur PC t'es proche de ton écran il faudrait une diagonale de quel dimension pour que le pitch soit assez grand pour réellement en profiter, après dans d'autre domaine ça à son utilité ...
4  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 02/09/2020 à 16:08
Citation Envoyé par Karshick Voir le message
Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la finesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).

Alors qu'à coté AMD grimpe a fond et réduit sérieusement son écart avec intel en terme de % du marché en innovant constamment avec sa gamme Ryzen.
Si intel commence à être à la bourre c'est bien parce que il se sont reposé sur le domination du marché depuis plus de 10 ans.
C'est économiquement bien plus intéressant d'essorer une architecture vieillissante plutôt que de repartir sur quelque chose de nouveau surtout quand la concurrence n'est pas à la hauteur. Et puis tout d'un coup la concurrence sort des CPU avec une nouvelle architecture , plus performant et moins cher ...
La bascule est entrain de se faire doucement dans le monde du desktop, il ont encore un peu de marge sur les serveur car leur réputation leur sauve le cul mais va falloir faire quelque chose à un moment donné.
2  0 
Avatar de Leruas
Membre actif https://www.developpez.com
Le 02/09/2020 à 17:03
La 8K sera nécessaire pour la VR, pour une utilisation sur un écran ou une TV ça sera inutile en effet.
La VR va devenir enfin abordable avec la 3070 et le choc que ça va faire sur les prix des cartes moins puissantes.
2  0 
Avatar de calvaire
Membre éprouvé https://www.developpez.com
Le 02/09/2020 à 17:07
Citation Envoyé par grunk Voir le message
C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
ça dépends de la taille d'écrans et de ton éloignement.
La 4K est déjà limite niveau utilité sur un écran pc ou une télé, faut une grosse télé et être assez proche pour voir la différence face à une FHD
Et pareil pour les écrans pc... < 27 pouces tu ne vois pas la différence et je parle même pas du 4k dans les smartphones (c'est utile pour la vr apparemment mais c'est une feature assez anecdotique pour beaucoup de monde)
2  0 
Avatar de Steinvikel
Membre émérite https://www.developpez.com
Le 03/09/2020 à 15:44
J'entend parler de "véritable bond" dans les performances, de "véritable avancé" ...mais n'est-ce pas normal que le gain soit suppérieur aux 10% habituels quand on place un ventirad 10x plus imposant sur le bousin, et que la carte consomme 10x plus ?
Si l'on prend les ancienne générations, qu'on y place un radiateur qui dissipe autant, et qu'on overclock jusqu'à atteindre la même consommation... ne retrouve-t-on pas notre gain habituel de 10% ?

l'intérêt de la 8K ne se discute pas uniquement sur la distinction du pixel sur la dalle... c'est une composante de la qualité vidéo, dont les facteurs sont :
- la résolution de l'écran (nombre de pixels totaux)
- la taille physique de l'écran --> et donc la définition (densité de pixels)
- la distance de visionnage
- la couverture colorimétrique (espace de couleur) --> et la cohérence des couleurs affichées : DeltaE /gamma / calibrage...
- le nombre d'images par secondes
- la manière d'opérer les transitions entre chaques images (ex: ULMB)
- les traitement de chaques pixel sur les images (ex: Anti-Aliasing)

tout ceci n'amène pas un gain de qualité vidéo VISIBLE au sens où l'on peux entourer et déssiner les défaut, le gain est sur le ressenti, l'impression, la perception ---> fluidité, netteté, halo lumineux ne débordant pas sur de l'ombre, etc.
Avoir une résolution plus élevé induit également avoir des traitement sur une résolution encore plus élevé, et avoir en retour une image avec un rendu plus "aproffondi", mieux travaillé.
On s'accordera à dire que c'est inutile en bureautique, tout comme le passage de 720p (HD) à 1080p (FHD) ...mais enfaite si, car quand tu passes de 720p en 14 pouces à un écran en 27" --> les polices d'écritures deviennet cranté, et la résolution 1080p résout le problème.

la démocratisation des "grands" écrans a également démocratisé la nécessité des grandes résolutions.
Tout la question est sur : la démocratisation des écrans vendu aujourd'hui rendera-t-elle nécessaire la 8K

Ma réponse, la 8K est déjà necessaire dans certains domaines, mais pas sur des télé standards (en taille) ou moniteur PC standard (en taille) ...le plus grand besoin actuel à combler c'est les FPS (images par secondes), et l'espace colorimétrique CALIBRÉ (petit DeltaE --> DeltaE<4 pour chaques couleurs).
2  0 
Avatar de melka one
Membre éprouvé https://www.developpez.com
Le 14/09/2020 à 10:41
jour

la question que je me pose c'est pourquoi un écran 100 cm pour du dev web

sinon un écran 100cm fait 890 mm de largeur

la 4k c'est en largeur 3840 pixel donc 3840/890=4.31 pixel par mm

la 8k c'est en largeur 7680 pixel donc 7680/890=8.62 pixel par mm

du coup pour la 4 k tu prend une règle tu met quatre point sur un mm tu recule de 2 mètre, tu les voit les quatre points ?

le problème c'est surement pas la definition
2  0 
Avatar de calvaire
Membre éprouvé https://www.developpez.com
Le 14/09/2020 à 13:23
Citation Envoyé par Zefling Voir le message
40" (100 cm). C'est comme 4 écrans 20" 1080p collé.
Et je suis désolé, sur cette résolution je vois très bien les pixels quand je fais du dév web.
Je pense pas que se soit recommander un écran de 100 pouces comme écran de pc
enfin moi j'ai cette image en tete en pensant a toi:


dans cette "configuration" oui je pense que tu dois les voir les pixel mais tkt tu les verras plus bientôt

tu admettras quand même que ton cas est marginal, la majorité ce limite à du 32 pouce max et la 4k est suffisante
2  0 
Avatar de Karshick
Membre régulier https://www.developpez.com
Le 02/09/2020 à 15:24
Citation Envoyé par grunk Voir le message
C'était pareil avec le passage de HD à Full HD , puis de Full HD à 4K. On à la même rengaine du passage de 3G à 4G puis à 5G.
Et puis finalement tout le monde se rue sur la nouvelle technologie quand elle devient disponible ...

Donc oui , peut être qu'à l'instant présent, le 8K n'a pas d'intérêt. On lui en trouvera surement dans quelques temps.

On peut sinon saluer la performance de Nvidia , qui continue à proposer des produits ultra performant alors qu'ils dominent déjà la concurrence et aurait pu simplement se contenter d'un petit upgrade de quelque % comme intel sait si bien le faire.
Intel ne se contente pas d'un petit upgrade, ils galèrent et ne parviennent pas a innover. Suffit de voir le délire autour de la finesse de gravure en 10nm qu'ils promettent depuis des années. Ils en sont toujours au 14nm (14nm+, 14nm++ etc etc).

Alors qu'à coté AMD grimpe a fond et réduit sérieusement son écart avec intel en terme de % du marché en innovant constamment avec sa gamme Ryzen.
1  0