Intel dévoile un peu plus ses prochains GPU
Et indique qu'il se distinguera par les fonctionnalités, pas seulement par le prix ou la performance

Le , par dourouc05, Responsable Qt & Livres
Les rumeurs qu’Intel se relancerait dans le marché des processeurs graphiques de haute performance ne datent pas d’hier, leur confirmation n’a donc étonné personne. Intel a accepté de se mettre à table pour décrire un peu plus ses plans. L’une des premières confirmations est que le projet est très loin de Larrabee, une variante des processeurs Intel avec énormément de cœurs qui aurait pu se transformer en carte graphique (vers 2010) et qui aura fini en Xeon Phi.


Intel ne part pas de rien : la société dispose déjà de puces graphiques à basse consommation, intégrées dans la majorité de ses processeurs. Une technique assez simple pour produire des cartes de plus haute performance serait d’augmenter le nombre de cœurs de ces puces, mais Intel a d’autres plans en tête. Cette nouvelle génération sera prévue pour des tâches d’affichage 3D et de calcul parallèle (dont apprentissage profond), tant pour des PC de bureau que pour des serveurs : dans ce genre de cas, les décisions prises pour les puces intégrées ne se révéleraient sûrement pas adaptées (puisqu’elles sont adaptées pour une très faible consommation d’énergie).

Néanmoins, Intel souhaite se distinguer de la concurrence, ne pas seulement concourir sur le prix, la performance et la consommation, mais aussi sur les fonctionnalités — reste à savoir ce qu’elles seront. Intel indique explicitement qu’il n’y aura pas de norme propriétaire (en rappelant que le premier processeur graphique entièrement compatible avec DirectX 12 venait d’Intel). Serait-ce une “révolution” similaire au lancer de rayons promu par NVIDIA et Microsoft ?

Au niveau de la performance, par exemple, Intel indique que les premiers modèles seront là pour prendre de la vitesse et lancer la gamme (“ce sera un marathon, pas un sprint” selon Ari Rauch) : on peut s’attendre à voir des cartes sous la barre des trois cents euros. Des puces graphiques seront aussi sûrement intégrées aux processeurs centraux, comme les séries G actuellement, qui prennent un processeur principal Intel et une puce graphique AMD.


Intel met l’accent sur la mise à l’échelle de son architecture, pour passer d’une très faible consommation à une très haute performance. Peut-être aura-t-on droit à une solution comme le SLI de NVIDIA ou le CrossFire d’AMD, mais Intel refuse de s’avancer pour le moment.

Source : Intel Exec Discloses Discrete GPU Details And Strategy.


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :


 Poster une réponse Signaler un problème

Avatar de dourouc05 dourouc05 - Responsable Qt & Livres https://www.developpez.com
le 13/12/2018 à 6:05
Intel a, lors de son Architecture Day, cette semaine, dévoilé pas mal de choses en ce qui concerne ses prochaines puces, notamment graphiques. On l’attendait au tournant pour ses processeurs graphiques distincts (Gen12 : on ne les attend pas avant 2020), mais une belle amélioration se profile pour la génération juste avant (Gen11). Cette dernière devrait être disponible dans les processeurs qui sortiront l’année prochaine. Le gain par rapport aux processeurs actuels est non négligeable : il devient vraiment possible de jouer (sans trop baisser la qualité, avec une certaine fluidité) !


Les processeurs graphiques Gen9 sont arrivés en 2015 avec les processeurs Skylake (“sixième génération de processeurs Intel Core”). Une petite mise à jour a eu lieu pour Kaby Lake et Coffee Lake (selon le marketing, respectivement, les septième et huitième générations), sous le nom de Gen9.5, avec des améliorations très mineures du côté de la performance, plutôt pour le décodage de vidéos (codec HEVC/VP9 en 4K, systèmes de DRM Microsoft PlayReady 3.0 et HDCP 2.2) et pour l’affichage (embedded DisplayPort 1.4). La Gen10 aurait dû arriver avec Cannon Lake, mais il semblerait qu’on ne la verra jamais en action.

La nouvelle génération, Gen11, ne sera disponible qu’avec les prochains processeurs de la marque, dénommés Sunny Cove (un nom de code dévoilé le même jour). Ils seront fabriqués en 10 nm et disponibles dans la deuxième moitié de 2019.


L’image ci-dessus représente un processeur graphique en configuration GT2, c’est-à-dire parmi les plus faibles puissances de calcul disponibles. Elle dispose de soixante-quatre unités d’exécutions (par rapport à vingt-quatre pour un GT2 Gen9.5), regroupées d’abord en huit sous-tranches de huit EU, puis en quatre tranches de seize EU. Chaque sous-tranche dispose d’un cache d’instructions (ICS) et un échantillonneur 3D ; chaque tranche a en plus du matériel spécifique pour gérer les accès à la mémoire (SLM, LD/ST) et un PixelFE. Par ailleurs, on peut voir un bloc “Type C”, qui semble indiquer qu’Intel a intégré la gestion de l’affichage par USB C directement dans le processeur graphique (au lieu de nécessiter une puce supplémentaire sur la carte mère).


Chaque unité de calcul a été entièrement repensée, mais garde les améliorations de la Gen9.5 en ce qui concerne les précisions plus faibles (on peut effectuer des calculs en virgule flottante sur seize bits — FP16 — deux fois plus vite que sur trente-deux bits — FP32). Chaque EU peut exécuter huit fils d’exécution en parallèle, comme la Gen9.5 — cela fait monter la puissance de calcul à plus d’un téraflops, comme un processeur graphique d’il y a dix ans en puissance brute. Pour compenser l’augmentation de performance, l’interface mémoire a été améliorée, avec une augmentation du cache L3 du processeur graphique à trois mégaoctets (quatre fois plus qu’avec la Gen9.5).


Intel a aussi implémenté une technique de rendu à base de tuiles (tout comme NVIDIA depuis 2014 et AMD depuis 2017) : une image est dessinée par morceau, par tuile, ce qui diminue la quantité de données à transférer pour afficher cette tuile — et limite donc l’utilisation de la bande passante vers la mémoire, déjà faible dans un processeur graphique intégré. En parallèle, Intel a retravaillé la compression sans perte : la diminution maximale de taille est de dix pour cent, avec une moyenne géométrique de quatre pour cent.


L’application des nuanceurs (shaders) peut se faire de manière plus grossière, sur plusieurs pixels d’un coup, une technique d’Intel nomme coarse pixel shading (NVIDIA, par exemple, préfère parler de variable pixel shading). Le travail des unités de calcul est ainsi réduit : on peut configurer le GPU pour effectuer moins de travail sur les zones les plus éloignées de la caméra, par exemple. Avec un pochoir de taille 2×2, une seule opération est effectuée pour quatre pixels. Intel a annoncé que cette technique seule permettrait d’augmenter le nombre d’images affichées par seconde dans des jeux de l’ordre de trente pour cent.


Côté affichage, Intel a ajouté la gestion des taux de rafraîchissement dynamiques à travers la norme VESA Adaptive Sync (un composant de DisplayPort 1.2a), pour les écrans qui le permettent. La même technologie a été choisie par AMD, qui la commercialise sous le nom de FreeSync. L’encodeur HEVC a été revu par rapport à la Gen9.5, avec un encodage et un décodage plus performants (une nouvelle conception déjà déployée en centre informatique), à l’aide de décodeurs et d’encodeurs parallèles. Cette solution permet de soit traiter plus de flux en parallèle, soit des flux de plus grande résolution (Intel parle de 8K dans du matériel futur, sachant que l’implémentation actuelle monte déjà à 4K).


Concernant les GPU distincts, Intel ne s’est pas montré disert. Les quelques détails annoncés récemment n’étaient pas les plus croustillants, ce qui est arrivé maintenant ne l’est pas beaucoup plus. Le nom de code Arctic Sound sera remplacé par l’appellation Intel Xᵉ. Plusieurs cartes seront disponibles, avec des microarchitectures différentes pour les clients (donc le jeu) et les centres informatiques (traitement de vidéos, apprentissage profond, etc.). Xᵉ sera aussi décliné en processeur intégré

Sources et images : Intel’s Architecture Day 2018: The Future of Core, Intel GPUs, 10nm, and Hybrid x86, Intels nächste GPU doppelt so schnell und auf Wunsch ungenau, Intel Arctic Sound GPU codename will be named Intel Xᵉ
Avatar de Steinvikel Steinvikel - Membre éclairé https://www.developpez.com
le 14/12/2018 à 1:33
DisplayPort (v1.4) intégré dans un iGPU Intel, c'est une première ? (sans tenir compte des GPU classiques)
--> ça sous-entend que AMD FreeSync est nativement supporté sur ces CPU, car il fait désormais parti de la norme VESA "Adaptive Sync" (depuis DP v1.2a).

De même, il semble que l'alternative-mode DisplayPort via USB-C soit implémenté également directement dans l'APU... également une première ? (pour un CPU)
je suppose qu'il le gère en entré comme en sortie ? --> diffusion vidéo depuis un téléphone vers l'écran PC, et inversement

 
Responsable bénévole de la rubrique Hardware : chrtophe -