NVIDIA envisage d'intégrer plusieurs puces dans un même boîtier pour monter en performance
Chaque module serait plus simple à fabriquer

Le , par dourouc05, Responsable Qt
Les cartes graphiques promettent, de génération en génération, de meilleures performances, de préférence selon une loi géométrique. L’utilité de cette puissance ne se manifeste pas que dans les jeux, là où ces cartes sont le plus utilisées (avec des résolutions qui montent, certains joueurs utilisant plusieurs écrans 4K, sans oublier la réalité virtuelle), mais également dans le calcul de haute performance et l’apprentissage de réseaux neuronaux profonds (pour lesquels les processeurs NVIDIA Volta se spécialisent).


Cependant, les procédés de fabrication des processeurs deviennent de plus en plus des obstacles à cette croissance de la performance. Ainsi, un GPU GV100 requiert 815 mm² de silicium, une prouesse technique sur un procédé de fabrication assez récent et aux limites de ce qu’il est possible de faire. Pour continuer à monter en puissance sans devoir utiliser des composants qui nécessitent autant d’étude, un changement de paradigme est requis.

Une exploration de la compagnie, menée avec des utilisateurs de ces accélérateurs (comme le BSC) et des universitaires, tente de quantifier les gains en performance en divisant un GPU monolithique en plusieurs modules, intégrés dans le même boîtier. Par rapport à l’approche traditionnelle, qui est de mettre plusieurs cartes graphiques distinctes dans un même ordinateur, l’idée est de les intégrer au niveau de la puce, avec une structure d’interconnexion de type EMIB, pour former un boîtier MCM (multichip module).


Des approches similaires ont déjà été utilisées dans le passé, notamment pour les Tesla K10 et K80, qui mettent plusieurs processeurs sur une même carte. Cependant, cela pose des problèmes pour répartir la charge entre les différents processeurs : cette communication doit être gérée par le développeur.

Au contraire, la technique proposée fonctionne à un tout autre niveau : les différents modules auraient une taille nettement plus réduite et pourraient communiquer efficacement, étant présents physiquement dans le même boîtier. Chaque module serait nettement plus facile à produire que les GPU de taille déraisonnable comme le GV100 (ces modules auraient une taille réduite approximativement d’un facteur deux). Ainsi, le programmeur pourrait considérer le processeur comme une seule entité, sans devoir gérer des communications entre processeurs.

En termes de chiffres, une telle conception pourrait, d’après des simulations, être 45,5 % plus rapide que le GPU monolithique le plus gros que l’on pourrait envisager de fabriquer, mais aussi 10 % plus rapide qu’un GPU monolithique équivalent (en nombre de cœurs CUDA). Par rapport à une conception utilisant plusieurs processeurs distincts sur la même carte, hypothèse plus réaliste, les gains seraient de 26,8 %.

Les impacts industriels de cette recherche pourraient tomber en même temps que la prochaine feuille de route de NVIDIA (l’actuelle s’arrêtait à Volta), probablement à la prochaine conférence GTC.

NVIDIA n’est pas la seule firme à poursuivre cette direction. AMD a récemment annoncé ses processeurs EPYC, qui utilisent le même mécanisme pour monter en nombre de cœurs. Ils pourraient d’ailleurs l’exploiter également pour la prochaine génération de cartes graphiques, Navi.

Plus de détails : MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability.


Vous avez aimé cette actualité ? Alors partagez-la avec vos amis en cliquant sur les boutons ci-dessous :
Offres d'emploi IT
Développeur iOS Swift en startup
Liberty Rider - Midi Pyrénées - Toulouse (31000)
Webmaster (H/F)
Voyages-sncf.com - Ile de France - La Défense
Développeur Java H/F
SMILE - Rhône Alpes - Lyon (69000)

Voir plus d'offres Voir la carte des offres IT
Contacter le responsable de la rubrique Hardware