IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des cartes graphiques plus puissantes car plus grandes ?
L'interconnexion au niveau du silicium pourrait apporter de grands gains

Le , par dourouc05

153PARTAGES

17  0 
Les processeurs, graphiques notamment, sont produits à grande échelle sur des galettes de silicium (d'un diamètre de deux cents ou trois cents millimètres) : sur une telle galette, on peut retrouver des centaines de processeurs. Cette manière de faire est justifiée par des coûts de production : on peut retrouver des défauts à n'importe quel endroit de la galette, qui résultent en des processeurs défectueux ; si on construit un grand nombre par galette, on se retrouve toujours avec un grand nombre de processeurs fonctionnels. Ce problème était plus marqué dans les années 1980, vu que le nombre de puces fonctionnelles était assez réduits — aujourd'hui, on peut descendre en-dessous d'un pour mille.

Le futur de l'industrie semble, actuellement, se trouver dans la droite ligne de cette idée : fabriquer des pucettes, des petits bouts de processeur spécialisés (un cœur de calcul, un bus PCIe, un transformateur électrique, etc.), que l'on assemble ensuite Intel devrait lancer un premier produit de cette approche cette année. Ces derniers sont alors disposés dans un interposeur et communiquent entre eux — sauf que l'interconnexion consomme de l'énergie et limite la performance. On parle alors de module à plusieurs puces (MCM, en anglais : multi-chip module).

Dans les années 1980, certains chercheurs exploraient déjà d'autres solutions : construire une puce qui a la taille d'une galette (ou, au moins, d'une grande fraction d'une galette), en intégrant l'ensemble des composants (y compris la gestion de l'énergie). En utilisant le silicium comme interposeur (SiIF, silicon interconnect fabric), on peut espérer passer à une échelle plus grande en nombre de pucettes incluses. Les coûts pourraient s'en retrouver réduits : on utilise moins de silicium (Intel déclare qu'un quart de la surface de ses processeurs sert à de la communication entre puces), mais il n'y a plus d'interconnexion à réaliser.



Une équipe de chercheurs a récemment tenté une expérience : sur une galette de cent millimètres de diamètre (une installation de recherche plus que de production, donc), vaut-il mieux produire dix cœurs de GPU (de quatre millimètres carrés chacun) que l'on relie après coup à l'aide de dix mille connexions en cuivre ou bien une seule puce qui contient directement les dix cœurs et l'interconnexion ?


En théorie, la seconde option devrait être meilleure, que ce soit en bande passante, en latence ou en énergie, en ce qui concerne la communication entre cœurs. Sur chacun des trois critères, le GPU fabriqué d'un seul tenant était bien meilleur — et pas qu'un peu, comme le montre le graphique ci-dessous (en échelle logarithmique).


Que se passerait-il avec encore plus de cœurs ? Les chercheurs ont modélisé des situations avec vingt-quatre et quarante cœurs (en théorie, sur une galette de trois cents millimètres de diamètre, on pourrait monter à cent cœurs, mais cela ne semble pas réalisable en pratique). En lançant des tests de performance, ils ont trouvé que, pour vingt-quatre cœurs, une construction d'un seul tenant pourrait aller presque trois fois plus vite ; pour quarante, une interconnexion au niveau du silicium donnerait un facteur d'accélération de plus de cinq.

Cette technologie n'arrivera cependant pas de si vite dans nos ordinateurs de particuliers : un GPU aussi gros nécessiterait une alimentation démesurée (de plusieurs kilowatts, alors qu'une grosse machine de jeu a du mal à dépasser le kilowatt). On s'attend donc plutôt à voir des déploiements, si les fabricants de GPU se lancent, dans des centres informatiques.

Source : Building GPUs Out of Entire Wafers Could Turbocharge Performance, Efficiency.

Voir aussi : l'article.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Steinvikel
Membre expert https://www.developpez.com
Le 02/03/2019 à 23:56
Voilà le genre d'approche sur le hardware que j'aimerais voir un peu plus souvent sur DVP.com, en comparaison des classiques news de "sorties de magasins" ou de "tweet de la mort".
Grand merci. : )
5  0 
Avatar de Mimoza
Membre averti https://www.developpez.com
Le 04/03/2019 à 14:12
+1
2  0 
Avatar de Steinvikel
Membre expert https://www.developpez.com
Le 04/03/2019 à 18:34
Ce "+1" semble bien parti pour finir avec plus d’approbations que le commentaire qu'il appuie.
0  0