Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Qui de la loi de Moore ou de la chaleur limitera le plus l'avancée des processeurs ?
La densité de chaleur à évacuer par millimètre carré de processeur ne cesse d'augmenter

Le , par dourouc05

0PARTAGES

21  0 
Pour les prochaines générations de processeur, on parle très souvent des processus de fabrication, de la possibilité de créer des transistors de plus en plus petits, donc d’en mettre de plus en plus par millimètre carré de silicium. Jusqu’à présent, l’évolution de cette densité a, peu ou prou, suivi la loi (empirique) de Moore : la densité de transistors double tous les deux ans. Bon nombre de gens supputent que cette loi est “morte”, dans le sens où la densité ne continuera plus d’augmenter à la même vitesse que depuis les années 1960-1970. Cependant, un autre facteur limitera la progression des processeurs, de manière probablement plus importante : l’évacuation de la chaleur. Déjà, les processeurs actuels doivent parfois limiter leur performance pour éviter de brûler (throttling) !

L’évolution énergétique des transistors a pu suivre, toujours depuis les années 1960-1970, la loi de Dennard. Celle-ci postule que la densité énergétique des transistors reste constante, c’est-à-dire la quantité de chaleur à évacuer par millimètre carré de processeur. De fait, si les transistors diminuent en taille, il leur faut une tension moindre pour s’activer. Néanmoins, dès 2005-2006, les transistors sont devenus tellement petits que des effets non prévisibles par Dennard sont devenus significatifs : les pertes de courant des transistors. Ces pertes font que la consommation énergétique des transistors ne décroît plus aussi rapidement que la densité de transistors augmente. La situation est telle que Facebook estime que la chaleur dégagée par les processeurs est un frein majeur au développement de lunettes de réalité augmentée.

L’une des solutions à ce problème serait la spécialisation des processeurs, une voie de plus en plus exploitée : les processeurs seraient moins programmables, dans le sens où plus de choses seraient implémentées au niveau matériel, avec des instructions moins génériques, mais très performantes pour une tâche donnée. On voit notamment cette tendance avec les processeurs orientés réseaux neuronaux. De même, ARM laisse maintenant les concepteurs de cœurs ARM ajouter des instructions, quitte à briser une certaine homogénéité dans l’écosystème ARM.

Source : IEEE Spectrum.

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 07/11/2019 à 2:55
Citation Envoyé par dourouc05 Voir le message
un autre facteur limitera la progression des processeurs, de manière probablement plus importante : l’évacuation de la chaleur.
Une avancée théorique majeure a été faite il y a quelques années (juin 2017) au CNRS sur le routage de la chaleur. On sait tous que la chaleur se propage de manière diffuse, à l'image d'une onde ponctuelle sur l'eau. La nouveauté, c'est qu'une architecture à base de creux régulièrement ordonné permet d'obtenir une propagation "balistique" de la chaleur sur quelques centaines de nanomètres ...de quoi éviter à un coeur de chauffer immédiatement son voisin via la couche supérieur en contact avec l'IHS. Il y est dit : "Il serait alors possible de diriger ou d’empêcher la diffusion de la chaleur sur des points extrêmement précis"

Selon moi, il y a une autre limite que l'on entend peu parler, et qui s'avèrera bien plus problématique : l'effet tunnel, qui est régit par la mécanique quantique.
Ce phénomène opère que sur de très petites échelle, jusqu'à un maximum de 2 nanomètre à ma connaissance. Jusqu'à 2 nanomètres d'épaisseur, un électron peut s’échapper de n'importe quel matériaux, pourvu que le contexte y soit propice. Plutôt problématique pour les isolations galvaniques... que ce soit pour les grilles de transistors ou encore les circuits de routage de manière générale.

De plus, les dernières recherche fondamentales en électronique montre qu'il est maintenant possible de faire passer du courant dans des isolants à travers des "plasmons de surfaces", sur une centaine de nanomètres d'épaisseur.
edit : non, ça c'est pour la spintronique... qui peut convertir une partie du courant "électronique" en un courant de purs spins au voisinage du conducteur.

Je me demande bien quelle difficulté apporte actuellement ces problématiques aux fondeurs les plus connus de semi-conducteurs. ^^'

Citation Envoyé par vxlan.is.top Voir le message
Je suis étonné que l'IEEE ne mentionne pas la décohérence quantique comme obstacle à la miniaturisation.
C'est parce qu'elle n'a d'importance que dans un contexte où l'on s'appuie spécifiquement sur des phénomènes quantiques stabilisés, non ? Ce qui ne semble pas poser problème avant d'arriver à 2-3 nm.
7  0 
Avatar de vxlan.is.top
Membre éprouvé https://www.developpez.com
Le 07/11/2019 à 10:19
Citation Envoyé par Steinvikel Voir le message
C'est parce qu'elle n'a d'importance que dans un contexte où l'on s'appuie spécifiquement sur des phénomènes quantiques stabilisés, non ? Ce qui ne semble pas poser problème avant 2-3 nm.
Steinvikel,

oui c'est de l'effet tunnel dont je voulais parler en fait, ce qui est différent de la décohérence.
Merci pour la précision !

-VX
1  0 
Avatar de vxlan.is.top
Membre éprouvé https://www.developpez.com
Le 06/11/2019 à 17:33
Je suis étonné que l'IEEE ne mentionne pas la décohérence quantique comme obstacle à la miniaturisation.

Et pour en revenir à la Loi de Moore, IBM l'applique à l'info quantique en utilisant une métrique particulière appelée "volume quantique", c'est plus ou moins l'équivalent des benchmarks Linpacks, cf

https://arxiv.org/pdf/1811.12926.pdf

IBM prétend donc que les Ingés vont doubler la performance (mesurée sur le volume quantique) de sa machine quantique année par année.

-VX
0  0 
Avatar de abriotde
Membre expérimenté https://www.developpez.com
Le 07/11/2019 à 13:51
la chaleur limitera le plus l'avancée des processeurs ?
La chaleur dépends de l'intensité. Si l'on augmente la densité de composant et que l'on conserve la même tension, alors le courant fatalement augmente. Mais si le composant est plus petit, il a besoin de moins de tension et donc si l'on baisse suffisamment la tension, on augmente pas la chaleur. Mais dans la pratique on veux garder une tension assez élever car baisser la tension, oblige à baisser la fréquence. On peux donc baisser la fréquence ou du moins l'augmenter en augmentant la finesse. Moins un processeur travail vite moins il chauffe. Mais on perd une partie de l'intérêt de graver plus finement qui est de permettre entre autre d'augmenter la fréquence (le courant ayant moins de chemin a parcourir, il peux parcourir plus de composants).

En conclusion, si la chaleur augmente ce n'est pas parce qu'on augmente la finesse de gravure, mais parce qu'on peux se le permettre et que l'on veux augmenter les performances. Sinon, on aurait qu'a réduire la fréquence et réduire la tension.

La loi de Moore reste et restera toujours possible, mais comme les investissements baisse du moins sur ce secteur, fatalement le rythme d’innovation baisse.

Croire que la loi de Moore serait stoppé par un obstacle technique c'est toujours révélé faux. Par contre il est vrai qu'elle avance parfois par palier car il arrive qu'elle trébuche sur un obstacle, mais ensuite elle refait rapidement son retard.
0  0 
Avatar de Steinvikel
Membre expérimenté https://www.developpez.com
Le 11/11/2019 à 1:38
L’échauffement par effet Joule dépend bien de l'intensité pour la majeure partie du phénomène. Ce sont les pertes magnétiques + pertes de flux. EDF connais très bien la problématique, voilà pourquoi il a choisi de transporter son électricité sous 400 000 Volts (alors qu'une centrale nucléaire ne génère que 10k à 30k Volts) --> pour limiter les pertes induite par la résistivité du câble.

Le schéma le plus simple de ce que l'on désigne à tord comme des transistors (grille/drain/source) : les circuits logiques, ressemble à 2 transistors en série, l'un relié au 0V, l'autre au potentiel haut, et se rejoignant sur un commun définissant la valeur du signal logique ...chacun piloté par sa grille (voir ce schéma).
La physique fait qu'un phénomène est plus facile (rapide) à déclencher, qu'à stopper (et se retrouver dans un état de "repos", récessif). Ainsi donc, selon que l'un ou l'autre devient passant, le signal apporte un 1 logique (potentiel haut) ou un 0 logique (0V). Mais durant la transition où l'un est "passant" et commence à se bloquer, et l'autre est "bloqué" et commence à devenir passant, l'extinction de la conduction du transistor prenant plus de temps que son allumage, il existe un bref instant où les deux conduisent, fabricant ainsi un "court-circuit" entre 0V et haut-potentiel.
C'est de là que provient la majeur partie de l'échauffement. Le temps d'extinction est intrinsèque à la nature du transistor, il ne varie pas (peu), ce qui fait que l'échauffement est proportionnel au carré de la fréquence (J --> f²).
On comprend alors très bien que l'énergie de pilotage des transistors est dérisoire face au phénomène de court-circuit. On comprend également que si l'on augmente la tension, on augmente aussi la "puissance" du court-circuit. Si l'on augmente la fréquence, on augmente le nombre de court-circuits par seconde.

Il y a eu des évolutions notable en efficacité énergétique :
- réduction du courant de fuite (le courant que laisse passer le composant, peu importe son état, comme un condensateur, ou une batterie)
- réduction de l'énergie nécessaire pour la commande des transistors
- amélioration notable de l’impédance (capacitance +inductance +résistance)
- du gain
- la plage fréquentielle (rapidité du phénomène de transition bloquant/passant et inversement)
- etc.
Je n'ai pas eu vent d'amélioration significative sur la problématique du court-circuit depuis mes études... ^^'
L'amélioration de la plage fréquentielle est une amélioration du problème, mais on a systématiquement monté les fréquence pour atteindre le même échauffement. C'est ce fameux "mur" dont vous avez sûrement entendu parlé concernant le TDP des CPU. Car au-delà d'un certain niveau d'échauffement, le comportement /stabilité de certains composants devient problématique.

Qu’apporte donc la finesse de ce point de vue ?

eh bien, plus fin d'un point de vue " U = R.I et P = U.I " ça veut tout simplement dire que les conducteurs sont plus résistif (des court-circuit moins violant)... mais ce n'est pas parce que la gravure est plus "fine" que les tuyaux qu'elle dessine sont plus petit ! Ils sont simplement plus net, plus propres, avec moins de défauts... bref, une électronique plus fiable, et des caractéristiques plus précises. C'est la précision de la conception qui permet un gain dans l'absolue, pourquoi concevoir un système opérant entre 1 et 9 quand on peut certifier qu'il opère entre 4 et 7, que la tenue en fréquence est plus stable, etc.
Mis bout à bout, vous avez vos 5% de perf/an.

Citation Envoyé par dourouc05 Voir le message
(...) mais comme les investissements baisse du moins sur ce secteur, fatalement le rythme d’innovation baisse.
Bien vu ! Si les innovations n'étaient freiné que par les capacités de l'esprit, et non par l'argent, bien des choses seraient dans notre quotidien aujourd'hui.
0  0