Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les transistors nanomagnétiques pourraient atteindre les limites fondamentales de consommation énergétique
D'après une équipe de chercheurs

Le , par dourouc05

0PARTAGES

9  0 
Les processeurs actuels sont principalement limités par leur consommation énergétique : il n’est pas possible de garder tous les transistors d’une même puce allumés simultanément, car la densité d’énergie est beaucoup trop importante — chaque millimètre carré consomme trop d’énergie, la puce brûlerait à coup sûr sans désactiver des parties. Ce phénomène a conduit à la notion de silicium noir, c’est-à-dire les parties qui ne peuvent pas être utilisées à un instant donné dans un processeur. Un domaine de recherche dans les semiconducteurs concerne donc la création de transistors qui consomment nettement moins d’énergie (et donc dissipent moins de chaleur).

En 1961, des chercheurs d’IBM ont déterminé une limite absolue dans la consommation d’énergie d’un transistor (la limite de Landauer) : en effet, d’un point de vue thermodynamique, la bascule d’un transistor n’est pas réversible, ce qui s’accompagne inévitablement de pertes d’énergie (en application de la seconde loi de la thermodynamique). Cette valeur a été déterminée comme trois zeptojoules (3 10^-21 joules). A contrario, des transistors actuels optimisés pour la consommation d’énergie se placent au niveau de la picojoule, c’est-à-dire 10^-12 joules, soit un milliard de fois plus que le minimum théorique (!), pour la réalisation de puces mémoire magnétiques par transfert de spin (STT-MRAM). Les transistors plus courants consomment encore plus d’énergie.

En 2012, une équipe allemande a, pour la première fois, démontré expérimentalement que cette limite inférieure de consommation pouvait être atteinte. Ils ont, pour ce faire, utilisé une pince optique pour déplacer des perles de verre de deux microns de large (similaires à des bits) entre deux puits de potentiel. Une équipe américaine vient de montrer un résultat similaire, mais bien plus directement applicable à l’électronique : ils ont directement manipulé des bits faits d’aimants à l’échelle nanométrique. Ce genre d’aimants est déjà à la base des disques durs magnétiques actuels, mais également des mémoires de type STT-MRAM.

Des aimants nanométriques stockent l’information par la direction du champ magnétique de l’aimant. Avec un champ magnétique externe, les chercheurs ont pu inverser l’orientation du champ des aimants. En mesurant très précisément l’intensité et l’orientation du champ de l’aimant en fonction du champ extérieur, ils ont pu déterminer que cette opération consommait en moyenne six zeptajoules à température ambiante, soit le double de la limite de Landauer (sans compter, donc, la génération du champ utilisé pour manipuler les aimants). L’équipe estime que la différence par rapport à la limite théorique est principalement due à de légères variations dans l’orientation des nanoaimants : en effet, selon des simulations numériques, des nanoaimants idéaux atteignent exactement cette limite.



Cependant, ces progrès n’auront aucun impact sur les transistors utilisés dans les processeurs grand public à court terme, ni probablement à moyen terme : cette expérience marque un pas dans le passage entre la recherche fondamentale en physique et la recherche appliquée dans les transistors, mais il reste encore de nombreuses années avant une arrivée sur le marché.

Source (y compris l’image) et plus de détails : Zeptojoule Nanomagnetic Switch Measures Fundamental Limit of Computing.
Ce contenu a été publié dans Matériel par dourouc05.

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de VivienD
Membre chevronné https://www.developpez.com
Le 19/04/2016 à 13:12
Citation Envoyé par sazearte Voir le message
je parlais pas de puces plus grande, mais de processeurs plus grand/gros.
Avoir des processeurs plus volumineux, parce que moins denses, posent certains problèmes, entre autres:
  1. il faut plus de matériaux pour les construire donc ça coûte plus cher en terme de matières premières;
  2. la connectique entre les différents modules du processeur et à l'intérieur des dits modules s'allonge et a donc une plus grande résistance électrique, ce qui accroît l'effet Joule auquel elle est sujette;
  3. les signaux électriques ne se déplaçant pas instantanément, l'allongement de la connectique ralentit aussi la communication entre les différents éléments et donc il y a de grandes chances de devoir dire adieu aux processeurs dont la fréquence de travail excède le gigahertz, à moins, bien sûr! d'avoir un porte-monnaie bien garni.
4  0 
Avatar de JML19
Expert éminent sénior https://www.developpez.com
Le 19/04/2016 à 21:31
Bonsoir

C'est je pense un peu plus compliqué que cela.

Il n'y a pas deux états logiques cela ne fonctionnerait pas en utilisant des transistors.

Dans l'électronique logique on est obligé de travailler avec des circuits trois états 0, 1 et Z.

Z est un état haute impédance, il permet aux circuits non sollicités de ne pas délivrer de l'énergie pour les autres circuits.

C'est cet état Z qui pose beaucoup de problème pour la mise hors service de certain transistor, dans un équipement comme un processeur ou une mémoire ou bien un BUS...

Il y a en réalité deux problèmes très difficiles à résoudre :

- La barrière de potentiel qui évite à un électron de franchir la liaison semi conductrice.

- L'état haute impédance qui permet d'isoler complétement un transistor sans aucune consommation.
3  1 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 19/04/2016 à 14:58
Citation Envoyé par MikeRowSoft Voir le message
Sachant qu'il est possible pour un satellite de transmettre une information à un G.P.S., qu'est ce qui fait tant chauffer les autres matières?
Tout en sachant que l'information ainsi transmise conserve presque la même "intensité" et toute seule.
Je ne comprends pas vraiment la question… Au niveau d'un transistor, tu auras toujours des effets comme un courant de fuite.

Pour un signal GPS, tu as énormément de pertes d'intensité entre l'antenne et le récepteur, notamment à cause de l'atmosphère (voir http://gpsinformation.net/main/gpspower.htm, par exemple)… Quel rapport ?
2  1 
Avatar de yahiko
Rédacteur/Modérateur https://www.developpez.com
Le 19/04/2016 à 17:05
Citation Envoyé par Beanux Voir le message
Mais je ne savais pas qu'une limite minimum avait été calculé pour le basculement d’énergie.
C’est très intéressant, c’est un peu comme si on avait défini le coût minimal pour enregistrer/changer une information.
A priori, le principe de Landauer est assez général et ne se limite au cas pratique d'un transistor. Il dérive de la seconde loi de la thermodynamique et dit en gros qu'un système ne peut pas effacer de l'information sans accroïtre l'entropie (la chaleur) de son environnement. La limite théorique a été établie en 1961, ce qui est relativement ancien.

Maintenant, même si les transistors proches de cette limite ne sont pas pour tout de suite, la fabrication en série de transistors qui consommeraient dix fois moins que ceux d'aujourd'hui serait déjà une avancée considérable.
1  0 
Avatar de RyzenOC
Inactif https://www.developpez.com
Le 19/04/2016 à 17:38
Ce n'est pas une question de matière mais tout simplement de tout le reste. Si on augmente la taille, on augmente le voltage, donc ça chauffe plus, donc ça consomme plus, et donc on baisse la fréquence... Au final, autant prendre un ENAC, à la limite un PC des années 70...

Le but est d'améliorer les performances sinon, on sait faire un processeur qui fonctionne bien...
Ma question était plus: qu'elle est la différence entre une carte mère avec 8 sockets et 8CPU de 4 core, et un "gros" CPU (de meme superficie que les 8 cpu) avec 32 core ?

Au final on contourne le problème des transistors assez facilement, on ajoute des cpu...

Et puis vous aller me dire y'a de la perte, c'est pas grave car de toute façon, aujourd'hui le problème c'est pas les transistors c'est la vitesse (trop faible) que mettent les informations pour transiter de la ram au cpu.

Si on augmente la taille, on augmente le voltage, donc ça chauffe plus, donc ça consomme plus, et donc on baisse la fréquence
La fréquence d'un cpu n'est plus plus ce qu'il y'a d'important en 2016, t'a qu'a voir le désastre avec le AMD FX 9590. C'est l'architecture qui compte.

C'est d’ailleurs sur ce même principe que fonctionne les GPU, des milliers de core de très faible fréquence, et quand on peut en tirer partie c'est 100000 fois plus efficace.
2  1 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 19/04/2016 à 18:08
Citation Envoyé par MaximeCh Voir le message
Existe-t-il une alternative au transistor? Sans parler de cubit?
Actuellement, l'informatique est principalement pensée de manière binaire, tout est encodé de manière binaire. L'informatique quantique, a priori, ne sera pas une révolution au quotidien, dans le sens que les opérations que ces ordinateurs peuvent effectuer bien plus efficacement que les ordinateurs traditionnels sont assez limitées (tout ce qui parle d'explosion combinatoire convient très bien ; afficher une page Web, ça n'apporte rien, à moins d'une révolution à ce niveau…).

Citation Envoyé par MikeRowSoft Voir le message
J'ai pas compris grand chose au document que tu as mis en URL, bien que j'aurais plus tendance a envoyer un signal faible mais suffisamment répétitif pour être correctement restitué sur la distance finale, celle d'un avion en vol et à 2 km sous le niveau de la mer.
En GPS, tu as des pertes énormes : tu envoies un signal assez puissant, tu récupères trois fois rien (mon lien parle de 500 W en émission, 10^-16 en réception). Monter en puissance à l'émission est absolument nécessaire dans ce cas (et une bonne modulation avec un bon codage, ça améliore la situation, mais les pertes sont trop importantes pour que le jeu en puissance soit inutile).

De manière générale, tu as toujours un niveau de puissance minimale à respecter dans toute communication (même à l'intérieur d'un processeur) : en dessous, tu ne détectes tout simplement plus rien. Si tu ajoutes de la redondance (pas forcément répéter le signal, tu peux faire beaucoup mieux), alors tu peux diminuer la puissance requise pour une même probabilité d'erreur, mais tu ne pourras pas passer sous la limite de détection. Pour ça, il faut adapter le matériel plus en profondeur pour augmenter la sensibilité.

Citation Envoyé par sazearte Voir le message
le problème c'est pas les transistors c'est la vitesse (trop faible) que mettent les informations pour transiter de la ram au cpu.
Ça commence à bien bouger de ce côté-là, avec du HBM et HMC. Bon, ça prend le temps de venir (sur des GPU haut de gamme, sur certains CPU — Xeon Phi deuxième génération), mais ça ne résout pas le problème de consommation énergétique non plus (la mémoire bouffe aussi).


1  0 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 19/04/2016 à 12:40
Citation Envoyé par sazearte Voir le message
Je suis pas spécialiste, mais il suffit de mieux les refroidir (avec de l'azote ) ?
Le problème est que la dissipation d'énergie se concentre à certains endroits de la puce, à mieux refroidir que d'autres (et si tu mets tout le processeur dans de l'azote liquide, ça va le brûler aussi ). Regarde, par exemple, l'image de http://www.digitalversus.com/mobile-...es-n23887.html : la chaleur est très loin d'être uniforme.

Citation Envoyé par sazearte Voir le message
Pourquoi ? il suffirait d'en faire des plus grands, ou à superposer les puces ?
Le problème de puces plus grandes, c'est que tu exploses tes coûts de fabrication, avec un nombre plus faible de puce par galette de silicium (quelques diamètres standardisés), simplement par la taille de chaque puce ; de plus, tu augmentes la probabilité d'avoir des défauts dans chaque puce (puisque la surface où tu t'exposes aux problèmes pendant la gravure est plus grande).

Pour la superposition, il faut encore que toutes les puces arrivent à communiquer efficacement, ce qui n'est pas forcément facile à obtenir…
0  0 
Avatar de Beanux
Membre éclairé https://www.developpez.com
Le 19/04/2016 à 15:26
Le problème est simple a poser.
Il y a un transistor qui bascule d'un état a un autre. Cela consomme de l'énergie. Il faut dissiper cette énergie, ou réduire sa dissipation.

C’est la problématique soulevé par l'article. Il y a surement d'autres approches possibles, mais c’est le principe de la recherche que de chercher dans plusieurs direction plutôt qu'une seule.
On pourrait voir le même principe que les gpu, avec une parallélisation de plusieurs cpu, ce qui augmente in fine la puissance de calcul, changer de technologie (ici ils ont parlé de transistors magnétique, donc plus basé sur le semi conducteur).

Mais je ne savais pas qu'une limite minimum avait été calculé pour le basculement d’énergie.
C’est très intéressant, c’est un peu comme si on avait défini le coût minimal pour enregistrer/changer une information.
0  0 
Avatar de MaximeCh
Membre éprouvé https://www.developpez.com
Le 19/04/2016 à 16:23
Existe-t-il une alternative au transistor? Sans parler de cubit?
Des nanocondensateurs capables de stocker dix valeurs différentes et de faire repasser l'electronique au décimal peut-être?
0  0 
Avatar de
https://www.developpez.com
Le 19/04/2016 à 17:01
Citation Envoyé par dourouc05 Voir le message
Je ne comprends pas vraiment la question… Au niveau d'un transistor, tu auras toujours des effets comme un courant de fuite.

Pour un signal GPS, tu as énormément de pertes d'intensité entre l'antenne et le récepteur, notamment à cause de l'atmosphère (voir http://gpsinformation.net/main/gpspower.htm, par exemple)… Quel rapport ?

Je crois plutôt que tu viens de mettre le doigt dessus. La gravure telle qu'elle est pratiqué aujourd'hui.

J'ai pas compris grand chose au document que tu as mis en URL, bien que j'aurais plus tendance a envoyer un signal faible mais suffisamment répétitif pour être correctement restitué sur la distance finale, celle d'un avion en vol et à 2 km sous le niveau de la mer.

Demande toi si il est possible de bleffer un radiotélescope?
0  1