Des scientifiques ont développé et breveté un nouveau type de mémoire informatique
Qui réduirait la consommation énergétique liée au numérique

Le , par Bill Fassinou

56PARTAGES

6  0 
Aujourd’hui, on estime que la consommation de l'énergie énergétique du monde numérique augmente chaque année, avec une croissance de deux chiffres. Les ordinateurs, les centres de données, les réseaux, etc. engloutissent près de 10 % de la consommation mondiale d’électricité et ce chiffre va continuer d’augmenter pendant les prochaines années. Cependant, les travaux des scientifiques de l’université de Lancaster en Angleterre pourrait aider à résoudre ce problème en réduisant considérablement la consommation énergétique des différents dispositifs informatiques. En effet, ils ont mis au point une mémoire informatique qui permettrait de diminuer considérablement la consommation d'énergie des outils informatiques.

S’il n’est évidemment pas question de se passer des progrès apportés par le numérique, les équipements informatiques actuels possèdent un mode de fonctionnement très énergivore. L’impact énergétique du secteur numérique devient grandissant et il incombe de trouver des solutions pour ralentir cela. Les équipements informatiques actuels sont voraces en énergie, ce qui participe à ce pic de consommation. De plus, d’autres causes à l’origine de ce pic de la consommation énergétique du secteur informatique sont l’émergence des réseaux sociaux au début des années 2000 et ensuite l’introduction des cryptomonnaies en 2008.

Selon des statistiques établies par Digiconomit dans un rapport, le Bitcoin, à travers sa consommation énergétique, émettrait autant de dioxyde de carbone qu’un petit pays. Digiconomist a estimé, il y a deux ans, qu’une seule transaction du bitcoin consomme autant d'électricité nécessaire pour alimenter huit ménages américains pendant toute une journée. Aujourd’hui, cela semble être passé de l’énergie nécessaire à huit ménages à environ 18 ménages selon un tableau de comparaison fourni par Digiconomist dans son rapport.


Les chercheurs de l’université de Lancaster en Angleterre ont peut-être une solution pour réduire la consommation d'énergie électrique du monde numérique. Leurs travaux portent sur une mémoire informatique universelle qu’ils jugent capable de résoudre les problèmes de la crise énergétique liée au numérique. Dans le rapport d'étude publié dans la revue Nature (Scientific Reports), ces derniers ont décrit le dispositif comme étant une mémoire électronique universelle qui permettra de transformer le quotidien de chaque individu, en introduisant pour les prochaines générations d’appareils informatiques, une consommation d’énergie extrêmement faible. Le dispositif réduirait immédiatement d’un cinquième le pic de consommation énergétique des centres de données.

Selon les chercheurs, d'ici à 2025, un « tsunami de données » devrait consommer un cinquième de l'électricité mondiale. Les études ont conclu que cette consommation électrique est imputable aux équipements terminaux (les ordinateurs, les téléphones, les objets connectés, etc.), aux centres de données qui hébergent nos données et une grande partie de la consommation est liée aux réseaux, les « autoroutes de l‘information ». Cela dit, selon les chercheurs, le nouveau dispositif serait capable de venir à bout de ces consommations abusives d’énergie.

Le dispositif est la concrétisation de la recherche d’une « mémoire universelle » qui préoccupe les scientifiques et les ingénieurs depuis des décennies. Pour concevoir le disposotif, les chercheurs ont utilisé la mécanique quantique pour résoudre le dilemme qui consiste à choisir entre un stockage de données stable à long terme et une écriture et un effacement à faible consommation d'énergie.

Manus Hayne, professeur de physique à l'Université de Lancaster, a déclaré que « La mémoire universelle, qui contient des données stockées de manière robuste et facilement modifiable, est largement considérée comme irréalisable, voire impossible, mais ce dispositif démontre que cela est bel et bien possible ». Bien que l’écriture de données dans la mémoire DRAM soit rapide et à faible consommation d’énergie, les données sont volatiles et doivent être continuellement « actualisées » pour éviter leur perte. Selon les chercheurs, c’est clairement peu pratique et inefficace. La mémoire flash quant à elle stocke les données de manière robuste, mais l'écriture et l'effacement sont lents, gourmands en énergie et les détériorent, les rendant inutilisables pour la mémoire de travail.

D’après les chercheurs, dans un avenir proche, leur dispositif pourrait remplacer le marché de 100 millions de dollars de la mémoire DRAM (Dynamic Random Access Memory), qui est actuellement la “mémoire de travail” des ordinateurs et, à long terme, le marché des disques flash. Un brevet américain a été attribué pour le dispositif de mémoire électronique avec un autre brevet en instance. De plus, plusieurs entreprises auraient déjà manifesté leur intérêt ou sont activement impliquées dans la recherche.

« L’idéal est de combiner les avantages des deux types de mémoires sans leurs inconvénients, et c’est ce que nous avons démontré. Notre dispositif a une durée de stockage de données intrinsèque qui devrait dépasser l’âge de l’Univers, mais il peut enregistrer ou supprimer des données en utilisant 100 fois moins d’énergie que la DRAM », a conclu le professeur Manus Hayne de l’université de Lancaster.

Source : Rapport de l’étude

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Le Bitcoin émet autant de carbone qu'un petit pays. À quoi doit-on s'attendre dans les prochaines années ?

La consommation d'énergie des datacenters ralentit aux États-Unis, une tendance favorisée par une meilleure gestion

Des puces mémoire à très basse consommation d'énergie électrique pourraient être bientôt fabriquées, grâce à une étude des chercheurs du MIT

Microsoft améliore l'économie d'énergie des PC Windows 10, avec une réduction de la consommation CPU allant jusqu'à 11 % pour des tâches exigeantes

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 02/07/2019 à 11:00
Citation Envoyé par Bill Fassinou Voir le message
Selon les chercheurs, d'ici à 2025, un « tsunami de données » devrait consommer un cinquième de l'électricité mondiale. Les études ont conclu que cette consommation électrique est imputable aux équipements terminaux (les ordinateurs, les téléphones, les objets connectés, etc.), aux centres de données qui hébergent nos données et une grande partie de la consommation est liée aux réseaux, les « autoroutes de l‘information ». Cela dit, selon les chercheurs, le nouveau dispositif serait capable de venir à bout de ces consommations abusives d’énergie.
Le numérique consomme de plus en plus d'énergie.
Il deviendra la première dépense en énergie. Déjà maintenant les services consomment plus d'énergie, que les transports, l'industrie, et l'agriculture.

Il faut prendre conscience tout de suite que dans le futur la principal problème écologique sera les smartphones, les tablettes, les antennes 5G, les réseaux wifi, etc.
En ce moment les gouvernements sont content ils pensent que l'économie va être sauvé par le 5G et les objets connectés.
L'écologie est utilisé comme prétexte pour augmenter les taxes sur les carburants.

===
C'est bien que des chercheurs essaient de diminuer la consommation électrique des composants informatique.
Parce que l'énergie consommé par l'informatique va être un problème de plus en plus grave.
3  1 
Avatar de mcc39
Membre régulier https://www.developpez.com
Le 01/07/2019 à 20:37
Un nouveau visage de l'arlésienne ?!
Je badine mais il est vrai que le problème sous-jacent à la dépêche est d'une importance de premier ordre, il me semble.

Il y a de plus en plus de données mais sont-elles bien toutes utiles ? J'en doute fort. Et si on invente une mémoire ultra-performante et qu'on l'associe à des réseaux à très haut débits comme la 5G, cela ne risque-i-il pas d'augmenter la production et la consommation de données, et donc celle d'énergie (par effet rebond) ?

C'est une fuite en avant diraient certains.
1  0 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 01/07/2019 à 22:18
ne vas t'on pas surtout vers la mort d'internet ? je veut dire les réseaux ne sont pas conçue pour supporter de tels charge et un jour ou l'autre, soit la planète sera recouverte de fibre optique et de datacenter pour stocker les comptes facebook de 7 milliards d'humain et compte youtubes avec leurs videos de 10H de chat qui pete en 8K 3D dolby 7.1
ou bien faudra rationaliser a un moment au un autre.

d'ailleur je ne comprend même pas comment toute cette merde peut encore tenir debout, c'est vrai quoi, youtube se doit etre des datacenter dans toute la planete pour gérer des milliards de Go qui doivent en plus etre répliqué au moins 1 fois pour assurer un minimum de sécurité.
Youtube et facebook c'est encore tres récent aller on vas dire que sa fait 10ans que ces platerofrme sont massivement utilisé mais d'ici 20ans les datas dessus devrait logiement etre multiplé par 1000% au minimum, 3 fois plus de data mais en bien meilleur qualité, oublier les videos pourrie en qualité sd des années 2006, on parle ici de 8K donc une taille des fichiers multiplier par 10 très surement avec encore plus de youtuber pulbiant leurs video de chats.

comment garantir a fonctionabilité de ces réseaux avec de tels charge ? beaucoup d'experts réseaux partage cette avis
0  1 

 
Responsable bénévole de la rubrique Hardware : chrtophe -

Partenaire : Hébergement Web