IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intel donne des détails sur la 8e génération de processeurs Intel Core
Qui sera gravée en 14 nm et apporterait des gains de performance de 15 %

Le , par dourouc05

1PARTAGES

6  0 
Lors d’une conférence destinée à ses actionnaires, Intel a révélé travailler sur une huitième génération de processeurs Core avec un processus de gravure en 14 nm — une version améliorée de celui arrivé en 2014. L’augmentation avec la génération actuelle (Kaby Lake, lancée entre septembre 2016 et janvier 2017) de processeurs était de l’ordre de dix à quinze pour cent, selon les tests, exclusivement dus à une augmentation de la fréquence d’horloge (permise par l’amélioration du procédé de fabrication). Cette fois, Intel promet, pour la deuxième moitié de 2017, au moins quinze pour cent d’augmentation — et, vu que le processus n’a pas tellement évolué, l’augmentation viendrait d’évolutions de la microarchitecture.


Cette annonce n’était pas tellement attendue : la génération Kaby Lake aurait dû être suivie de Cannon Lake, sur un processus 10 nm, qui permet de graver des transistors nettement plus petits (qui consomment et chauffent moins). À peine après avoir annoncé sa nouvelle cadence de sortie de produits (trois générations se suivent : la première améliore processus, la seconde la microarchitecture, la troisième optimise le tout), Intel s’apprêterait donc déjà à la modifier, pour ajouter une deuxième étape d’optimisation.


Le changement de stratégie était mû par les difficultés de mise au point du processus 14 nm. Cette nouvelle génération pourrait indiquer des difficultés supplémentaires pour ces nouveaux développements. Il n’empêche, pendant la même présentation, Intel n’a pas pu s’empêcher de rappeler leur avance de trois ans sur la concurrence en termes de densité de transistors sur une puce — des allégations confirmées par des sources extérieures. Ainsi, le 10 nm de la concurrence (qui commence à arriver) est à peine meilleur que le 14 nm qu’Intel utilise depuis 2014 — même si, au niveau marketing, Intel se fait passer pour attardé.


Cette présentation a aussi laissé passer un message de manière assez détournée : les processeurs pour les centres informatiques auront la priorité pour le prochain processus (Data center first to next process node, sous Changes to operating margin dans l’image qui suit). On peut en déduire qu’Intel vise haut et fort pour la prochaine génération de Xeon — que ce soit en finesse de gravure (les premiers processeurs en 10 nm ?) ou en variante de processus (10 nm orienté haute performance ou basse consommation ?). Cependant, cette phrase pourrait aussi s’appliquer à la récente activité ARM d’Intel — l’avenir nous le dira.


Au niveau investissements, Intel se prépare pour l’avenir : le chantier de son usine 42 reprend vie, après son arrêt en 2014, sur fond d’effondrement du marché du PC et des difficultés du fondeur côté mobile. La construction avait débuté en 2011, dans l’Arizona (aux États-Unis) et l’usine devait produire des puces pour l’alors futur processus 14 nm. Le bâtiment est prêt, avec les mécanismes de ventilation spécifiques à la production de semiconducteurs, mais il n’a aucun équipement pour la production proprement dite.

Avec ces sept milliards, Intel se prépare pour le processus de gravure qui suivra le 10 nm, c’est-à-dire à l’horizon 2020-2021. Ce processus 7 nm sera utilisé pour tous les processeurs de la firme quand il sera prêt. Peu d’indications ont filtré jusqu’à présent, si ce n’est qu’Intel utilisera probablement les EUV (sans certitude).


Sources et images : Intel verspricht über 15 Prozent mehr Leistung, Intel’s 8th Generation Core i7-8000 Series Processors To Feature Performance Greater Than 15% Over 7th Gen CPUs – Launching in 2H of 2017, Intel Confirms 8th Gen Core on 14nm, Data Center First to New Nodes, Intel to Equip Fab 42 for 7 nm.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mat.M
Expert éminent sénior https://www.developpez.com
Le 13/02/2017 à 18:37
Citation Envoyé par AoCannaille  Voir le message
J'ai lu quelque part qu'On sait comment faire ça : Il faut augmenter la surface des processeurs. Pour du 16Ghz, il faudrait environ un processeur de la taille d'une carte postale (où tout du moins c'était l'estimation à l'époque de l'article :p )

déconstruisons ce que l'on peut déconstruire ...
un micro-processeur c'est des millions de circuits intégrés gravés sur un morceau de silicium ( waffer en anglais mais sans sucre ) selon le principe de l'intégration à haute échelle ,Very Large Scale Integration en anglais.

As microprocessors become more complex due to technology scaling, microprocessor designers have encountered several challenges which force them to think beyond the design plane, and look ahead to post-silicon:
Timing/design closure – As clock frequencies tend to scale up, designers are finding it more difficult to distribute and maintain low clock skew between these high frequency clocks across the entire chip. This has led to a rising interest in multicore and multiprocessor architectures, since an overall speedup can be obtained even with lower clock frequency by using the computational power of all the cores.

Les circuits intégrés sont pour la plupart des portes logiques OR,AND....( par contre je crois que c'est de la logique négative j'avais appris ça en cours d'électronique).

Donc qui dit intégration à très haute densité de circuits intégrés dit problème de dissipation de chaleur par effet joule surtout si on augmente la fréquence de circulation du (micro)courant électrique..
c'est comme si on crée un circuit hydraulique avec des tas de canalisation et des tas de dérivations, la circulation de l'eau selon une certaine pression ferait que l'eau frotte dans les conduits et ça limiterait le débit.

Revenons à notre CPU , pour augmenter la fréquence ( à l'heure actuelle on doit être autour de plusieurs millions par seconde de traitement de l'info) il faut augmenter le cycle d'horloge.

Si on augmente la taille , oui reste le problème de circulation de l'information parce que plus la distance est grande plus la longueur d'onde doit être petite.

Citation Envoyé par AoCannaille  Voir le message
et ça pose des problème de vitesse de transfert d'info d'un endroit du proco à l'autre...

alinea numéro 2 : c'est le problème des semi-conducteurs...moins il y a de résistance dans un semi-conducteur plus le courant électrique circule vite..
Citation Envoyé par dourouc05  Voir le message
Avec ces sept milliards, Intel se prépare pour le processus de gravure qui suivra le 10 nm, c’est-à-dire à l’horizon 2020-2021. Ce processus 7 nm sera utilisé pour tous les processeurs de la firme quand il sera prêt. Peu d’indications ont filtré jusqu’à présent, si ce n’est qu’Intel utilisera probablement [

ehhh plus on enlève de l'épaisseur moins il y a de la matière ou alors j'ai raté quelque chose donc moins il y a de la matière plus c'est difficile de graver..

Citation Envoyé par AoCannaille  Voir le message
Pour du full-HD peut être, mais rajoute un peu de 4k, d'augmentation de FPS ou de réalité virtuelle et tu as des axes de progressions intéressants.

oui mais ce n'est pas le CPU qui fait la Full-Hd..enfin l'intérêt c'est de déléguer à la carte graphique et au GPU les calculs..maintenant les GPU sont assez performants je pense
3  0 
Avatar de Jipété
Expert éminent sénior https://www.developpez.com
Le 13/02/2017 à 19:38
Citation Envoyé par Mat.M Voir le message
Les circuits intégrés sont pour la plupart des portes logiques OR,AND....( par contre je crois que c'est de la logique négative j'avais appris ça en cours d'électronique).
Oui, parce que ça consomme moins d'avoir des circuits dont la sortie est à 1 (transistors bloqués, non conducteurs, niveau haut sur le collecteur) plutôt qu'à 0 (transistors saturés, niveau bas sur le collecteur, ça consomme à bloc !)
Et comme la plupart du temps on va tester 1 bit dans un registre d'état de 16 bits (contrôleur de périphérique, par ex. : le device est-il "ready" ? Testons donc son bit 8), les ingés se sont vite rendus compte de la différence de conso entre 15 tranzingues à 0 et 1 seul à 1 , et l'inverse .
3  0 
Avatar de dourouc05
Responsable Qt & Livres https://www.developpez.com
Le 14/02/2017 à 12:19
Citation Envoyé par Mat.M Voir le message
ehhh plus on enlève de l'épaisseur moins il y a de la matière ou alors j'ai raté quelque chose donc moins il y a de la matière plus c'est difficile de graver..
Les nombres donnés correspondent à la finesse de gravure : 7 nm correspond à la taille du plus petit détail que l'on peut graver sur une galette de silicium (https://en.wikipedia.org/wiki/Photolithography). Les différents fabricants ne mesurent pas tous la même chose, ce qui fait qu'il n'est pas facile de vraiment comparer les différents processus (10 nm chez Intel ou 10 nm chez TSMC, par exemple). Bien évidemment, la production d'une puce fait intervenir une myriade d'autres paramètres que juste cette précision (définie de manière imprécise), mais le marketing s'est plutôt orienté dessus.
3  0 
Avatar de toopac
Modérateur https://www.developpez.com
Le 13/02/2017 à 10:02
Citation Envoyé par iks404 Voir le message
Si justement Intel ne pousse ses Proc. que par 15%, c'est qu'il n'y a pas grande utilité de doubler les cadences sur 2 années comme à l'époque.
Ou qu'il n'a plus vraiment de concurrence
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/02/2017 à 11:46
J'ai lu quelque part qu'On sait comment faire ça : Il faut augmenter la surface des processeurs. Pour du 16Ghz, il faudrait environ un processeur de la taille d'une carte postale (où tout du moins c'était l'estimation à l'époque de l'article :p ) et ça pose des problème de vitesse de transfert d'info d'un endroit du proco à l'autre...
2  0 
Avatar de Delias
Modérateur https://www.developpez.com
Le 13/02/2017 à 23:36
Citation Envoyé par Jipété Voir le message
Oui, parce que ça consomme moins d'avoir des circuits dont la sortie est à 1 (transistors bloqués, non conducteurs, niveau haut sur le collecteur) plutôt qu'à 0 (transistors saturés, niveau bas sur le collecteur, ça consomme à bloc !)
Et comme la plupart du temps on va tester 1 bit dans un registre d'état de 16 bits (contrôleur de périphérique, par ex. : le device est-il "ready" ? Testons donc son bit 8), les ingés se sont vite rendus compte de la différence de conso entre 15 tranzingues à 0 et 1 seul à 1 , et l'inverse .
Ouai bon en techno CMOS, il y a symétrie dans les caractéristiques quelque-soit l'état 1 ou 0. La consommation c'est surtout la charge/décharge des condensateurs de grilles des MOS et un peu les courants de fuite (augmentant avec la finesse des transistors).
La "logique inversée" me fait plutôt penser à l'utilisation des portes NAND et NOR (et NOT) qui nécessitent qu'un étage de transistor et pas deux (pour AND et OR).
Une combinaison de "et"/"ou" (selon la méthode des tables de Karnaugh) permettant de réaliser n'importe quelle logique est en fait réalisée par une succession de deux NAND, (merci De Morgan)
Les bascules (SR, JK, D) sont également réalisées principalement à base de NAND

Bonne nuit

Delias
2  0 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 12/02/2017 à 23:34
Citation Envoyé par melka one Voir le message
...on risque d' assisté a un come-back du début des année 2000 ou il fallait changer de processeur tous les six moi car devenu obsolète
Pas forcément, cette fois les processeurs auront des spécialisations très pointues qui ne devraient pas se faire concurrences. En plus développer des jeux est devenu une telle usine à gaz en terme de personnels et de coûts et d'enjeux financiers pour les studios que ces derniers ne vont certainement pas se jeter sur du proco sans visibilité sur son marché et ce d'autant plus que les machines actuelles ont déjà atteint un niveau de photo-réalisme qui ne présente plus grand intérêt à améliorer.
1  0 
Avatar de iks404
Membre du Club https://www.developpez.com
Le 13/02/2017 à 8:17
"où il fallait changer de processeur tous les six mois car devenu obsolète"
Inutile de changer de Proc pour 15%.
J'ai un i7 3770k (Socket LGA1155) qui fait largement l'affaire aujourd'hui. (bien mieux que beaucoup d'ordinateurs vendu dans le commerce par exemple.)
Si justement Intel ne pousse ses Proc. que par 15%, c'est qu'il n'y a pas grande utilité de doubler les cadences sur 2 années comme à l'époque.
Voir + : Gordon E. Moore
1  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 13/02/2017 à 11:06
Citation Envoyé par 23JFK Voir le message
ce d'autant plus que les machines actuelles ont déjà atteint un niveau de photo-réalisme qui ne présente plus grand intérêt à améliorer.
Pour du full-HD peut être, mais rajoute un peu de 4k, d'augmentation de FPS ou de réalité virtuelle et tu as des axes de progressions intéressants.

En tout cas je suis d'accord, ajouter du photoréalisme n'apporte plus rien aux jeux. ou pas grand chose. Ce sont les designers 3D qui peuvent se reposer, pas les fondeurs ^^

Quand on aura (et on l'aura), la gestion de la 4k en 60FPS intégré dans un i3, on aura franchi une nouvelle marche technologique ^^
1  0 
Avatar de Andarus
Membre confirmé https://www.developpez.com
Le 13/02/2017 à 11:08
Citation Envoyé par toopac Voir le message
Ou qu'il n'a plus vraiment de concurrence
Ou qu'on ne sait plus comment doubler les fréquences, si on pouvait faire un single core 16 Ghz on ne s’embêterait pas avec les multi-core
2  1