Les dernières solutions destinées aux Datacenter d’Intel ciblent un large éventail d’applications (IoT, serveur, réseau, stockage et station de travail notamment) dans des domaines tels que la 5G, le cloud computing, l’infrastructure réseau ou l’intelligence artificielle.
À ce propos, Navin Shenoy, vice-président d’Intel et directeur général de la division DataCenter du groupe a déclaré que ces produits « ;reflètent la nouvelle stratégie d’Intel axée sur les données ». Selon lui, ils révèlent la capacité de sa société « à déplacer, stocker et traiter les données sur les charges de travail les plus exigeantes, du centre de données à la périphérie ».
Les produits les plus attendus d’Intel étaient probablement ses processeurs serveur de la génération Cascade Lake annoncés pour la première fois en novembre dernier. À l’époque, la firme de Santa Clara avait brièvement présenté une famille de processeurs Xeon de la génération Cascade Lake qui ciblait les performances avancées. Les puces de cette famille avaient été spécifiquement identifiées comme des CPU Xeon de la génération Cascade Lake AP (AP pour Advanced Performance) au lieu de Cascade Lake SP.
Ces nouveaux CPU serveur x86 sont caractérisés par le nombre plus important de cœurs physiques dont ils disposent (jusqu’à 56) et de canaux mémoires qu’ils prennent en charge (jusqu’à 6 en DDR4-2933) et leur fréquence d’horloge plus élevée. Les CPU Xeon Cascade Lake AP bénéficient, en outre, de l’implémentation de protections intégrées contre Spectre et Meltdown, d’optimisations au niveau de leur mémoire cache et du support étendu de l’AVX-512 et du jeu d’instructions VNNI (pour Vector Neural Network Instructions) visant à accélérer les charges d’apprentissage machine.
La récente présentation d’Intel a révélé que les nouveaux processeurs Xeon Cascade Lake AP peuvent embarquer jusqu’à 56 cœurs / 112 threads sur le même package en combinant deux die de 28 cœurs / 48 threads, grâce à la technologie MCP (Multi-Chip Package). Grossièrement, ces nouveaux CPU x86 de la gamme serveur profitent d’une configuration 2S de deux CPU Xeon sur le même package. Cette architecture permet à Intel de repousser les limites du design monolithique utilisé jusqu’à lors qui n’a jusque-là permis la conception que d’une puce embarquant au maximum 28 cœurs / 56 threads.
Le fer de lance de cette nouvelle génération de processeurs serveur Scalable d’Intel appartient à la série Xeon Platinum 9200 (quatre modèles), avec en tête d’affiche le Xeon Platinum 9282, un CPU équipé de 56 cœurs / 112 threads. Sa fréquence de base est de 2,6 GHz, contre 3,8 GHz en mode un turbo. Le Xeon Platinum 9282 dispose de 77 Mo de mémoire cache de niveau 3. Il prend en charge jusqu’à 48 lignes d’extension PCIe 3.0, avec un monstrueux TDP de 400 W.
Cette seconde génération de processeurs Scalable Xeon dévoilée par Intel est destinée aux serveurs à double socket, pouvant embarquer jusqu’à 24 canaux mémoire et 112 cœurs / 224 threads dans un système 2S. Ils sont compatibles avec la technologie SMT / Hyperthreading, mais exposés à au moins quatre failles de sécurité majeures : PortSmash, TLBleed, Spoiler et un exploit découvert récemment qui est lié à la fonctionnalité Intel VISA des chipsets Intel.
Pour l’instant, Intel ne prévoirait pas de vendre ses Xeon Cascade Lake AP seules. Au lieu de cela, la firme aurait l’intention de proposer aux fabricants des bundles comprenant une carte mère plus un processeur. Ces derniers sont néanmoins responsables du choix du système de refroidissement final (liquide ou à l’air) et de certaines options de personnalisation des cartes mères. Il n’y a donc pas de prix pour ces puces, bien qu’on imagine qu’elles seront chères.
Pour se faire une meilleure idée de la position tarifaire des processeurs Scalable Xeon Cascade Lake AP, rappelons que le Xeon 8180M (28 cœurs / 56 threads, 2,5 GHz de base, 3,8 GHz en Boost et TDP de 205 W), le plus puissant des processeurs de la dernière génération Intel Xeon Platinum, est vendu aux alentours de 13 ;000 dollars. Chez AMD, le plus puissant des CPU de la génération Epyc Naples, le 7601 (32 cœurs / 64 threads, 2,2 GHz base, 3,2 GHz en Boost et un TDP de 180 W), se négocie à 4200 dollars environ. Signalons au passage que les processeurs AMD EPYC Rome basés sur Zen 2 n’ont pas été conçus pour concurrencer la famille de CPU Xeon Cascade Lake SP ou Cascade Lake AP. Les puces EPYC Rome d’AMD ont été conçues pour concurrencer favorablement les processeurs Intel Xeon Ice Lake SP gravés en 10 nm dont la sortie est prévue pour 2020, d’après les dernières estimations de la firme de Santa Clara.
En plus de présenter sa nouvelle offre Cascade Lake AP, Intel a procédé au rafraîchissement complet de sa gamme Xeon SP. La gamme complète de processeurs Xeon Cascade Lake comprend environ 60 variantes différentes (AP + SP) : les Xeon Platinum 9200 (quatre modèles), Xeon Platinum 8200 (seize modèles), Xeon Gold 6200 (vingt-et-un modèles), Xeon Gold 5200 (dix modèles), les Xeon Silver 4200 (sept modèles) et Xeon Bronze 3200 (un modèle).
On remarque, par exemple que les Xeon Platinum 8280, 8280M et 8280L ont la même configuration de base : 28 cœurs / 56 threads, 2,7 GHz / 4 GHz (fréquence de base / turbo), 38,5 Mo de mémoire cache L3 et un TDP de 205 W. Ils diffèrent par la quantité de mémoire vive qu’ils prennent en charge. Il faut savoir que les lettres qui terminent le nom de code de chacun de ces CPU, lorsqu’elles existent, ont une signification particulière : M pour Medium Memory Support (2 To), L pour Large Memory Support (4,5 To), N pour Networking / NFV Specialized, V pour V = Virtual Machine Density Value Optimized, etc. Donc certaines de ces puces sont destinées à des charges de travail spécifiques (mise en réseau, virtualisation, recherche…), alors que d’autres sont limitées ou avantagées par la quantité de mémoire vive qu’elles supportent.
L’autre atout majeur de Cascade Lake comparé à Sky Lake réside dans le support de la technologie Optane. La nouvelle technologie Optane d’Intel (également connu sous le nom de 3D XPoint) est divisée en deux segments, qui promettent de réduire l’écart de performance entre la DRAM et le stockage. La plupart des produits de la gamme Xeon SP (à l’exception des Xeon AP curieusement) peuvent utiliser des modules mémoires Optane, à mi-chemin entre la mémoire flash à la mémoire DRAM classique, conçus selon la norme DDR4-T. Les systèmes basés sur les processeurs Cascade Lake éligibles peuvent utiliser des modules mémoire Optane, garantis cinq ans, combinés à des barrettes DDR4 conventionnelles. Certaines applications pourront utiliser la mémoire Optane DC et la DDR4 comme un pool de mémoire géant unique. Signalons au passage que l’entreprise a levé le voile sur son nouveau SSD Optane, le DC D4800X, compatible avec la fonctionnalité dual-port qui ajoute une redondance au chemin de données afin de fournir un accès continu aux données en cas de panne ou d’opération de service ou de mise à niveau.
Intel a par ailleurs évoqué l’arrivée prochaine d’un nouveau contrôleur Ethernet qui devrait faire son apparition au troisième trimestre. Appartenant à la série 800 et baptisé Columbiaville, il supportera la norme Ethernet 100 Go. Cette nouvelle famille promet des contrôleurs plus sophistiqués que les contrôleurs Ethernet classiques et compatibles avec la technologie ADQ (Application Device Queues). Ils devraient décharger encore plus le processeur central de certaines tâches liées à l’activité réseau.
Enfin, la firme de Santa Clara a annoncé son FPGA (field-programmable gate array) Agilex gravé en 10 nm. Ces puces offrent des performances allant jusqu’à 40 TFLOPS et permettent aux développeurs de créer une large gamme d’accélérateurs spécifiques à une application.
Source : Intel
Et vous ?
Qu’en pensez-vous ?
Voir aussi
EPYC Rome, la seconde génération de CPU serveur d'AMD basée sur Zen 2 et le 7 nm avec 64 cœurs/128 threads : alerte rouge pour Intel sur le HPC ?
AMD au CES 2019 dévoile ses CPU de bureau Ryzen 3000 gravés en 7 nm, gérant le PCI 4.0, compatibles avec le socket AM4 et attendus pour l'été 2019
AMD annonce ses CPU serveur Rome, les successeurs d'EPYC basés sur Zen 2 et le 7 nm avec 64 cœurs/128 threads : alerte rouge pour Intel sur le HPC ?
AMD et Microsoft travaillent ensemble pour améliorer les performances des CPU Ryzen Threadripper et EPYC sur les plateformes Windows