IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intel annonce son Nervana NNP-T 1000
Son processeur orienté entraînement dans les réseaux neuronaux sera disponible aux formats PCIe et OAM

Le , par dourouc05

107PARTAGES

5  0 
Il y a quelques mois, Intel dévoilait sa puce pour l’inférence dans les réseaux neuronaux, Nervana NNP-I. Le NNP-I 1000 est un processeur habituel (avec quelques cœurs identiques à ceux que l’on retrouve dans les gammes Core et Xeon d’Intel, génération Ice Lake), mais avec des cœurs supplémentaires pour effectuer les tâches spécifiques aux réseaux neuronaux, notamment grâce à des accélérateurs d’inférence.


Désormais, c’est la déclinaison orientée entraînement des réseaux neuronaux qu’Intel dévoile, la NNP-T 1000 (nom de code : Spring Crest). Cette puce est prévue pour être plus générique que la gamme Movidius Myriad, orientée vers le traitement d’images. Elle équilibre des parties de calcul, de mémoire et de réseau, afin de maximiser l’utilisation des capacités disponibles.


Le processeur est vu comme une extension et est disponible comme une carte PCIe 4.0 ou OpenCompute (format Mezzanine), cette dernière pouvant dégager plus de chaleur (375 W au lieu de 300). Les deux contiennent 32 Go de mémoire HBM, dont 60 Mo de registres. Le format bfloat16 est disponible, pour monter à presque cent vingt téraopérations par seconde (millions de millions d’opérations). Architecturalement, une puce contient vingt-quatre groupes de traitement tensoriel (TPC), qui ont des fonctions analogues aux cœurs tensoriels de NVIDIA.


Actuellement, on peut utiliser ces puces à travers une bibliothèque spécifique ou le compilateur de réseau neuronal nGraph. Les bibliothèques de réseaux neuronaux comme TensorFlow et PyTorch sont aussi nativement gérées, ainsi que PaddlePaddle, la bibliothèque de Baidu.

Source : BusinessWire, Intel.

Voir aussi : plus de détails techniques sur la microarchitecture de cette puce.

Une erreur dans cette actualité ? Signalez-nous-la !