IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Intel prévoit un processeur spécifiquement conçu pour l'apprentissage profond
Dix-huit fois plus rapide que les GPU actuels

Le , par dourouc05

0PARTAGES

5  0 
Le domaine de l’intelligence artificielle est en ébullition, ces dernières années, sur la flamme des réseaux neuronaux profonds. La limite principale à l’épanouissement complet de ce domaine est souvent la puissance de calcul : l’apprentissage d’un réseau neuronal profond actuel peut durer plusieurs jours, plusieurs semaines, même sur des architectures très bien adaptées — actuellement, les processeurs graphiques (GPU) fournissent la plupart de la puissance des machines dans le domaine.


Intel ne veut pas rester en arrière : le fondeur américain prévoit de sortir ses puces Lake Crest, spécifiquement prévues pour ce type de calculs, pendant la première moitié de 2017. En quelques chiffres, les spécifications prévues relèvent du superlatif : 32 Go de mémoire HBM2 intégrée au processeur, avec une bande passante de 1 To/s. L’accès à la mémoire centrale se fera aussi avec une bande passante de 1 To/s. Les prévisions d’Intel sont d’accélérer d’un facteur 18 les calculs par rapport à la solution actuelle la plus rapide avec cette puce — son successeur, attendu à l’horizon 2020, devrait avoir un facteur d’accélération de l’ordre de 100 par rapport au meilleur matériel actuel.


Cette vitesse n’est atteinte que par une combinaison astucieuse de composants logiciels et d’optimisations matérielles, issues du rachat de Nervana. Les ingénieurs se sont focalisés sur deux opérations très courantes pour les réseaux neuronaux profonds actuels : le produit matriciel et la convolution. Ces deux opérations correspondent également à une bonne partie du code de calcul scientifique habituel (même si la convolution est plus orientée traitement de signal). Ainsi, même si la recherche sur les réseaux neuronaux se porte sur d’autres algorithmes et structures pour les réseaux, ce matériel devrait toujours être adapté.

Il s’agit d’un exemple assez frappant de spécialisation du matériel pour des tâches très spécifiques. Intel propose maintenant une gamme assez large de produits donnant de très bons résultats pour l’apprentissage profond : depuis les processeurs “standard”, pouvant effectuer n’importe quel type de calcul (Core, Xeon), jusqu’à ces cartes hyper spécialisées (Lake Crest), en passant par les Xeon Phi (orientés calcul très parallèle, avec de très nombreux cœurs) et les FPGA Arria 10 (processeurs reconfigurables).


D’un point de vue technique, ces puces Lake Crest pourront agir comme coprocesseur (comme les Xeon Phi de première génération). Les parties de calcul des différents cœurs sont cependant entièrement différentes : l’architecture Flexpoint est prévue pour augmenter le niveau de parallélisme des opérations d’un facteur 10. Une puce Lake Crest devrait contenir douze unités de calcul, chacune présentant plusieurs cœurs. Elle devrait aussi avoir douze liens vers d’autres processeurs pour faciliter l’intégration dans les centres informatiques.


Sources et images : Intel’s Lake Crest Chip Aims At The DNN/AI Sector – 32 GB HBM2, 1 TB/s Bandwidth, 8 Tb/s Access Speeds, More Raw Power Than Modern GPUs, Nervana – Neue Details zu Intels Plattform für Künstliche Intelligenz.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de ToTo13
Modérateur https://www.developpez.com
Le 17/02/2017 à 19:30
C'est une bonne chose, mais Intel ne se penche toujours pas sur une partie primordiale : l'environnement du matériel.
NVIDIA n'avait pas les meilleurs GPU, mais ils ont été assez intelligents pour concevoir CUDA et tout ce qui va avec. Donc les développeurs/chercheurs utilisent des GPU NVIDIA.
Le matériel c'est important, les logiciels.librairies pour bien l'exploiter c'est mieux.
0  0