Developpez.com - Rubrique Hardware

Le Club des Développeurs et IT Pro

Intel préparerait son GPU dédié

Arctic Sound et Jupyter Sound devraient arriver dès 2020, sous l'impulsion de Raja Koduri

Le 2018-01-20 19:53:10, par dourouc05, Responsable Qt & Livres
Intel tente depuis longtemps de se créer une place sur le marché fort lucratif des processeurs graphiques — de plus en plus lucratif, d’ailleurs, depuis l’explosion de l’apprentissage profond et des cryptomonnaies. La première tentative date de 1998, avec la 740, une carte graphique AGP à la performance décevante ; les évolutions successives sous la marque Extreme Graphics n’étaient pas mieux reçues. En 2006, Intel tente de percer avec son architecture Larrabee : au lieu d’utiliser des cœurs de calcul extrêmement nombreux (plusieurs centaines, voire milliers) et spécifiques, l’idée était d’utiliser un grand nombre de cœurs (plusieurs dizaines) totalement indépendants ; l’idée a fait un flop comme carte graphique, mais est réapparue sous la forme de la ligne de produits Xeon Phi. Les premiers composants graphiques véritablement utiles sont apparus en 2010, avec l’intégration aux processeurs Core, sous les marques HD Graphics, puis Iris Pro/Plus Graphics et UHD Graphics.

Cependant, la firme de Santa Clara a récemment recruté Raja Koduri, un gros contributeur au renouveau d’AMD du côté des cartes graphiques. De plus, certains processeurs viennent avec une carte Radeon, sous licence d’AMD. Ces quelques éléments semblent indiquer qu’Intel est de plus en plus sérieux au niveau de la puissance des cartes graphiques.

Il semblerait que les douzième et treizième générations de processeurs graphiques portent les noms de code Arctic Sound et Jupyter Sound. Ces deux puces seraient entièrement développées par Intel et reliées au processeur central par un lien EMIB (les deux seraient disposées dans le même boitier). On s’attend à les voir vers 2020, mais un retard n’est pas à exclure.

Source : Arctic & Jupiter Sound: Intel bestätigt die Entwicklung von eigenständigen GPUs unter Raja Koduri.
  Discussion forum
18 commentaires
  • Emile8
    Membre régulier
    Cet article visiblement traduit à la va-vite de l'anglais, est une catastrophe éditoriale. Autant s'abstenir que de restituer un tel galimatias !!
  • datalandia
    Bot Troll en alpha-test
    bonne nouvelle
    a voir quand meme ce qui vaudront en jeux...

    par contre, si comme dit dans l'article intel fabrique bien les puces CPU/GPU, ils ne fabrique pas de GDRR/HBM hors c'est aussi un élément important dans un GPU qui peut causer des pertes de perf en fonction du fondeur.
  • melka one
    Membre expérimenté
    marketing, gpu j'ai du mal a voir le point commun.
  • devman1
    Futur Membre du Club
    Quel est votre avis sur la nouvelle orientation d’Intel dans le marché des GPU dédiés ;?
    C'est vraiment intéressant plus il y aura de la concurrence mieux se porteront les utilisateurs, il y aura à vraisemblablement une bataille des prix pour contrer la monté du mastodonte.

    Intel pourra-t-il se présenter comme un véritable concurrent face à AMD et NVIDIA ;?
    Biensur Intel depuis un certains temps embarque des GPU dans ses processeurs qui se battent à fournir des performances intéressantes pour ce type de configuration. Donc leur volonté de produire des GPU dédiés tient du fait qu'ils sont prêts à proposé une alternative à hauteur voire plus performante que celle des concurrents

    Ou pensez-vous que l’entreprise devrait se tourner vers d’autres objectifs au risque de faire échec dans les GPU ;?
    Pas forcement, ce qui est sûr, c'est il y a un grand marché du GPU, je ne serais pas surpris qu'on assiste à un futur procès de position dominante contre Intel car le couple CPU et GPU Intel va faire trembler la concurrence.
  • La photo du prototype est correcte ? (Pas de port HDMI/DVI/VGA/autres)

    Après Windows 7 il a enfin été possible d'avoir deux cartes graphique de marques différentes dans un PC.

    Si l'une d'entre elle n'était pas branché, c'est celle branché qui servait pour tout les calculs, donc un jeu sur un autre écran utilisait le GPU relié à cette écran mais pourtant les deux CG utilisent la même CM et le même CPU. Je veux bien croire que les choses ont changés.

    J'ai personnellement utilisé/constaté cela (Windows). C'est vrai que des technologies "hybrid" existent mais pas en exploitant de multiple marque.

    Crossfire ou SLI en sont les preuves au stade perf.

    C'est le système d'exploitation qui va avoir un truc comme du multi-gpu un peu différent du multi-cores (multi-cpu). ()

    P.S. : Je crois bien que la question "comment gagner du temps ?" vis-à-vis du nombre de "cores" et des fréquences pour une tâche connu (mathématiquement, algorithmiquement) est enfin à l'ordre du jour (optimisation globale des perfs du ou des circuits graphique et de la qualité des images affichées).
  • LittleWhite
    Responsable 2D/3D/Jeux
    Et pour un tel cas, vous pouvez signaler le problème grâce à cette nouvelle fonctionnalité.
  • Steinvikel
    Membre expert
    DisplayPort (v1.4) intégré dans un iGPU Intel, c'est une première ? (sans tenir compte des GPU classiques)
    --> ça sous-entend que AMD FreeSync est nativement supporté sur ces CPU, car il fait désormais parti de la norme VESA "Adaptive Sync" (depuis DP v1.2a).

    De même, il semble que l'alternative-mode DisplayPort via USB-C soit implémenté également directement dans l'APU... également une première ? (pour un CPU)
    je suppose qu'il le gère en entré comme en sortie ? --> diffusion vidéo depuis un téléphone vers l'écran PC, et inversement
  • Selon l'intuition que j'ai des par-ci parla, je mise plus pour du indispensable VR...
  • Matthieu76
    Membre éclairé
    Quelqu’un pourrait m'expliquer pourquoi j'ai pris des pousses rouges pour avoir dit apprécier l'entreprise Nvidia ?
  • Envoyé par Christian Olivier

    Comment appréhendez-vous l’avenir d’Intel sur le marché des GPU ?
    Pas forcément de GDDR pris en considération, les générations de CPU et donc de GPU vont introduire des étalons HW.
    Je crois bien qu'au début, le CPU bas de gamme avait un GPU bas de gamme, l'étalon générationnelle devrait mettre la même gamme pour tous...

    C'est aussi un bon moyen pour devenir une référence, surtout lors de la mesure de scores de performances...
    Autrement dit, si il n'y a pas de slot PCI-Express, c'est que c'est un ordinateur portable avec un minima générationnelle de performances acceptable...

    Il y en a qui doivent par obligation passé au CPU 64 bits... Alors pourquoi s'arrêter que là ?
    Même les puces ARM ont un circuit graphique plus répandu que les autres et ainsi plus pratique pour toucher en terme de qualité la majorité des utilisateurs...