IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

AMD annonce l'APU Kaveri
Un pas de plus vers le rêve d'architecture unifiée

Le , par Clotho

18PARTAGES

1  0 
AMD annonce l'APU Kaveri : un pas de plus vers le rêve d’architecture unifiée

Il y a quelques jours lors de la conférence des développeurs d’AMD intitulée APU13, l’entreprise a annoncé officiellement la date de sortie de Kaveri : le 14 janvier 2014.

Kaveri est une APU (accelerated processing unit) basée sur un processeur multi-cœurs d’architecture Steamroller et un contrôleur graphique apparenté aux cartes graphiques grand public. Le tout assemblé en une puce unique.


Ce schéma est cher à AMD depuis le rachat d’Ati en 2006, et Kaveri est un jalon important vers l’unification à termes des parties graphiques et processeur, permettant une mutualisation avancée des ressources (RAM, cache, parallélisation…)

L’annonce d’AMD laisse augurer d’un CPU disposant de 2 modules (4 cœurs) à 3.7Ghz et d’une partie graphique à 512 unités de calcul avec une fréquence de 720Mhz, comparable à une radeon 7750. La puissance de calcul cumulée, initialement prévue à 1TéraFlops devrait se situer plutôt aux alentours de 856GFlops, la grande majorité de cette puissance de calcul venant de la partie graphique. Cette architecture viendrait chapeauter le segment « A » chez AMD, composé actuellement des APU A4/6/8/10 ayant rencontré un succès mitigé.

A titre de comparaison, en calcul brut un A10 haut de gamme actuel concurrence globalement un core i3 ou i5 suivant les applications. Si Kaveri tient ses promesses, il devrait se situer juste au-dessus des i5 actuels.

AMD mise cependant sur une convergence de plusieurs facteurs. Pour la partie graphique/jeu, AMD équipant les deux consoles NextGen et cherchant à promouvoir Mantle, devrait arriver à proposer des performances intéressantes, même avec des produits à la puissance limitée. Pour la partie « CPU », l’amélioration du multithreading permet de réduire un petit peu l’écart avec Intel, à prix comparable. AMD espère ainsi se placer idéalement pour deux cibles spécifiques : les PC familiaux « bons a tout faire », et les serveurs flexibles faisant aussi bien du calcul brut que du GPGPU simple. Ces deux configurations représentant une grande proportion du marché informatique.

Le pari est d’autant plus risqué qu’AMD vient d’annoncer sa nouvelle feuille de route, et que le segment « performance » ne subira pas d’évolution cette année.

Source

AMD Kaveri APU Launch Details: Desktop, January 14th

Et vous ?

Trouvez- vous le principe de l’APU adapté à vos besoins ?
Un graphique intégré de puissance moyenne suffit-il, comparé à une partie graphique sommaire comme dans les core iX d’Intel ?
La convergence technique entre console et PC couplée à l’apparition de Mantle, est-ce un bon point ou un risque d’uniformisation par le bas selon vous ?

Téléchargement

Consultez la feuille de route 2013-2014 (PDF) des produits AMD

Voir aussi

Mantle : une nouvelle bibliothèque graphiques pour mieux contrôler le GPU.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Jerome Briot
Rédacteur/Modérateur https://www.developpez.com
Le 08/01/2014 à 10:29
AMD annonce la disponibilité de l'APU Kaveri en pré-commande comme par exemple sur ces quelques machines chez LDLC :



La date de sortie effective de l'APU Kaveri est le 14 janvier prochain.

Source : AMD Business - Pre-Order AMD’s Next Generation APU TODAY!
1  0 
Avatar de Loceka
Expert confirmé https://www.developpez.com
Le 20/11/2013 à 14:21
Citation Envoyé par Clotho Voir le message
Trouvez- vous le principe de l’APU adapté à vos besoins ?
Ca va dépendre des réponses que j'aurais à ma question suivante.
Citation Envoyé par Clotho Voir le message
Un graphique intégré de puissance moyenne suffit-il, comparé à une partie graphique sommaire comme dans les core iX d’Intel ?
C'est justement la question que je voulais poser : que vaut cette partie graphique comparée à la partie graphique présente dans les core iN (Intel HD Graphics 4000 actuellement, si j'ai bien tout suivi) ?
Si elle est meilleure (ce qui est apparement le cas dans les processeurs AMD), suffit-elle à jouer à des jeux récents (même si des concessions doivent être faites) ?

Edit :

Apparement c'est "oui" à ma dernière question vu que sur le site d'AMD, on peut lire ça en descrption de la Radeon 7750 (que tu dis être comparable à celle embarquée dans ce processeur) :
La carte graphique la plus avancée au monde. Pour tous.

Basés sur l'architecture primée GCN, les GPU de la série AMD Radeon™ HD 7700 sont conçus pour tout détruire sur leur passage, grâce à la toute nouvelle conception de GPU en 28 nm de l'industrie. Dotées de fonctionnalités incroyables comme PCI Express® 3.0, la technologie de consommation ultra-efficace AMD ZeroCore Power ou des résolutions de jeu supérieures à 5760x1080 grâce à la technologie AMD Eyefinity, ce sont les cartes graphiques les plus avancées au monde. Pour tous.
  • Prêt pour Microsoft Windows® 8 et les jeux en DirectX® 11.1 !
  • Efficacité, flexibilité, performance. C'est l'ADN de l'AMD Radeon™ HD 7750, la carte graphique la plus avancée au monde. Pour tous.
  • La technologie AMD Eyefinity de nouvelle génération est arrivée, apportant une toute nouvelle prise en charge de la 3D stéréoscopique, une compensation de bordure universelle et de nouvelles configurations d'affichage. Bref : le meilleur est devenu encore meilleur.
  • Armées de la nouvelle norme PCI Express 3.0, les configurations multi-GPU avec la technologie AMD CrossFire™ sont tout simplement une nouvelle manière d'anéantir la concurrence avec la révolutionnaire AMD Radeon™ HD 7750.
  • Toute la performance à votre disposition. Obtenez des fréquences plus élevées et des jeux plus rapides avec la technologie AMD PowerTune de l'AMD Radeon™ HD 7750.
  • Des applications plus rapides que jamais avec AMD App Acceleration et la nouvelle architecture GCN 28 nm.
  • Le marché n'est peut-être pas prêt pour la vidéo 4K, mais Radeon™ si ! Avec sa prise en charge intégrale de HDMI® (avec 4K) et de DisplayPort 1.2 HBR2, l'AMD Radeon™ HD 7750 est faite pour la HD quad.
Cette présentation apparement objective et sans parti pris fait donc état d'une carte potable, on dirait.
0  0 
Avatar de Clotho
Membre expert https://www.developpez.com
Le 20/11/2013 à 15:43
"apparement objective et sans parti pris" c'est une façon de voir les choses.

Habituellement sur le forum je recommande comme premier accès au jeu une radeon 7770 pour les budgets serrés. La radeon 7750 peut donc être vue comme juste, dans l'absolu, pour jouer en HD dans des conditions moyennes.

Sans refaire un test complet de la carte, sur des jeux pas trop exigeants (on range Crysis 3 s'il vous plaît) on peut jouer en HD avec les détails entre "bas" et moyen" à 30 images par secondes, environ, avec une 7750 (et avec les détails sur moyen avec une 7770).

Ca n'est pas fabuleux, mais un HD4000 offre dans les mêmes conditions entre 4 et 8 images par seconde, et une carte d'entrée de gamme comme une radeon 8450 ou une Gf 610/620 15 images par seconde. Les nouvelles HD4400 d'Intel se situent dans le même ordre d'idée.

La volonté affichée d'AMD n'est pas d'amener son GPU intégré à des performances folles (limites imposées par le TDP, les temps d'accès...) mais plutôt d'inciter à adopter Mantle, avec des jeux qualitativement corrects et nécessitant des machines moins robustes qu'actuellement, leurs premières démo sont intéressantes, il faudra attendre de voir ce que Mantle peut réellement donner avec du code optimisé. En espérant que ça ne nivelle pas par le bas comme peut le faire actuellement l'Unreal Engine, pour la qualité graphique. Un exemple, Dishonored a été un excellent jeu, sans doute un des jeux les plus inventifs de l'année dernière, mais graphiquement l'unreal engine est à ses limites et le jeu n'est pas incroyablement joli...

En résumé, l'idée derrière, un peu hégémonique, est de dire "si les gens savent se servir d'une API bas niveau comme Mantle, notre A10 a 130 euros fera tout bien, plus besoin d'avoir une carte dédiée à côté". L'idée est vraiment bonne, mais il est permis de douter!
0  0 
Avatar de Loceka
Expert confirmé https://www.developpez.com
Le 20/11/2013 à 16:05
Bon, encore une fois, merci pour ta réponse on ne peut plus détaillée.

Moi en lisant juste la description faite par AMD, j'avais cru que c'était une carte graphique haut de gamme (mais l'article n'étant pas daté sur leur site, je ne savais pas si c'était une carte de dernière génération ou non).

Citation Envoyé par Clotho Voir le message
En résumé, l'idée derrière, un peu hégémonique, est de dire "si les gens savent se servir d'une API bas niveau comme Mantle, notre A10 a 130 euros fera tout bien, plus besoin d'avoir une carte dédiée à côté". L'idée est vraiment bonne, mais il est permis de douter!
Ben disons que si Mantle est une API vouée à être utilisée par d'autres qu'AMD (Intel donc), ça peut être intéressant.
Ca permettrait de se passer de carte graphique quelque soit le processeur et de pouvoir faire tourner tous les jeux (avec plus ou moins de concessions).

Parce que se passer de CG est quand même très intéressant pour
  • la consommation (et donc l'autonomie sur les portables)
  • le poids de la machine (encore une fois, surtout sur les portables)
  • la chauffe du PC (et donc l'investissement à faire dans le refroidissement)
  • le budget


Après, pour le nivellement par le bas, tout dépend de la richesse de l'API.
Si l'API permet de faire suffisament de choses, je ne vois pas où est le problème. L'implémentation derrière dépendra du processeur graphique (intégré au processeur ou dans une CG à part), certaines fonctions pouvant même ne pas être implémentées du tout, mais tant que l'API le permet, ce ne sera pas "limitant".

Bon, la tendance actuelle n'est pas vers une telle ouverture mais on peut toujours rêver.
0  0 
Avatar de Aniki
Membre éprouvé https://www.developpez.com
Le 08/01/2014 à 16:35
Citation Envoyé par Clotho Voir le message
(...)
En espérant que ça ne nivelle pas par le bas comme peut le faire actuellement l'Unreal Engine, pour la qualité graphique. Un exemple, Dishonored a été un excellent jeu, sans doute un des jeux les plus inventifs de l'année dernière, mais graphiquement l'unreal engine est à ses limites et le jeu n'est pas incroyablement joli...
(...)
Je suis d'accord sur presque tout, sauf sur ce point.
Je pense que justement, les performances graphiques ne devraient pas avoir autant d'importance dans un jeu, le principal étant le jeu en lui-même et non pas quelle gueule il a (bien que ce'soit aussi une composante importante).
D'ailleurs, le jeu que tu as pris en exemple est parfait : on se tapait des FPS qui ne se différenciait que par les graphismes ces derniers temps et Dishonored a chamboulé tout ça (sans être laid pour autant...).

Sinon, par rapport à la stratégie de AMD, je trouve qu'ils sont assez audacieux.
En effet, miser sur leur APU et leur nouvelle API Mantle est un pari assez risqué. Le fait que la PS4 et la XBox One aient toutes les 2 des APU AMD donne cependant des raisons de croire que ça pourrait marcher.
Beaucoup de chose dépendent de la démocratisation de Mantle (boulot des développeur).
Par contre, même s'il ne s'améliorent pas dans les performances, je pense qu'une amélioration de la consommation énergétique ne serait pas du luxe...
(C'est en fait le seul point qui, en ce moment, m'empècherait d'acheter AMD (étant donné que l'on a aujourd'hui largement assez de puissance CPU pour l'énorme majorité des cas)).
0  0 
Avatar de Clotho
Membre expert https://www.developpez.com
Le 08/01/2014 à 17:10
On dit bien la même chose, au sujet de dishonored. C'est un jeu que j'ai énormément apprécié, le travail effectué dessus a été vraiment approfondi, le monde est cohérent, la jouabilité impressionnante, avec la possibilité de faire tout le jeu sans tuer qui que ce soit, ou au contraire en ruinant la moitié de la ville, etc... Depuis Beyond Good and Evil, il y a bien longtemps, je n'avais plus eu de sensation de jeu aussi intelligent et abouti.

Le monde créé est splendide, l'ambiance Steampunk excellemment maitrîsée, mais ce que je reproche au jeu, que j'ai ressenti durant mon utilisation, c'est que le moteur graphique et physique de l'unreal engine a bridé en partie les capacités (modèles physique des objets basiques, peu de volumes...) et donc l'interactivité, et qu'en plus, les restrictions en termes de polygones et de textures on "rigidifé" un peu l'ensemble, rendant le jeu un peu plus froid, et un peu moins oppressant (hitboxes mal fichues, visages figés...).

L'unreal Engine a été une excellente chose à sa sortie, mais il a pris un coup de vieux. Il a permis à de nombreuses boîtes de faire un produit bien développé à moindre frais (arkane, le studio développeur, l'a clairement dit).

Les craintes généralement évoquées au sujet de Mantle, c'est qu'en devenant un pseudo standard il soit trop figé, et du coup impose une "patte artistique" gelée dans un carcan, ce qui ne sera pas visible dans un premier temps.

Il est important de voir des jeux comme dishonored , the witcher, battlefield 4, ou encore diablo 3 tourner honorablement sur des machines moyennes, équipées de Kaveri (PC) ou Jaguar (PS4 et XB-O), mais il faut aussi que l'écosystème de Mantle permette une évolutivité, et c'est autrement plus compliqué pour un langage "bas" niveau que pour un moteur graphique et ses bibliothèques prémâchées.

Si c'est bien fichu, Kaveri+Mantle sera la vraie première pierre de la volonté d'unification d'AMD. Si ça marche, on se retrouvera avec quelque chose qui bouffera 130W et coutera 130€ et fournira un résultat presque aussi probant qu'un combo coutant 750€ et mangeant 500W.

Sans oublier que pour AMD, développer un successeur de type "Kaveri 2 ou 3" coutera bien moins cher que de développer des éléments High End de type AMD Fx Black + Radeon@3 milliards de transistors.

D'un point de vue rationnel, c'est révolutionnaire, mais c'est une inflexion majeure lancée par un compétiteur en minorité criante, le pari est loin d'être gagné, pour le client c'est un excellent avenir potentiel, qui pour le moment n'est pas encore vraiment réaliste. De mon point de vue, pour rafler le gros lot, il faudrait un Kaveri doté d'un peu plus de patate pour les semi-pro (se rapprocher d'un core i5) tout en offrant des performances de radeon 7830/7850, ce qui pour le moment est irréaliste dans 130W de TDP. Si c'était atteignable, tout un pan de la population n'aurait plus besoin d'un combo carte graphique@250€+CPU@200€ (au minimum).

Comme toute nouveauté, ils vont être dépendant de l'effet boule de neige, pour que ça marche, il faut des bonnes démo technologiques, pour qu'il y ait de bonnes démo technologiques, il faut une clientèle, pour qu'il y ait une clientèle il faut un produit qui marche, prière de reboucler...
0  0 
Avatar de Aniki
Membre éprouvé https://www.developpez.com
Le 09/01/2014 à 10:00
Ce que je voulais dire, c'est que si jamais les développeurs devaient, du fait de la démocratisation de Mantle, être amener à ne plus faire une course du plus beau jeu, je crois que ça serait bénéfique pour l'industrie du jeu.
De la même manière que quand les dev se basent sur l'Unreal Engine (bien connu depuis le temps), ils gagnent du temps sur les graphismes (il ne réinventent rien à ce niveau là) pour se concentrer sur le gameplay (petit clin d'oeil à Call of Duty et Battlefield ).
Ce qui a plus de chance de donner de bon jeux, à mon avis.

Par exemple, après avoir fini Crisis, la seule chose dont je me souviens, c'est qu'il était joli. Je l'ai fini presque en me forçant.
Alors que Half-Life, ça pique les yeux (aujourd'hui) mais je le relancerai bien volontier parce que j'ai trouvé l'expérience de jeu formidable.
D'ailleur, j'ai joué à Half-Life2 pas plus tard que le WE dernier.

Je signale quand même que je ne suis pas un ayatollah du Pixel Art...

Sinon pour AMD, je n'était pas au courant pour les Kaveri 2/3 et les réductions de coûts engendrées.
Si c'est effectivement le cas, alors ça devrait être très intéressant.
Je vais me répèter, mais je ne pense pas qu'AMD ai beaucoup à gagner à augmenter les perfs CPU. Le niveau actuel suffit pour presque tout le monde. Certes, c'est en dessous d'Intel mais même eux ne progressent plus beaucoup niveau perf.
Si AMD arrive à réduire l'écart (que dis-je, le fossé) de consomation energétique, alors là il deviendra vraiment concurrenciel (en restant aussi aggressif qu'aujourd'hui au niveau des prix, ce qui semble être le cas si j'en crois ce que tu me dis pour les prochains Kaveri).
Enfin, d'après moi...
0  0 
Avatar de Loceka
Expert confirmé https://www.developpez.com
Le 10/01/2014 à 8:54
Citation Envoyé par Clotho Voir le message
il faudrait un Kaveri doté d'un peu plus de patate pour les semi-pro (se rapprocher d'un core i5) tout en offrant des performances de radeon 7830/7850, ce qui pour le moment est irréaliste dans 130W de TDP.
Bon, je suis complètement largué dans tout ça, mais quel rapport avec la consommation ?

Si je ne m'abuse (sources à l'appui), certains Core i7 consomment autant (~15W) que d'anciens Core2Duo alors qu'ils sont bien plus puissants.

Pourquoi ne pourrait-il pas en aller de même avec ce processeur graphique ?
0  0 
Avatar de Aniki
Membre éprouvé https://www.developpez.com
Le 10/01/2014 à 9:45
Citation Envoyé par Loceka Voir le message
(...)
Pourquoi ne pourrait-il pas en aller de même avec ce processeur graphique ?
Ben, théoriquement si, il pourrait en aller de même.
Maintenant, dans la pratique, Intel est beaucoup plus efficace dans le rapport Puissance/Energie consommée.
Mais c'est principalement parcque Intel s'est concentré la-dessus pour pouvoir concurrencer les ARM qui dominent le marché de l'embarqué. Du coup, ils sont actuellement sur des process de gravure plus fins qu'AMD (il me semble, Clotho pourra confirmer/infirmer).

AMD, quand à lui, s'est concentré dans l'embrouillage marketing (ses soit-disant coeur qui n'en sont pas...). Bon, j'avoue que je suis un peu dur avec eux, mais leurs manies de ne pas utiliser le vrai nom de leur produits (exemple: leurs coeurs qui n'en sont pas vraiment, le re-étiquettage de cartes graphiques les faisant passer pour des cartes nouvelle génération alors que ce n'est pas le cas...) me donne envie vomir.
C'est peut-être parce que j'ai toujours été un supporter d'AMD auparavant et que j'ai été très deçu de leur comportement (seul mon dernier PC a un CPU Intel).
En tout cas, je leur souhaite de réussir, ne serait-ce que pour avoir un concurrent de taille face à Intel dans le x86.
Déjà que pour le moment, l'avenir n'a pas l'air très lumineux pour le desktop (il se pourrait que les prochaines générations de CPU chez Intel ne soient plus sur un socket, ce qui supprimerait l'avantage actuel de pouvoir changer de CPU sur sa Carte-Mère).
0  0 
Avatar de Clotho
Membre expert https://www.developpez.com
Le 10/01/2014 à 10:49
Citation Envoyé par Aniki Voir le message
Ben, théoriquement si, il pourrait en aller de même.
Maintenant, dans la pratique, Intel est beaucoup plus efficace dans le rapport Puissance/Energie consommée.
Mais c'est principalement parcque Intel s'est concentré la-dessus pour pouvoir concurrencer les ARM qui dominent le marché de l'embarqué. Du coup, ils sont actuellement sur des process de gravure plus fins qu'AMD (il me semble, Clotho pourra confirmer/infirmer).
Alors l'efficacité énergétique des x86 c'est dû à l'amélioration de la finesse de gravure et à la concurrence sur le marché des ordinateurs portables. ARM/Intel c'est plutôt au niveau des Atom ou en dessous, du coup les architectures sont très très différentes, et les ponts entre elles sont quasi inexistants.

Cependant, effectivement, Intel a un rendement Flops/W à son avantage, principalement grâce à deux points: une finesse de gravure nettement meilleure, et une architecture globalement plus efficace.


AMD, quand à lui, s'est concentré dans l'embrouillage marketing (ses soit-disant coeur qui n'en sont pas...). Bon, j'avoue que je suis un peu dur avec eux, mais leurs manies de ne pas utiliser le vrai nom de leur produits (exemple: leurs coeurs qui n'en sont pas vraiment, le re-étiquettage de cartes graphiques les faisant passer pour des cartes nouvelle génération alors que ce n'est pas le cas...) me donne envie vomir.
C'est peut-être parce que j'ai toujours été un supporter d'AMD auparavant et que j'ai été très deçu de leur comportement (seul mon dernier PC a un CPU Intel).
En tout cas, je leur souhaite de réussir, ne serait-ce que pour avoir un concurrent de taille face à Intel dans le x86.
Déjà que pour le moment, l'avenir n'a pas l'air très lumineux pour le desktop (il se pourrait que les prochaines générations de CPU chez Intel ne soient plus sur un socket, ce qui supprimerait l'avantage actuel de pouvoir changer de CPU sur sa Carte-Mère).
Mouais, là faut relativiser méchamment quand même. Les Piledriver/bulldozer/steamroller (les architecures AMD depuis quelques années) ont un fonctionnement vraiment particulier, en partie hérité des connaissances en carte graphique récupérées avec le rachat d'ATi. Pour faire (très très) court un CPU intel c'est quasiment 4 processeur accolés, avec leurs propres caches L1/L2 et qui mutualisent un cache L3, ils pourraient presque être physiquement séparés sur la puce.

A contrario, AMD a une architecture intriquée, avec de nombreux ponts entre les coeurs, et surtout des unités de calcul appairés au niveau de certains registres et des pipes mutualisés. Du coup AMD à des unités de calcul double, ce qui fait qu'un CPU a deux unités de calcul parallèles.

Le comptage est un peu foireux, car il ne s'agit pas de processus réellement indépendant, de par la mutualisation. Mais un steamroller 4"coeurs" effectue 8 calculs. C'est un peu comme la notion de threads comparé à la notion de CPU, chez Intel.

Actuellement j'écris depuis un core i7 qui, physiquement, est un 4 coeurs, mais l'hyperthreading "leurre" windows et le fait apparaître comme un 8, ce qui n'est absolument pas vrai, même si en pratique pour moi c'est transparent.

Citation Envoyé par Loceka Voir le message
Bon, je suis complètement largué dans tout ça, mais quel rapport avec la consommation ?

Si je ne m'abuse (sources à l'appui), certains Core i7 consomment autant (~15W) que d'anciens Core2Duo alors qu'ils sont bien plus puissants.

Pourquoi ne pourrait-il pas en aller de même avec ce processeur graphique ?
Alors... c'est un peu compliqué.

Prenons l'exemple d'une puce à 3Ghz, ca existe depuis longtemps. Si tu sors rien que dans les évolutions du pentium 4 (finesse de 160µm, puis 130 puis 90) le "die shrink" a permis de diminuer la surface des puces et donc derrière d'augmenter les puces produites par wafer gravé, notamment, mais aussi de diminuer les courants de fuite, donc la dissipation thermique. Cependant, à TDP constant, mettons à 100W dissipés, tu vas les dissiper sur 15mm², puis 12mm² puis 10.3mm² (ark intel fournit les surfaces). Sans faire de calcul compliqués, intuitivement tu imagines bien que plus la surface diminue, plus l’énergie au mm² augmente (au carré donc).

Donc le chiffre de TDP, déjà important en soit, puisqu'il détermine la taille de ton système de refroidissement, devrait être corrélé aussi à la surface de contact, ou à l’émission de chaleur, qui elle s'exprime en W/m2, et l'augmentation est du coup énorme, puisque plus concentrée.

Même si certains systèmes de refroidissements sont vraiment bien pensés, un ventirad de 1Kg pouvant par exemple dissiper 200W, le soucis reste, qu'au dessus du die, tu as une chaleur élevée. C'est notamment pour ça que Ivy bridge a un peu déçu les gens ,il est très proche de Sandy bridge, et ne représente qu'un die shrink et quelques ajustements, cependant, la puce étant plus petite elle retourne une chaleur perçue plus élevée, bridant un peu les montées en fréquences ou l'intégrablité.

Et un core i7 ne fait quasiment que CPU.

Chez AMD, les CPU intégrés dans Kaveri sont moyens, avec un TDP "CPU" estimé vers 95W, mais par contre la carte graphique intégrée à côté est nettement supérieure aux intel HD4XXX, et consomme une grosse trentaine de watts, qu'elle dissipe au même endroit que le CPU, tu concentres donc tes points chauds. La limite de 145W est +/- ce que permet actuellement un refroidissement moyen du type ventilateur stock, fourni par le constructeur.

Même si c'est rarement souligné dans les tests de Kaveri, l'intérêt est de se retrouver avec une machine complète "suffisante" qui fonctionnera avec une consommation globale de 300W. A opposer à un PC de type i5/Fx4650+radeon7850/Gf760Ti qui lui tourne dans les 450/500W.

Cependant, vu que l'APU concentre la quasi totalité de la dissipation thermique, elle est limitée par son enveloppe max tolérée par le ventilateur, et les normes (il est par exemple utopique en grande série de vendre le CPU avec des radiateurs de 1kgs, à ce jour, rien qu’au point de vue intégration...).

Donc si tu "découds" le problème dans l'autre sens, ça te donne:

  • on peut pas dépasser 130W de TDP
  • Il faut limiter la consommation CPU+GPU
  • Soit on augmente la finesse de gravure (coûte cher en procédé de fabrication).
  • Soit on fait des concessions plus ou moins lourdes (tensions, nombre de coeurs CPu et/ou GPU).
  • Soit on change le système de refroidissement


D'un point de vue industriel, c'est évidemment de se placer au plus juste économiquement qui prime.
0  0