Advanced Micro Devices, Inc. (AMD) est une multinationale américaine et une société de semi-conducteurs basée à Santa Clara, en Californie, qui développe des processeurs informatiques et des technologies connexes pour les marchés professionnels et grand public.
Lors du salon Computex à Taipei, Lisa Su, PDG d'AMD, a présenté l'accélérateur MI325X, qui devrait être disponible au quatrième trimestre 2024.
La course au développement de programmes d'intelligence artificielle générative a entraîné une forte demande de puces avancées utilisées dans les centres de données d'IA capables de prendre en charge ces applications complexes.
AMD s'est efforcé de concurrencer NVIDIA, qui domine actuellement le marché lucratif des semi-conducteurs pour l'IA et en détient environ 80 % des parts.
Depuis l'année dernière, NVIDIA a clairement fait savoir aux investisseurs qu'elle prévoyait de raccourcir son cycle de sortie à une fréquence annuelle, et maintenant AMD lui a emboîté le pas.
« L'IA est clairement notre priorité numéro un en tant qu'entreprise et nous avons vraiment exploité toutes les capacités de développement au sein de l'entreprise pour y parvenir », a déclaré Mme Su à la presse.
« Cette cadence annuelle existe parce que le marché a besoin de nouveaux produits et de nouvelles capacités... Chaque année, nous avons la prochaine grande nouveauté, ce qui nous permet d'avoir toujours le portefeuille le plus compétitif ».
AMD a également présenté une nouvelle série de puces intitulée MI350, qui devrait être disponible en 2025 et qui sera basée sur une nouvelle architecture de puce.
Par rapport à la série de puces d'IA MI300 actuellement disponible, AMD a déclaré qu'il s'attendait à ce que la MI350 soit 35 fois plus performante en matière d'inférence - le processus de calcul des réponses d'IA générative.
En outre, AMD a dévoilé la série MI400, qui arrivera en 2026 et sera basée sur une architecture appelée « Next ».
Le PDG de NVIDIA, Jensen Huang, a déclaré que la plateforme de puces d'IA de prochaine génération de l'entreprise, appelée Rubin, qui devrait être déployée en 2026, comprendrait des GPU, des CPU et des puces de mise en réseau.
Les investisseurs, qui ont investi des milliards de dollars dans le commerce de Wall Street, ont cherché à obtenir des informations à plus long terme de la part des fabricants de puces afin d'évaluer la longévité de l'essor de l'IA générative, qui n'a jusqu'à présent montré aucun signe de ralentissement.
Les actions d'AMD sont restées stables, tandis que NVIDIA a progressé de plus de 3 % lundi. La valeur d'AMD a plus que doublé depuis le début de l'année 2023, mais cette envolée fait pâle figure face à la multiplication par plus de sept des actions de NVIDIA au cours de la même période.
« Même si la preuve sera faite, il ne fait aucun doute qu'AMD prend NVIDIA de front et les entreprises qui cherchent des alternatives à NVIDIA seront forcément heureuses d'entendre ce qu'AMD avait à dire », a déclaré Bob O'Donnell, analyste en chef de Technalysis Research.
Mme Su, d'AMD, a déclaré en avril que l'entreprise prévoyait des ventes de puces d'IA d'environ 4 milliards de dollars pour 2024, soit une augmentation de 500 millions de dollars par rapport à son estimation précédente.
Lors de l'événement Computex, AMD a déclaré que sa dernière génération d'unités centrales de traitement serait probablement disponible au second semestre 2024.
Alors que les entreprises privilégient généralement les dépenses en puces d'IA dans les centres de données, certains processeurs d'AMD sont utilisés conjointement avec des processeurs graphiques, bien que le ratio soit déséquilibré en faveur des GPU.
AMD a détaillé l'architecture de ses nouvelles unités de traitement neuronal (NPU), qui sont destinées à gérer les tâches d'IA sur l'appareil dans les PC d'IA.
Les fabricants de puces misent sur les capacités d'IA accrues pour stimuler la croissance du marché des PC, qui sort d'un marasme de plusieurs années.
Des fournisseurs de PC tels que HP et Lenovo sortiront des appareils intégrant les puces de PC d'IA d'AMD. AMD a déclaré que ses processeurs dépassent les exigences du PC Copilot+ de Microsoft.
Le communiqué de presse d'AMD, détaillant son plan de développement de puces d'IA au cours des prochaines années, est présenté ci-dessous :
Lors de Computex 2024, AMD a présenté l'élan croissant de la famille d'accélérateurs AMD Instinct™ lors de la keynote d'ouverture de la présidente et directrice générale, le Dr Lisa Su. AMD a dévoilé une feuille de route pluriannuelle et élargie pour les accélérateurs AMD Instinct qui apportera une cadence annuelle de performances IA de premier plan et de capacités de mémoire à chaque génération.
La feuille de route actualisée commence par le nouvel accélérateur AMD Instinct MI325X, qui sera disponible au quatrième trimestre 2024. Dans la foulée, la série AMD Instinct MI350, alimentée par la nouvelle architecture AMD CDNA™ 4, devrait être disponible en 2025, apportant jusqu'à 35 fois plus de performances en matière d'inférence IA par rapport à la série AMD Instinct MI300 avec l'architecture AMD CDNA 31. Attendue pour 2026, la série AMD Instinct MI400 est basée sur l'architecture AMD CDNA « Next ».
« Les accélérateurs AMD Instinct MI300X continuent d'être fortement adoptés par de nombreux partenaires et clients, notamment Microsoft Azure, Meta, Dell Technologies, HPE, Lenovo et d'autres, ce qui est le résultat direct des performances exceptionnelles et de la proposition de valeur de l'accélérateur AMD Instinct MI300X », a déclaré Brad McCredie, vice-président d'entreprise, Data Center Accelerated Compute, AMD. « Avec notre cadence annuelle actualisée de produits, nous sommes infatigables dans notre rythme d'innovation, fournissant les capacités de leadership et les performances que l'industrie de l'IA et nos clients attendent pour conduire la prochaine évolution de la formation et de l'inférence de l'IA dans les centres de données. »
L'écosystème logiciel d'IA d'AMD arrive à maturité
La pile logicielle ouverte AMD ROCm™ 6 continue de mûrir, permettant aux accélérateurs AMD Instinct MI300X de générer des performances impressionnantes pour certains des LLM les plus populaires. Sur un serveur utilisant huit accélérateurs AMD Instinct MI300X et ROCm 6 exécutant Meta Llama-3 70B, les clients peuvent obtenir des performances d'inférence et de génération de jetons 1,3 fois supérieures à celles de la concurrence. Sur un seul accélérateur AMD Instinct MI300X avec ROCm 6, les clients peuvent obtenir des performances d'inférence et de génération de jetons supérieures à celles de la concurrence de 1,2 fois sur Mistral-7B3.
AMD a également souligné que Hugging Face, le référentiel le plus important et le plus populaire pour les modèles d'IA, teste désormais chaque nuit 700 000 de ses modèles les plus populaires pour s'assurer qu'ils fonctionnent sans problème sur les accélérateurs AMD Instinct MI300X.
En outre, AMD poursuit son travail en amont dans les frameworks d'IA populaires tels que PyTorch, TensorFlow et JAX.
AMD présente en avant-première de nouveaux accélérateurs et dévoile la feuille de route de la cadence annuelle
Lors de la keynote, AMD a révélé une mise à jour de la cadence annuelle de la feuille de route de l'accélérateur AMD Instinct pour répondre à la demande croissante de calcul de l'IA. Cela permettra de s'assurer que les accélérateurs AMD Instinct propulsent le développement des modèles d'IA de nouvelle génération. La feuille de route annuelle mise à jour d'AMD Instinct met en évidence :
- Le nouvel accélérateur AMD Instinct MI325X, qui apportera 288 Go de mémoire HBM3E et 6 téraoctets par seconde de bande passante mémoire, utilisera la même conception de serveur Universal Baseboard standard de l'industrie utilisée par la série AMD Instinct MI300, et sera généralement disponible au quatrième trimestre 2024. L'accélérateur aura une capacité de mémoire et une bande passante à la pointe de l'industrie, respectivement 2 fois et 1,3 fois supérieures à celles de la concurrence, et des performances de calcul 1,3 fois supérieures à celles de la concurrence.
- Le premier produit de la série AMD Instinct MI350, l'accélérateur AMD Instinct MI350X, est basé sur l'architecture AMD CDNA 4 et devrait être disponible en 2025. Il utilisera la même conception de serveur Universal Baseboard standard que les autres accélérateurs de la série MI300 et sera construit à l'aide de la technologie de processus 3nm avancée, supportera les types de données IA FP4 et FP6 et aura jusqu'à 288 Go de mémoire HBM3E.
- L'architecture AMD CDNA « Next », qui alimentera les accélérateurs AMD Instinct MI400 Series, devrait être disponible en 2026 et offrir les dernières fonctionnalités et capacités qui aideront à débloquer des performances et une efficacité supplémentaires pour l'inférence et l'entraînement à l'IA à grande échelle.
Enfin, AMD a souligné que la demande pour les accélérateurs AMD Instinct MI300X continue de croître avec de nombreux partenaires et clients qui utilisent les accélérateurs pour alimenter leurs charges de travail exigeantes en matière d'IA, notamment :
- Microsoft Azure qui utilise les accélérateurs pour les services Azure OpenAI et les nouvelles machines virtuelles Azure ND MI300X V5.
- Dell Technologies qui utilise les accélérateurs MI300X dans le PowerEdge XE9680 pour les charges de travail d'IA d'entreprise.
- Supermicro qui fournit plusieurs solutions avec des accélérateurs AMD Instinct.
- Lenovo qui alimente l'innovation en matière d'IA hybride avec le ThinkSystem SR685a V3.
- HPE qui les utilise pour accélérer les charges de travail d'IA dans le HPE Cray XD675.
Et vous ?
Quel est votre avis sur le sujet ?
Pensez-vous qu'AMD sera en mesure de rivaliser avec NVIDIA sur le marché des puces d'IA ?
Voir aussi :
AMD répond à Nvidia avec de nouveaux benchmarks indiquant que sa puce MI300X a des performances 30 % plus élevées que le H100, Nvidia avait contesté les premiers tests de performance d'AMD
AMD prévoit le lancement d'une puce d'IA d'ici la fin de l'année pour concurrencer Nvidia et voit l'opportunité de l'IA en Chine
Meta et Microsoft annoncent qu'ils achèteront la nouvelle puce d'IA d'AMD pour remplacer celle de Nvidia
AMD annonce l'Instinct MI300, des accélérateurs d'IA générative et des APU pour centres de données, qui offrent des performances jusqu'à 1,3 fois plus élevées dans les charges de travail d'IA