Définir de nouvelles normes

Depuis leur création, les accélérateurs AMD Instinct™ ont fourni performances, efficacité et évolutivité aux clients de centres de données et à ceux qui cherchent à exploiter les possibilités de l'IA. Chaque génération a défini de nouvelles normes, offert des spécifications de pointe et contribué à optimiser les performances et à réduire le coût total de possession1.

Aujourd'hui, avec le lancement sur le marché des GPU AMD Instinct™ Série MI350 dans le cadre du récent événement Advancing AI, AMD relève à nouveau le niveau des attentes.

Basé sur l'IA, optimisé pour HPC, avec des performances de pointe

C'est le moment idéal pour présenter à vos clients les nouveaux GPU AMD Instinct™ MI350X et AMD Instinct™ MI355X, ainsi que leurs plateformes respectives, toutes deux construites sur l'architecture AMD CDNA™ de 4e génération et offrant jusqu'à 288 Go de mémoire HBM3E et 8 To/s de bande passante. Capables de tout gérer, de l'entraînement massif des modèles d'IA à l'inférence haute vitesse en passant par les charges de travail HPC complexes, les GPU AMD Instinct MI350X offrent jusqu'à 2,05 fois plus de performances FP6 que la plateforme B200 de Nvidia2, et les GPU AMD Instinct MI355X offrent 2 fois plus de performances FP6 que la plateforme GB2003, relevant une nouvelle fois la barre en matière de densité, d'efficacité et de débit à grande échelle.

À mesure que les exigences des clients et de l'infrastructure augmentent, AMD a conçu ces accélérateurs pour suivre le rythme. Ces nouveaux GPU à refroidissement par air s'intègrent en toute fluidité aux plateformes AMD Instinct™ Série MI300 de génération précédente et même à une infrastructure tierce. Ils permettent ainsi une mise à niveau simple et économique dans la quasi-totalité des scénarios où le calcul haute densité est nécessaire.

Les deux GPU AMD Instinct offrent une prise en charge étendue des types de données FP6 et FP4, ainsi qu'une prise en charge améliorée des traitements FP16 et FP8, offrant un débit de calcul et une utilisation de la bande passante mémoire sans compromis, tout en optimisant l'efficacité énergétique. Les GPU AMD Instinct Série MI350 exécutant FP4 offrent également des performances jusqu'à 7 fois supérieures par rapport aux GPU AMD Instinct MI300X exécutant FP164, ce qui leur permet d'offrir des performances incroyables en matière de modèles avancés d'IA générative et de repousser les limites plus loin que jamais.

Spécifications

GPU AMD Instinct™ MI350X

Plateforme AMD Instinct™ MI350X

GPU AMD Instinct™ MI355X

Plateforme AMD Instinct™ MI355X

GPU

OAM AMD Instinct MI350X

8 OAM AMD Instinct MI350X

OAM AMD Instinct MI355X

8 OAM AMD Instinct MI355X

Architecture GPU

AMD CDNA™ 4

AMD CDNA™ 4

AMD CDNA™ 4

AMD CDNA™ 4

Taille de la mémoire dédiée

288 Go HBM3E

2,3 To HBM3E

288 Go HBM3E

2,3 To HBM3E

Bande passante mémoire

8 To/s

8 To/s par OAM

8 To/s

8 To/s par OAM

Pic de performance en demi-précision (FP16)*

4,6 PFLOPS

36,8 PFLOPS

4,6 PFLOPS

36,8 PFLOPS

Pic de performance en précision huit bits (FP8)*

9,228 PFLOPS

72 PFLOPS

9,228 PFLOPS

72 PFLOPS

Pic de performance en précision six bits (FP6)*

18,45 PFLOPS

148 PFLOPS

18,45 PFLOPS

148 PFLOPS

Pic de performance en précision quatre bits (FP4)*

18,45 PFLOPS

148 PFLOPS

18,45 PFLOPS

148 PFLOPS

Refroidissement

Refroidissement par air

Refroidissement par air

Refroidissement liquide direct

Refroidissement liquide direct

Consommation typique de la carte

1000 W maximum

1000 W maximum par OAM

1400 W maximum

1400 W maximum par OAM

* avec une dispersion structurée

Software AMD ROCm™ nouvelle génération intégré

S'appuyant sur l'engagement d'AMD envers l'innovation open source, les GPU AMD Instinct Série MI350 sont intégrés à la pile software AMD ROCm™ nouvelle génération, la principale solution alternative ouverte du secteur pour les charges de travail IA et HPC.

Associées au lancement de ces nouveaux accélérateurs, les dernières améliorations du software AMD ROCm font passer les charges de travail d'IA au niveau supérieur, en optimisant davantage l'inférence d'IA, l'entraînement et la compatibilité du framework. Vous obtenez ainsi un débit élevé et des résultats à faible latence pour les charges de travail exigeantes telles que le traitement du langage naturel (NLP), la vision par ordinateur, etc.

Le software ROCm offre une prise en charge jour 0 pour les plateformes et modèles d'IA fournis par les leaders tels que OpenAI, Meta, PyTorch, Hugging Face, Databricks, Lamini, etc., grâce à des collaborations stratégiques et approfondies avec des partenaires clés. Grâce à tous ces éléments, les GPU AMD Instinct sont optimisés pour exécuter les derniers modèles et frameworks d'IA dès leur lancement, ce qui permet aux développeurs et aux entreprises d'accélérer l'intégration de l'IA à leurs workflows.

Ce n'est pas sans raison que les géants du secteur, tels que Microsoft et Meta, font confiance aux GPU AMD Instinct pour alimenter les déploiements d'IA à grande échelle pour des modèles comme Llama 405B et GPT. Contactez votre représentant AMD ou rendez-vous sur amd.com pour en savoir plus et aider vos clients à profiter de la puissance des accélérateurs AMD Instinct.

AMD Arena


Améliorez vos connaissances sur les produits AMD avec des formations sur AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ et plus encore.

Notes de bas de page
  1. MI325-001A - Calculs effectués par AMD Performance Labs le 26 septembre 2024, sur la base des spécifications et/ou estimations actuelles. L'accélérateur OAM AMD Instinct™ MI325X offre une capacité de mémoire de 256 Go HBM3E et un pic de performance théorique de bande passante mémoire du GPU de 6 To/s. Les résultats réels peuvent varier selon la production de silicium.
    Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Hopper H200 (141 Go) SXM ont indiqué une capacité de mémoire HBM3E de 141 Go et des performances de bande passante mémoire du GPU de 4,8 To/s.  https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
    Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Blackwell HGX B100 (192 Go) 700 W ont indiqué une capacité de mémoire HBM3E de 192 Go et des performances de bande passante mémoire du GPU de 8 To/s.
    Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Blackwell HGX B200 (192 Go) ont indiqué une capacité de mémoire HBM3E de 192 Go et des performances de bande passante mémoire du GPU de 8 To/s.
    Spécifications de Nvidia Blackwell sur https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW
  2. Sur la base des calculs réalisés par AMD Performance Labs en mai 2025, pour les plateformes à 8 GPU AMD Instinct™ MI350X/MI355X afin de déterminer le pic de performance théorique de précision en comparant les types de données FP64, FP32, TF32, FP16, FP8, FP6, FP4 et INT8 en matière de matrice, de tenseur, de vecteur et de dispersion, selon le cas, par rapport à la plateforme d'accélérateur NVIDIA HGX Blackwell B200. Les résultats peuvent varier en fonction de la configuration, du type de données et de la charge de travail. *Les accélérateurs Nvidia B200 ne prennent pas en charge Tensor FP32. MI350-010
  3. Sur la base des calculs réalisés par AMD Performance Labs en mai 2025, pour la plateforme 8 GPU AMD Instinct™ MI350X/MI355X afin de déterminer le pic de performance théorique de précision en comparant les types de données FP64, FP32, TF32, FP16, FP8, FP6, FP4 et INT8 en matière de matrice, de tenseur, de vecteur et de dispersion, selon le cas, par rapport à la plateforme 8 GPU NVIDIA Grace Blackwell GB200 NVL72. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les résultats peuvent varier en fonction de l'utilisation des pilotes et optimisations les plus récents. MI350-018
  4. Calculs effectués par AMD Performance Labs le 26 septembre 2024 pour la plateforme GPU AMD Instinct™ MI300X et comparant les performances de la plateforme GPU AMD Instinct™ MI300X sur les types de données FP16, FP8 et FP4.

    Plateforme à 8 GPU Instinct MI355X
    Pic de performance théorique en demi-précision (FP16) - 18,5 PFLOPS
    Pic de performance théorique en précision huit bits (FP8) - 37 PFLOPS
    Pic de performance théorique en précision quatre bits (FP4) - 74 PFLOPS

    Plateforme à 8 GPU Instinct MI325X
    Pic de performance théorique en demi-précision (FP16) - 10,4 PFLOPS
    Pic de performance théorique en précision huit bits (FP8) - 20,88 PFLOPS

    Plateforme à 8 GPU Instinct MI300X
    Pic de performance théorique en demi-précision (FP16) - 10,4 PFLOPS

    Les performances réelles varieront en fonction des spécifications finales et de la configuration du système. MI355-004