Définir de nouvelles normes
Depuis leur création, les accélérateurs AMD Instinct™ ont fourni performances, efficacité et évolutivité aux clients de centres de données et à ceux qui cherchent à exploiter les possibilités de l'IA. Chaque génération a défini de nouvelles normes, offert des spécifications de pointe et contribué à optimiser les performances et à réduire le coût total de possession1.
Aujourd'hui, avec le lancement sur le marché des GPU AMD Instinct™ Série MI350 dans le cadre du récent événement Advancing AI, AMD relève à nouveau le niveau des attentes.
Basé sur l'IA, optimisé pour HPC, avec des performances de pointe
C'est le moment idéal pour présenter à vos clients les nouveaux GPU AMD Instinct™ MI350X et AMD Instinct™ MI355X, ainsi que leurs plateformes respectives, toutes deux construites sur l'architecture AMD CDNA™ de 4e génération et offrant jusqu'à 288 Go de mémoire HBM3E et 8 To/s de bande passante. Capables de tout gérer, de l'entraînement massif des modèles d'IA à l'inférence haute vitesse en passant par les charges de travail HPC complexes, les GPU AMD Instinct MI350X offrent jusqu'à 2,05 fois plus de performances FP6 que la plateforme B200 de Nvidia2, et les GPU AMD Instinct MI355X offrent 2 fois plus de performances FP6 que la plateforme GB2003, relevant une nouvelle fois la barre en matière de densité, d'efficacité et de débit à grande échelle.
À mesure que les exigences des clients et de l'infrastructure augmentent, AMD a conçu ces accélérateurs pour suivre le rythme. Ces nouveaux GPU à refroidissement par air s'intègrent en toute fluidité aux plateformes AMD Instinct™ Série MI300 de génération précédente et même à une infrastructure tierce. Ils permettent ainsi une mise à niveau simple et économique dans la quasi-totalité des scénarios où le calcul haute densité est nécessaire.
Les deux GPU AMD Instinct offrent une prise en charge étendue des types de données FP6 et FP4, ainsi qu'une prise en charge améliorée des traitements FP16 et FP8, offrant un débit de calcul et une utilisation de la bande passante mémoire sans compromis, tout en optimisant l'efficacité énergétique. Les GPU AMD Instinct Série MI350 exécutant FP4 offrent également des performances jusqu'à 7 fois supérieures par rapport aux GPU AMD Instinct MI300X exécutant FP164, ce qui leur permet d'offrir des performances incroyables en matière de modèles avancés d'IA générative et de repousser les limites plus loin que jamais.
Spécifications |
GPU AMD Instinct™ MI350X |
Plateforme AMD Instinct™ MI350X |
GPU AMD Instinct™ MI355X |
Plateforme AMD Instinct™ MI355X |
GPU |
OAM AMD Instinct MI350X |
8 OAM AMD Instinct MI350X |
OAM AMD Instinct MI355X |
8 OAM AMD Instinct MI355X |
Architecture GPU |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
Taille de la mémoire dédiée |
288 Go HBM3E |
2,3 To HBM3E |
288 Go HBM3E |
2,3 To HBM3E |
Bande passante mémoire |
8 To/s |
8 To/s par OAM |
8 To/s |
8 To/s par OAM |
Pic de performance en demi-précision (FP16)* |
4,6 PFLOPS |
36,8 PFLOPS |
4,6 PFLOPS |
36,8 PFLOPS |
Pic de performance en précision huit bits (FP8)* |
9,228 PFLOPS |
72 PFLOPS |
9,228 PFLOPS |
72 PFLOPS |
Pic de performance en précision six bits (FP6)* |
18,45 PFLOPS |
148 PFLOPS |
18,45 PFLOPS |
148 PFLOPS |
Pic de performance en précision quatre bits (FP4)* |
18,45 PFLOPS |
148 PFLOPS |
18,45 PFLOPS |
148 PFLOPS |
Refroidissement |
Refroidissement par air |
Refroidissement par air |
Refroidissement liquide direct |
Refroidissement liquide direct |
Consommation typique de la carte |
1000 W maximum |
1000 W maximum par OAM |
1400 W maximum |
1400 W maximum par OAM |
* avec une dispersion structurée
Software AMD ROCm™ nouvelle génération intégré
S'appuyant sur l'engagement d'AMD envers l'innovation open source, les GPU AMD Instinct Série MI350 sont intégrés à la pile software AMD ROCm™ nouvelle génération, la principale solution alternative ouverte du secteur pour les charges de travail IA et HPC.
Associées au lancement de ces nouveaux accélérateurs, les dernières améliorations du software AMD ROCm font passer les charges de travail d'IA au niveau supérieur, en optimisant davantage l'inférence d'IA, l'entraînement et la compatibilité du framework. Vous obtenez ainsi un débit élevé et des résultats à faible latence pour les charges de travail exigeantes telles que le traitement du langage naturel (NLP), la vision par ordinateur, etc.
Le software ROCm offre une prise en charge jour 0 pour les plateformes et modèles d'IA fournis par les leaders tels que OpenAI, Meta, PyTorch, Hugging Face, Databricks, Lamini, etc., grâce à des collaborations stratégiques et approfondies avec des partenaires clés. Grâce à tous ces éléments, les GPU AMD Instinct sont optimisés pour exécuter les derniers modèles et frameworks d'IA dès leur lancement, ce qui permet aux développeurs et aux entreprises d'accélérer l'intégration de l'IA à leurs workflows.
Ce n'est pas sans raison que les géants du secteur, tels que Microsoft et Meta, font confiance aux GPU AMD Instinct pour alimenter les déploiements d'IA à grande échelle pour des modèles comme Llama 405B et GPT. Contactez votre représentant AMD ou rendez-vous sur amd.com pour en savoir plus et aider vos clients à profiter de la puissance des accélérateurs AMD Instinct.
Ressources supplémentaires
AMD Arena
Améliorez vos connaissances sur les produits AMD avec des formations sur AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ et plus encore.
S'abonner
Recevez des communications mensuelles sur les derniers produits et ressources de formation AMD, ainsi que les webinaires Rencontrer les Experts.

Articles connexes
Notes de bas de page
- MI325-001A - Calculs effectués par AMD Performance Labs le 26 septembre 2024, sur la base des spécifications et/ou estimations actuelles. L'accélérateur OAM AMD Instinct™ MI325X offre une capacité de mémoire de 256 Go HBM3E et un pic de performance théorique de bande passante mémoire du GPU de 6 To/s. Les résultats réels peuvent varier selon la production de silicium.
Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Hopper H200 (141 Go) SXM ont indiqué une capacité de mémoire HBM3E de 141 Go et des performances de bande passante mémoire du GPU de 4,8 To/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Blackwell HGX B100 (192 Go) 700 W ont indiqué une capacité de mémoire HBM3E de 192 Go et des performances de bande passante mémoire du GPU de 8 To/s.
Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Blackwell HGX B200 (192 Go) ont indiqué une capacité de mémoire HBM3E de 192 Go et des performances de bande passante mémoire du GPU de 8 To/s.
Spécifications de Nvidia Blackwell sur https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW
- Sur la base des calculs réalisés par AMD Performance Labs en mai 2025, pour les plateformes à 8 GPU AMD Instinct™ MI350X/MI355X afin de déterminer le pic de performance théorique de précision en comparant les types de données FP64, FP32, TF32, FP16, FP8, FP6, FP4 et INT8 en matière de matrice, de tenseur, de vecteur et de dispersion, selon le cas, par rapport à la plateforme d'accélérateur NVIDIA HGX Blackwell B200. Les résultats peuvent varier en fonction de la configuration, du type de données et de la charge de travail. *Les accélérateurs Nvidia B200 ne prennent pas en charge Tensor FP32. MI350-010
- Sur la base des calculs réalisés par AMD Performance Labs en mai 2025, pour la plateforme 8 GPU AMD Instinct™ MI350X/MI355X afin de déterminer le pic de performance théorique de précision en comparant les types de données FP64, FP32, TF32, FP16, FP8, FP6, FP4 et INT8 en matière de matrice, de tenseur, de vecteur et de dispersion, selon le cas, par rapport à la plateforme 8 GPU NVIDIA Grace Blackwell GB200 NVL72. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les résultats peuvent varier en fonction de l'utilisation des pilotes et optimisations les plus récents. MI350-018
- Calculs effectués par AMD Performance Labs le 26 septembre 2024 pour la plateforme GPU AMD Instinct™ MI300X et comparant les performances de la plateforme GPU AMD Instinct™ MI300X sur les types de données FP16, FP8 et FP4.
Plateforme à 8 GPU Instinct MI355X
Pic de performance théorique en demi-précision (FP16) - 18,5 PFLOPS
Pic de performance théorique en précision huit bits (FP8) - 37 PFLOPS
Pic de performance théorique en précision quatre bits (FP4) - 74 PFLOPS
Plateforme à 8 GPU Instinct MI325X
Pic de performance théorique en demi-précision (FP16) - 10,4 PFLOPS
Pic de performance théorique en précision huit bits (FP8) - 20,88 PFLOPS
Plateforme à 8 GPU Instinct MI300X
Pic de performance théorique en demi-précision (FP16) - 10,4 PFLOPS
Les performances réelles varieront en fonction des spécifications finales et de la configuration du système. MI355-004
- MI325-001A - Calculs effectués par AMD Performance Labs le 26 septembre 2024, sur la base des spécifications et/ou estimations actuelles. L'accélérateur OAM AMD Instinct™ MI325X offre une capacité de mémoire de 256 Go HBM3E et un pic de performance théorique de bande passante mémoire du GPU de 6 To/s. Les résultats réels peuvent varier selon la production de silicium.
Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Hopper H200 (141 Go) SXM ont indiqué une capacité de mémoire HBM3E de 141 Go et des performances de bande passante mémoire du GPU de 4,8 To/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Blackwell HGX B100 (192 Go) 700 W ont indiqué une capacité de mémoire HBM3E de 192 Go et des performances de bande passante mémoire du GPU de 8 To/s.
Les résultats publiés les plus élevés sur l'accélérateur de GPU Nvidia Blackwell HGX B200 (192 Go) ont indiqué une capacité de mémoire HBM3E de 192 Go et des performances de bande passante mémoire du GPU de 8 To/s.
Spécifications de Nvidia Blackwell sur https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW - Sur la base des calculs réalisés par AMD Performance Labs en mai 2025, pour les plateformes à 8 GPU AMD Instinct™ MI350X/MI355X afin de déterminer le pic de performance théorique de précision en comparant les types de données FP64, FP32, TF32, FP16, FP8, FP6, FP4 et INT8 en matière de matrice, de tenseur, de vecteur et de dispersion, selon le cas, par rapport à la plateforme d'accélérateur NVIDIA HGX Blackwell B200. Les résultats peuvent varier en fonction de la configuration, du type de données et de la charge de travail. *Les accélérateurs Nvidia B200 ne prennent pas en charge Tensor FP32. MI350-010
- Sur la base des calculs réalisés par AMD Performance Labs en mai 2025, pour la plateforme 8 GPU AMD Instinct™ MI350X/MI355X afin de déterminer le pic de performance théorique de précision en comparant les types de données FP64, FP32, TF32, FP16, FP8, FP6, FP4 et INT8 en matière de matrice, de tenseur, de vecteur et de dispersion, selon le cas, par rapport à la plateforme 8 GPU NVIDIA Grace Blackwell GB200 NVL72. Les résultats peuvent varier en fonction des configurations créées par les fabricants de serveurs. Les résultats peuvent varier en fonction de l'utilisation des pilotes et optimisations les plus récents. MI350-018
- Calculs effectués par AMD Performance Labs le 26 septembre 2024 pour la plateforme GPU AMD Instinct™ MI300X et comparant les performances de la plateforme GPU AMD Instinct™ MI300X sur les types de données FP16, FP8 et FP4.
Plateforme à 8 GPU Instinct MI355X
Pic de performance théorique en demi-précision (FP16) - 18,5 PFLOPS
Pic de performance théorique en précision huit bits (FP8) - 37 PFLOPS
Pic de performance théorique en précision quatre bits (FP4) - 74 PFLOPS
Plateforme à 8 GPU Instinct MI325X
Pic de performance théorique en demi-précision (FP16) - 10,4 PFLOPS
Pic de performance théorique en précision huit bits (FP8) - 20,88 PFLOPS
Plateforme à 8 GPU Instinct MI300X
Pic de performance théorique en demi-précision (FP16) - 10,4 PFLOPS
Les performances réelles varieront en fonction des spécifications finales et de la configuration du système. MI355-004