Establecer nuevos estándares
Desde su creación, los aceleradores AMD Instinct™ han proporcionado rendimiento, eficiencia y escalabilidad a los clientes de centros de datos y a aquellos que quieren acercarse a las posibilidades de la IA. Cada generación ha establecido nuevos estándares, proporcionado especificaciones líderes en la industria y ayudado a optimizar el rendimiento y reducir el costo total de propiedad1.
Ahora, con la introducción de las GPU AMD Instinct™ Serie MI350 al mercado como parte del reciente evento Advancing AI, AMD eleva las expectativas una vez más.
Con IA, optimización para HPC y rendimiento líder
Es el momento de presentar a tus clientes las nuevas GPU AMD Instinct™ MI350X y AMD Instinct™ MI355X y sus respectivas plataformas, cada una basada en la arquitectura vanguardista AMD CDNA™ de 4.ª generación y que cuentan con una capacidad de hasta 288 GB de memoria HBM3E y 8 TB/s de ancho de banda. Diseñadas para todo, desde entrenamiento masivo de modelos de IA e inferencia de alta velocidad hasta cargas de trabajo complejas de HPC, las GPU AMD Instinct MI350X ofrecen hasta 2,05 veces el rendimiento de FP6 de la plataforma B200 de Nvidia2, mientras que las GPU AMD Instinct MI355X cuentan con dos veces la ventaja de FP6 por sobre la GB2003 a fin de establecer un nuevo nivel para la densidad, la eficacia y el rendimiento a escala.
A medida que aumentaron las exigencias de los clientes y la infraestructura, AMD diseñó estos aceleradores para mantener el ritmo. Estas nuevas GPU con sistema de refrigeración por aire se integran perfectamente en las plataformas AMD Instinct™ Serie MI300 de la generación anterior e incluso en infraestructuras de terceros, lo que las convierte en una actualización rentable y sencilla para prácticamente cualquier situación en la cual la informática de mayor densidad es una necesidad.
Ambas GPU AMD Instinct ofrecen un soporte ampliado para los tipos de datos FP6 y FP4, además de un soporte mejorado para el procesamiento de FP16 y FP8, lo que proporciona un rendimiento computacional y una utilización de ancho de banda de memoria sin concesiones mientras se maximiza la eficiencia energética. Las GPU AMD Instinct Serie MI350 también ofrecen hasta 7 veces mejor rendimiento al ejecutar FP4 en comparación con las GPU AMD Instinct MI300X que ejecutan FP164, lo que les permite ofrecer un rendimiento increíble cuando se trata de modelos avanzados de IA generativa y superar los límites del espacio más lejos que nunca.
Especificaciones |
GPU AMD Instinct™ MI350X |
Plataforma AMD Instinct™ MI350X |
GPU AMD Instinct™ MI355X |
Plataforma AMD Instinct™ MI355X |
GPU |
OAM AMD Instinct MI350X |
8 OAM AMD Instinct MI350X |
OAM AMD Instinct MI355X |
8 OAM AMD Instinct MI355X |
Arquitectura de GPU |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
Tamaño de memoria dedicado |
288 GB de memoria HBM3E |
2,3 TB de memoria HBM3E |
288 GB de memoria HBM3E |
2,3 TB de memoria HBM3E |
Ancho de banda de memoria |
8 TB/s |
8 TB/s por OAM |
8 TB/s |
8 TB/s por OAM |
Rendimiento de precisión media máxima (FP16)* |
4,6 PFLOPS |
36,8 PFLOPS |
4,6 PFLOPS |
36,8 PFLOPS |
Rendimiento de precisión de ocho bits máxima (FP8)* |
9,228 PFLOPS |
72 PFLOPS |
9,228 PFLOPS |
72 PFLOPS |
Rendimiento de precisión de seis bits máxima (FP6)* |
18,45 PFLOPS |
148 PFLOPS |
18,45 PFLOPS |
148 PFLOPS |
Rendimiento de precisión de cuatro bits máxima (FP4)* |
18,45 PFLOPS |
148 PFLOPS |
18,45 PFLOPS |
148 PFLOPS |
Refrigeración |
Sistema de refrigeración por aire |
Sistema de refrigeración por aire |
Sistema de refrigeración líquida directa |
Sistema de refrigeración líquida directa |
Potencia típica de la placa |
Potencia máxima de 1000 W |
Potencia máxima de 1000 W por OAM |
Potencia máxima de 1400 W |
Potencia máxima de 1400 W por OAM |
* con dispersión estructurada
Integra software AMD ROCm™ de próxima generación
Con base en el compromiso de AMD con la innovación de código abierto, las GPU AMD Instinct Serie MI350 están integradas en la pila de software AMD ROCm™ de próxima generación, la principal alternativa abierta de la industria para cargas de trabajo de IA y HPC.
Junto con el lanzamiento de estos nuevos aceleradores, las mejoras más recientes del software AMD ROCm llevan las cargas de trabajo de IA al siguiente nivel, lo que optimiza aún más la inferencia de IA, el entrenamiento de IA y la compatibilidad de marco, lo que proporciona un alto rendimiento, resultados de baja latencia para cargas de trabajo exigentes, como el NLP (Natural Language Processing, procesamiento de lenguaje natural), la visión artificial y mucho más.
El software ROCm proporciona soporte de día 0 para plataformas y modelos de IA proporcionados por líderes como OpenAI, Meta, PyTorch, Hugging Face, Databricks, Lamini y más, gracias a colaboraciones estratégicas y profundas con socios clave. Todo esto se suma a garantizar que las GPU AMD Instinct estén optimizadas para ejecutar los últimos modelos y marcos de IA a medida que se lanzan, lo que permite a desarrolladores y empresas acelerar la forma en que integran la IA en sus flujos de trabajo.
Hay una razón por la cual titanes de la industria como Microsoft y Meta confían en las GPU AMD Instinct para impulsar implementaciones de inteligencia artificial a gran escala para modelos como Llama 405B y GPT. Habla con tu representante de AMD o visita amd.com para obtener más información y ayudar a tus clientes con el poder de los aceleradores AMD Instinct.
Recursos adicionales
AMD Arena
Mejora tus conocimientos de los productos AMD con capacitaciones sobre AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ y mucho más.
Suscríbete
Obtén actualizaciones mensuales sobre los productos, los recursos de capacitación y los webinars “Conoce a los expertos” de AMD más recientes.

Artículos relacionados
Notas al pie
- MI325-001A: los cálculos realizados por los laboratorios de rendimiento de AMD al 26 de septiembre del 2024, con base en las especificaciones o estimaciones actuales. El acelerador AMD Instinct™ MI325X OAM tendrá una capacidad de 256 GB de memoria HBM3E y un rendimiento teórico máximo del ancho de banda de memoria de GPU de 6 TB/s. Los resultados reales basados en silicio para producción pueden variar.
Los resultados más altos publicados sobre el acelerador de GPU Nvidia Hopper H200 (141 GB) SXM arrojaron como resultado 141 GB de capacidad de memoria HBM3E y un rendimiento de ancho de banda de memoria de GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Los resultados más altos publicados sobre el acelerador de GPU Nvidia Blackwell HGX B100 (192 GB) 700 W arrojaron como resultado 192 GB de capacidad de memoria HBM3E y un rendimiento de ancho de banda de memoria de GPU de 8 TB/s.
Los resultados publicados más altos sobre el acelerador de GPU Nvidia Blackwell HGX B200 (192 GB) arrojaron como resultado 192 GB de capacidad de memoria HBM3E y un rendimiento de ancho de banda de memoria de GPU de 8 TB/s.
Especificaciones de Nvidia Blackwell en https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW
- Basado en cálculos realizados por los laboratorios de rendimiento de AMD en mayo del 2025 para las 8 plataformas de GPU AMD Instinct™ MI350X/MI355X a fin de determinar el rendimiento de precisión teórica máxima al comparar tipos de datos FP64, FP32, TF32, FP16, FP8, FP6, FP4 y INT8 con Matrix, Tensor, Vector y Sparsity, según corresponda en comparación con la plataforma del acelerador NVIDIA HGX Blackwell B200. Los resultados pueden cambiar según la configuración, el tipo de datos y la carga de trabajo. * Los aceleradores Nvidia B200 no admiten Tensor FP32. MI350-010
- Basado en cálculos realizados por los laboratorios de rendimiento de AMD en mayo de 2025 para las 8 plataformas de GPU AMD Instinct™ MI355X a fin de determinar el rendimiento de precisión teórica máxima al comparar tipos de datos FP64, FP32, TF32, FP16, FP8, FP6, FP4 y INT8 con Matrix, Tensor, Vector y Sparsity, según corresponda en comparación con la plataforma de GPU NVIDIA Grace Blackwell GB200 NVL72 8. Los fabricantes de servidores pueden variar las configuraciones, lo que arroja resultados diferentes. Los resultados pueden cambiar según el uso de los controladores y las optimizaciones más recientes. MI350-018
- Cálculos realizados por los laboratorios de rendimiento de AMD al 26 de septiembre del 2024 para el rendimiento de las plataformas de GPU AMD Instinct™ MI300X y AMD Instinct™ MI300X al comparar los tipos de datos FP16, FP8 y FP4.
8 módulos de plataforma de GPU Instinct MI355X
Rendimiento teórico de precisión media máxima (FP16): 18,5 PFLOPS
Rendimiento teórico de precisión de ocho bits máxima (FP8): 37 PFLOPS
Rendimiento teórico de precisión de cuatro bits máxima (FP4): 74 PFLOPS
8 módulos de plataforma de GPU Instinct MI325X
Rendimiento teórico de precisión media máxima (FP16): 10,4 PFLOPS
Rendimiento teórico de precisión de ocho bits máxima (FP8): 20,88 PFLOPS
8 módulos de plataforma de GPU Instinct MI300X
Rendimiento teórico de precisión media máxima (FP16): 10,4 PFLOPS
El rendimiento real variará según las especificaciones finales y la configuración del sistema. MI355-004
- MI325-001A: los cálculos realizados por los laboratorios de rendimiento de AMD al 26 de septiembre del 2024, con base en las especificaciones o estimaciones actuales. El acelerador AMD Instinct™ MI325X OAM tendrá una capacidad de 256 GB de memoria HBM3E y un rendimiento teórico máximo del ancho de banda de memoria de GPU de 6 TB/s. Los resultados reales basados en silicio para producción pueden variar.
Los resultados más altos publicados sobre el acelerador de GPU Nvidia Hopper H200 (141 GB) SXM arrojaron como resultado 141 GB de capacidad de memoria HBM3E y un rendimiento de ancho de banda de memoria de GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Los resultados más altos publicados sobre el acelerador de GPU Nvidia Blackwell HGX B100 (192 GB) 700 W arrojaron como resultado 192 GB de capacidad de memoria HBM3E y un rendimiento de ancho de banda de memoria de GPU de 8 TB/s.
Los resultados publicados más altos sobre el acelerador de GPU Nvidia Blackwell HGX B200 (192 GB) arrojaron como resultado 192 GB de capacidad de memoria HBM3E y un rendimiento de ancho de banda de memoria de GPU de 8 TB/s.
Especificaciones de Nvidia Blackwell en https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW - Basado en cálculos realizados por los laboratorios de rendimiento de AMD en mayo del 2025 para las 8 plataformas de GPU AMD Instinct™ MI350X/MI355X a fin de determinar el rendimiento de precisión teórica máxima al comparar tipos de datos FP64, FP32, TF32, FP16, FP8, FP6, FP4 y INT8 con Matrix, Tensor, Vector y Sparsity, según corresponda en comparación con la plataforma del acelerador NVIDIA HGX Blackwell B200. Los resultados pueden cambiar según la configuración, el tipo de datos y la carga de trabajo. * Los aceleradores Nvidia B200 no admiten Tensor FP32. MI350-010
- Basado en cálculos realizados por los laboratorios de rendimiento de AMD en mayo de 2025 para las 8 plataformas de GPU AMD Instinct™ MI355X a fin de determinar el rendimiento de precisión teórica máxima al comparar tipos de datos FP64, FP32, TF32, FP16, FP8, FP6, FP4 y INT8 con Matrix, Tensor, Vector y Sparsity, según corresponda en comparación con la plataforma de GPU NVIDIA Grace Blackwell GB200 NVL72 8. Los fabricantes de servidores pueden variar las configuraciones, lo que arroja resultados diferentes. Los resultados pueden cambiar según el uso de los controladores y las optimizaciones más recientes. MI350-018
- Cálculos realizados por los laboratorios de rendimiento de AMD al 26 de septiembre del 2024 para el rendimiento de las plataformas de GPU AMD Instinct™ MI300X y AMD Instinct™ MI300X al comparar los tipos de datos FP16, FP8 y FP4.
8 módulos de plataforma de GPU Instinct MI355X
Rendimiento teórico de precisión media máxima (FP16): 18,5 PFLOPS
Rendimiento teórico de precisión de ocho bits máxima (FP8): 37 PFLOPS
Rendimiento teórico de precisión de cuatro bits máxima (FP4): 74 PFLOPS
8 módulos de plataforma de GPU Instinct MI325X
Rendimiento teórico de precisión media máxima (FP16): 10,4 PFLOPS
Rendimiento teórico de precisión de ocho bits máxima (FP8): 20,88 PFLOPS
8 módulos de plataforma de GPU Instinct MI300X
Rendimiento teórico de precisión media máxima (FP16): 10,4 PFLOPS
El rendimiento real variará según las especificaciones finales y la configuración del sistema. MI355-004