Definição de novos padrões
Desde o início, os aceleradores AMD Instinct™ forneceram aos clientes de data center e àqueles que buscam aproveitar as possibilidades da IA desempenho, eficiência e escalabilidade. Cada geração definiu novos padrões, forneceu especificações líderes do setor e ajudou a otimizar o desempenho e reduzir o TCO.1
Agora, com a introdução das GPUs AMD Instinct™ Série MI350 no mercado como parte do recente evento Advancing AI (Impulsionando a IA), a AMD está elevando a expectativa mais uma vez.
Orientado por IA, otimizado para HPC, desempenho de liderança
Chegou a hora de apresentar aos seus clientes as novas GPUs AMD Instinct™ MI350X e AMD Instinct™ MI355X e suas respectivas plataformas, cada uma construída sobre a avançada arquitetura AMD CDNA™ de 4ª geração e ostentando até 288 GB de capacidade de memória HBM3E e 8 TB/s de largura de banda. Projetadas para tudo, desde treinamento intensivo de modelos de IA e inferência de alta velocidade até cargas de trabalho de HPC complexas, as GPUs AMD Instinct MI350X oferecem até 2,05 vezes o desempenho de FP6 da plataforma B200 da NVIDIA2, enquanto as GPUs AMD Instinct MI355X oferecem uma vantagem de 2 vezes o desempenho de FP6 em relação à GB200,3 definindo um novo padrão de densidade, eficiência e produtividade em escala.
À medida que as demandas dos clientes e da infraestrutura aumentam, a AMD projetou esses aceleradores para acompanhar esse ritmo. Essas novas GPUs com resfriamento a ar se integram perfeitamente à infraestrutura das gerações anteriores AMD Instinct™ MI300X e MI325X, oferecendo uma atualização econômica e sem complicações para praticamente qualquer cenário em que a computação de alta densidade seja uma necessidade.
Ambas as GPUs AMD Instinct oferecem suporte expandido para tipos de dados FP6 e FP4, além de suporte aprimorado para processamento FP16 e FP8, proporcionando uma produtividade computacional e uma utilização da largura de banda da memória inflexíveis e maximizando a eficiência de energia. As GPUs AMD Instinct Série MI350 também oferecem desempenho até 4 vezes melhor ao executarem FP4 em comparação com as GPUs AMD Instinct MI300X que executam FP8,4 posicionando-as para oferecer desempenho incrível quando se trata de modelos de IA generativa avançados e expandindo mais do que nunca os limites do espaço.
Especificação |
GPU AMD Instinct™ MI350X |
Plataforma AMD Instinct™ MI350X |
GPU AMD Instinct™ MI355X |
Plataforma AMD Instinct™ MI355X |
GPUs |
AMD Instinct MI350X OAM |
8 AMD Instinct MI350X OAM |
AMD Instinct MI355X OAM |
8 AMD Instinct MI355X OAM |
Arquitetura da GPU |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
AMD CDNA™ 4 |
Tamanho da memória dedicada |
HBM3E de 288 GB |
HBM3E de 2,3 TB |
HBM3E de 288 GB |
HBM3E de 2,3 TB |
Largura de banda de memória |
8 TB/s |
8 TB/s por OAM |
8 TB/s |
8 TB/s por OAM |
Desempenho máximo de meia precisão (FP16)* |
4,6 PFLOPS |
36,8 PFLOPS |
4,6 PFLOPS |
36,8 PFLOPS |
Desempenho máximo de precisão de oito bits (FP8)* |
9,228 PFLOPS |
72 PFLOPS |
9,228 PFLOPS |
72 PFLOPS |
Desempenho máximo de precisão de seis bits (FP6)* |
18,45 PFLOPS |
148 PFLOPS |
18,45 PFLOPS |
148 PFLOPS |
Desempenho máximo de precisão de quatro bits (FP4)* |
18,45 PFLOPS |
148 PFLOPS |
18,45 PFLOPS |
148 PFLOPS |
Resfriamento |
Resfriado a ar |
Resfriado a ar |
Líquido resfriado diretamente |
Líquido resfriado diretamente |
Alimentação de placa típica |
Pico de 1.000 W |
Pico de 1.000 W por OAM |
Pico de 1.400 W |
Pico de 1.400 W por OAM |
*com dispersão estruturada
Integrado ao software AMD ROCm™ de última geração
Com base no compromisso da AMD com a inovação de código-fonte aberto, as GPUs AMD Instinct Série MI350 estão integradas à pilha de software AMD ROCm™ de última geração, a principal alternativa aberta do setor para cargas de trabalho de IA e HPC.
Em conjunto com o lançamento desses novos aceleradores, os mais recentes aprimoramentos do software AMD ROCm elevam o nível das cargas de trabalho de IA, otimizando ainda mais a inferência de IA, o treinamento e a compatibilidade de estruturas, proporcionando resultados de alta produtividade e baixa latência para cargas de trabalho exigentes, como NLP (Natural Language Processing, Processamento de linguagem natural), visão computacional e muito mais.
O software ROCm oferece suporte de dia zero para plataformas e modelos de IA fornecidos por líderes como OpenAI, Meta, PyTorch, Hugging Face, xAI, DeepSeek e muito mais, graças a colaborações estratégicas e profundas com parceiros importantes. Tudo isso contribui para garantir que as GPUs AMD Instinct sejam otimizadas para executar os modelos e estruturas de IA mais recentes à medida que elas são lançadas, permitindo que desenvolvedores e empresas acelerem a forma como integram a IA em seus fluxos de trabalho.
Há uma razão pela qual os titãs do setor, como a Microsoft e a Meta, confiam nas GPUs AMD Instinct para alimentar implantações de IA em larga escala para modelos como Llama 405B e GPT. Fale com seu representante AMD ou visite amd.com para saber mais e ajude a capacitar seus clientes com o poder dos aceleradores AMD Instinct.
AMD Arena
Melhore seu conhecimento sobre os produtos AMD com treinamentos do AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ e muito mais.
Inscrever-se
Receba atualizações mensais sobre os produtos mais recentes da AMD, recursos de treinamento e sobre os webinars Conheça os especialistas.

Artigos relacionados
Notas de rodapé
- MI325-001A — Cálculos realizados pelo AMD Performance Labs em 26 de setembro de 2024, com base nas especificações e/ou estimativas atuais. O acelerador AMD Instinct™ MI325X OAM terá capacidade de memória HBM3E de 256 GB e desempenho teórico máximo de largura de banda de memória de GPU de 6 TB/s. Os resultados reais baseados na produção de silício podem variar.
Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Hopper H200 (141 GB) SXM resultaram em capacidade de memória HBM3E de 141 GB e desempenho de largura de banda de memória de GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Blackwell HGX B100 (192 GB) 700 W resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Blackwell HGX B200 (192 GB) resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Especificações para a NVIDIA Blackwell em https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW
- Segundo cálculos do AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI350X/MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e esparsidade (quando aplicável) vs. a plataforma de aceleradores NVIDIA HGX Blackwell B200. Os resultados podem variar com base na configuração, no tipo de dados, na carga de trabalho. MI350-010
- Segundo cálculos do AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e esparsidade, quando aplicável vs. a plataforma NVIDIA Grace Blackwell GB200 NVL72 com 8 GPUs. Os fabricantes de servidores podem ter outras configurações, gerando resultados diferentes. O resultado pode variar com base no uso dos drivers e otimizações mais recentes. MI350-018
- Com base em cálculos dos AMD Performance Labs em maio de 2025, para determinar o desempenho teórico máximo de precisão de oito (8) GPUs AMD Instinct™ MI355X e MI350X (plataforma) e oito (8) GPUs AMD Instinct MI325X, MI300X, MI250X e MI100 (plataforma), utilizando os tipos de dados FP16, FP8, FP6 e FP4 com Matrix. A configuração dos fabricantes de servidores pode variar e produzir resultados diferentes. Os resultados podem variar dependendo do uso dos drivers e das otimizações mais recentes. MI350-004
- MI325-001A — Cálculos realizados pelo AMD Performance Labs em 26 de setembro de 2024, com base nas especificações e/ou estimativas atuais. O acelerador AMD Instinct™ MI325X OAM terá capacidade de memória HBM3E de 256 GB e desempenho teórico máximo de largura de banda de memória de GPU de 6 TB/s. Os resultados reais baseados na produção de silício podem variar.
Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Hopper H200 (141 GB) SXM resultaram em capacidade de memória HBM3E de 141 GB e desempenho de largura de banda de memória de GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Blackwell HGX B100 (192 GB) 700 W resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Blackwell HGX B200 (192 GB) resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
Especificações para a NVIDIA Blackwell em https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW - Segundo cálculos do AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI350X/MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e esparsidade (quando aplicável) vs. a plataforma de aceleradores NVIDIA HGX Blackwell B200. Os resultados podem variar com base na configuração, no tipo de dados, na carga de trabalho. MI350-010
- Segundo cálculos do AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e esparsidade, quando aplicável vs. a plataforma NVIDIA Grace Blackwell GB200 NVL72 com 8 GPUs. Os fabricantes de servidores podem ter outras configurações, gerando resultados diferentes. O resultado pode variar com base no uso dos drivers e otimizações mais recentes. MI350-018
- Com base em cálculos dos AMD Performance Labs em maio de 2025, para determinar o desempenho teórico máximo de precisão de oito (8) GPUs AMD Instinct™ MI355X e MI350X (plataforma) e oito (8) GPUs AMD Instinct MI325X, MI300X, MI250X e MI100 (plataforma), utilizando os tipos de dados FP16, FP8, FP6 e FP4 com Matrix. A configuração dos fabricantes de servidores pode variar e produzir resultados diferentes. Os resultados podem variar dependendo do uso dos drivers e das otimizações mais recentes. MI350-004