Definição de novos padrões

Desde o início, os aceleradores AMD Instinct™ forneceram aos clientes de data center e àqueles que buscam aproveitar as possibilidades da IA desempenho, eficiência e escalabilidade. Cada geração definiu novos padrões, forneceu especificações líderes do setor e ajudou a otimizar o desempenho e reduzir o TCO.1

Agora, com a introdução das GPUs AMD Instinct™ Série MI350 no mercado como parte do recente evento Advancing AI (Impulsionando a IA), a AMD está elevando a expectativa mais uma vez.

Orientado por IA, otimizado para HPC, desempenho de liderança

Chegou a hora de apresentar aos seus clientes as novas GPUs AMD Instinct™ MI350X e AMD Instinct™ MI355X e suas respectivas plataformas, cada uma construída sobre a avançada arquitetura AMD CDNA™ de 4ª geração e ostentando até 288 GB de capacidade de memória HBM3E e 8 TB/s de largura de banda. Projetadas para tudo, desde treinamento intensivo de modelos de IA e inferência de alta velocidade até cargas de trabalho de HPC complexas, as GPUs AMD Instinct MI350X oferecem até 2,05 vezes o desempenho de FP6 da plataforma B200 da NVIDIA2, enquanto as GPUs AMD Instinct MI355X oferecem uma vantagem de 2 vezes o desempenho de FP6 em relação à GB200,3 definindo um novo padrão de densidade, eficiência e produtividade em escala.

Como as demandas dos clientes e da infraestrutura aumentaram, a AMD projetou esses aceleradores para acompanhar o ritmo. Essas novas GPUs resfriadas a ar se integram perfeitamente às plataformas AMD Instinct™ Série MI300 da geração anterior e até mesmo à infraestrutura de terceiros, tornando-as uma atualização descomplicada e econômica para praticamente qualquer cenário em que a computação de maior densidade seja uma necessidade.

Ambas as GPUs AMD Instinct oferecem suporte expandido para tipos de dados FP6 e FP4, além de suporte aprimorado para processamento FP16 e FP8, proporcionando uma produtividade computacional e uma utilização da largura de banda da memória inflexíveis e maximizando a eficiência de energia. As GPUs AMD Instinct Série MI350 também oferecem desempenho até 7 vezes melhor ao executarem FP4 em comparação com as GPUs AMD Instinct MI300X que executam FP16,4 posicionando-as para oferecer desempenho incrível quando se trata de modelos de IA generativa avançados e expandindo mais do que nunca os limites do espaço.

Especificação

GPU AMD Instinct™ MI350X

Plataforma AMD Instinct™ MI350X

GPU AMD Instinct™ MI355X

Plataforma AMD Instinct™ MI355X

GPUs

AMD Instinct MI350X OAM

8 AMD Instinct MI350X OAM

AMD Instinct MI355X OAM

8 AMD Instinct MI355X OAM

Arquitetura da GPU

AMD CDNA™ 4

AMD CDNA™ 4

AMD CDNA™ 4

AMD CDNA™ 4

Tamanho da memória dedicada

HBM3E de 288 GB

HBM3E de 2,3 TB

HBM3E de 288 GB

HBM3E de 2,3 TB

Largura de banda de memória

8 TB/s

8 TB/s por OAM

8 TB/s

8 TB/s por OAM

Desempenho máximo de meia precisão (FP16)*

4,6 PFLOPS

36,8 PFLOPS

4,6 PFLOPS

36,8 PFLOPS

Desempenho máximo de precisão de oito bits (FP8)*

9,228 PFLOPS

72 PFLOPS

9,228 PFLOPS

72 PFLOPS

Desempenho máximo de precisão de seis bits (FP6)*

18,45 PFLOPS

148 PFLOPS

18,45 PFLOPS

148 PFLOPS

Desempenho máximo de precisão de quatro bits (FP4)*

18,45 PFLOPS

148 PFLOPS

18,45 PFLOPS

148 PFLOPS

Resfriamento

Resfriado a ar

Resfriado a ar

Líquido resfriado diretamente

Líquido resfriado diretamente

Alimentação de placa típica

Pico de 1.000 W

Pico de 1.000 W por OAM

Pico de 1.400 W

Pico de 1.400 W por OAM

*com dispersão estruturada

Integrado ao software AMD ROCm™ de última geração

Com base no compromisso da AMD com a inovação de código-fonte aberto, as GPUs AMD Instinct Série MI350 estão integradas à pilha de software AMD ROCm™ de última geração, a principal alternativa aberta do setor para cargas de trabalho de IA e HPC.

Em conjunto com o lançamento desses novos aceleradores, os mais recentes aprimoramentos do software AMD ROCm elevam o nível das cargas de trabalho de IA, otimizando ainda mais a inferência de IA, o treinamento e a compatibilidade de estruturas, proporcionando resultados de alta produtividade e baixa latência para cargas de trabalho exigentes, como NLP (Natural Language Processing, Processamento de linguagem natural), visão computacional e muito mais.

O software ROCm oferece suporte de dia zero para plataformas e modelos de IA fornecidos por líderes como OpenAI, Meta, PyTorch, Hugging Face, Databricks, Lamini e muito mais, graças a colaborações estratégicas e profundas com parceiros importantes. Tudo isso contribui para garantir que as GPUs AMD Instinct sejam otimizadas para executar os modelos e estruturas de IA mais recentes à medida que elas são lançadas, permitindo que desenvolvedores e empresas acelerem a forma como integram a IA em seus fluxos de trabalho.

Há uma razão pela qual os titãs do setor, como a Microsoft e a Meta, confiam nas GPUs AMD Instinct para alimentar implantações de IA em larga escala para modelos como Llama 405B e GPT. Fale com seu representante AMD ou visite amd.com para saber mais e ajude a capacitar seus clientes com o poder dos aceleradores AMD Instinct.

AMD Arena


Melhore seu conhecimento sobre os produtos AMD com treinamentos do AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ e muito mais.

Artigos relacionados

Notas de rodapé
  1. MI325-001A — Cálculos realizados pelo AMD Performance Labs em 26 de setembro de 2024, com base nas especificações e/ou estimativas atuais. O acelerador AMD Instinct™ MI325X OAM terá capacidade de memória HBM3E de 256 GB e desempenho teórico máximo de largura de banda de memória de GPU de 6 TB/s. Os resultados reais baseados na produção de silício podem variar.
    Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Hopper H200 (141 GB) SXM resultaram em capacidade de memória HBM3E de 141 GB e desempenho de largura de banda de memória de GPU de 4,8 TB/s.  https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
    Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Blackwell HGX B100 (192 GB) 700 W resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
    Os melhores resultados publicados sobre o acelerador de GPU NVIDIA Blackwell HGX B200 (192 GB) resultaram em capacidade de memória HBM3E de 192 GB e desempenho de largura de banda de memória de GPU de 8 TB/s.
    Especificações para a NVIDIA Blackwell em https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZBaW
  2. Segundo cálculos do AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI350X/MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e esparsidade (quando aplicável) vs. a plataforma de aceleradores NVIDIA HGX Blackwell B200. Os resultados podem variar com base na configuração, no tipo de dados, na carga de trabalho. * Os aceleradores NVIDIA B200 não são compatíveis com o Tensor FP32. MI350-010
  3. Segundo cálculos do AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e esparsidade, quando aplicável vs. a plataforma NVIDIA Grace Blackwell GB200 NVL72 com 8 GPUs. Os fabricantes de servidores podem ter outras configurações, gerando resultados diferentes. O resultado pode variar com base no uso dos drivers e otimizações mais recentes. MI350-018
  4. Cálculos realizados pelo AMD Performance Labs em 26 de setembro de 2024, para a plataforma GPU AMD Instinct™ MI300X e o desempenho da plataforma GPU AMD Instinct™ MI300X comparando os tipos de dados FP16, FP8 e FP4.

    Plataforma com 8 GPUs Instinct MI355X
    Desempenho teórico máximo de meia precisão (FP16) – 18,5 PFLOPS
    Desempenho teórico máximo de precisão de oito bits (FP8) – 37 PFLOPS
    Desempenho teórico máximo de precisão de quatro bits (FP4) – 74 PFLOPS

    Plataforma com 8 GPUs Instinct MI325X
    Desempenho teórico máximo de meia precisão (FP16) – 10,4 PFLOPS
    Desempenho teórico máximo de precisão de oito bits (FP8) – 20,88 PFLOPS

    Plataforma com 8 GPUs Instinct MI300X
    Desempenho teórico máximo de meia precisão (FP16) – 10,4 PFLOPS

    O desempenho real varia de acordo com as especificações finais e a configuração do sistema. MI355-004