Aceleração de IA e computação de alto desempenho com liderança no setor 

As GPUs AMD Instinct™ Série MI350 estabelecem um novo padrão para IA generativa e computação de alto desempenho (HPC) em data centers. Baseadas na nova arquitetura AMD CDNA™ de 4ª geração com tecnologia de ponta, essas GPUs oferecem eficiência e desempenho excepcionais para o treinamento de modelos de IA de larga escala, inferência em alta velocidade e cargas de trabalho de HPC complexas, como simulações científicas, processamento de dados e modelagem computacional.

AMD Instinct MI350 Series

Equipamento interno

O desempenho definitivo em IA e HPC

Baseadas na arquitetura com tecnologia de ponta AMD CDNA™ de 4ª geração, as GPUs AMD Instinct™ Série MI350 contam com núcleos potentes e alta eficiência em termos de energia, maximizando o desempenho por watt para impulsionar a próxima era da inovação em IA e computação de alto desempenho.

Benefícios

Aceleração revolucionária de IA com memória massiva

As GPUs AMD Instinct™ Série MI350 redefinem a aceleração de IA com suporte aos novos tipos de dados FP6 e FP4 (com dispersão de matriz), otimizando a eficiência, largura de banda e o consumo de energia para inferência e treinamento ultrarrápidos.

Projetadas para impulsionar o desempenho dos modelos de IA mais exigentes, as GPUs Instinct MI350 contam com 288 GB de memória HBM3E e largura de banda de 8 TB/s, oferecendo um grande salto de desempenho em relação às gerações anteriores.1

AI technology concept

Segurança avançada para IA e HPC

As GPUs AMD Instinct™ Série MI350 ajudam a garantir firmware confiável, verificar a integridade do hardware, viabilizar o compartilhamento seguro de GPU entre múltiplos locatários e criptografar a comunicação da GPU — aumentando a confiabilidade, a escalabilidade e a segurança dos dados em cargas de trabalho de IA na nuvem e aplicações críticas.

Circuit board with security symbol

Implantação contínua e otimização de IA

As GPUs AMD Instinct™ Série MI350 ajudam a viabilizar uma adoção sem atritos com compatibilidade imediata ("drop-in"), enquanto o AMD GPU Operator simplifica a implantação e a configuração de cargas de trabalho no Kubernetes. Equipados com pilha de software aberta AMD ROCm™, os desenvolvedores contam com suporte desde o primeiro dia para os principais frameworks e modelos de IA, como OpenAI, Meta, PyTorch, Hugging Face e outros — ajudando a garantir uma execução eficiente e de alto desempenho, sem dependência de fornecedor.

Abstract datacenter concept

Confiança de líderes do setor

Líderes e inovadores do setor confiam nas GPUs AMD Instinct™ para IA em larga escala, estando presentes modelos como Llama 405B e GPT. A ampla adoção das GPUs AMD Instinct por CSPs e OEMs está impulsionando a próxima geração da IA em grande escala.

Abstract data center concept

Conheça a série

Conheça as GPUs AMD Instinct Série MI350 e as plataformas AMD Instinct Série MI350.

Conheça as GPUs AMD Instinct™ Série MI350

Baseadas na arquitetura AMD CDNA™ de 4ª geração, as GPUs AMD Instinct™ Série MI350 oferecem desempenho excepcional para inferência e treinamento de IA, além de cargas de trabalho de HPC, com memória HBM3E de 288 GB, largura de banda de 8 TB/s e suporte expandido para tipos de dados, incluindo FP6 e FP4.

256 CUs

256 unidades de computação da GPU

288 GB

288 GB de memória HBM3E

8 TB/s

Largura de banda de memória máxima teórica de 8 TB/s

Comparações de especificações

Desempenho em IA (PFLOPs máximos)

Até 2,1X o desempenho em IA em comparação com aceleradores concorrentes2

FP16/BF16 (Tensor/Matriz)
4,5
5,0
B200 SXM5
MI355X OAM
FP8/INT8 (Tensor/Matrix)
9
10,1
B200 SXM5
MI355X OAM
FP6 (Tensor/Matrix)
9
20,1
B200 SXM5
MI355X OAM

B200 SXM5 – 180 GB (com suporte total a dispersão)

MI355X OAM – 288 GB (com suporte total a dispersão)

Desempenho HPC (TFLOPs de pico)

Até 2,1 vezes o desempenho HPC em comparação com os aceleradores da concorrência3

FP64 (vetor)
37
78,6
B200 SXM5
MI355X OAM
FP64 (Tensor/Matriz)
37
78,6
B200 SXM5
MI355X OAM
FP32 (vetor)
75
157,3
B200 SXM5
MI355X OAM

B200 SXM5 180 GB

MI355X OAM 288 GB

Capacidade de memória e largura de banda

1,6X mais capacidade de memória em comparação com aceleradores concorrentes¹

Capacidade de memória
180 GB
288 GB
B200 SXM5
MI355X OAM
Largura de banda de memória
7,7 TB/s
8,0 TB/s
B200 SXM5
MI355X OAM

B200 SXM5 180 GB

MI355X OAM 288 GB

Plataformas AMD Instinct

As plataformas AMD Instinct Série MI350 integram oito módulos de GPU MI355X ou MI350X OAM totalmente conectados em um design de OCP padrão do setor por meio da tecnologia AMD Infinity Fabric™ de 4ª geração, com uma liderança no setor em capacidade de memória HBM3E de 2,3 TB para processamento de IA com alta produtividade. Essas plataformas prontas para implantação agora oferecem suporte a uma variedade de sistemas — desde servidores padrão com resfriamento a ar baseados em UBB até plataformas ultradensas com resfriamento líquido direto (DLC) — ajudando a acelerar o tempo de comercialização e a reduzir os custos de desenvolvimento ao integrar GPUs AMD Instinct Série MI350 em infraestruturas de racks e servidores de IA existentes.

8 GPUs da Série MI350

Oito (8) módulos de GPU OAM MI355X ou MI350X

2,3 TB

2,3 TB de memória total HBM3E

64 TB/s

64 TB/s de largura de banda de memória teórica agregada máxima

Software AMD ROCm™

O software AMD ROCm™ inclui um amplo conjunto de modelos de programação, ferramentas, compiladores, bibliotecas e tempos de execução para modelos de IA e cargas de trabalho de HPC direcionados às GPUs AMD Instinct.

Estudos de caso

Encontre soluções

Experimente GPUs AMD Instinct na nuvem

Ofereça suporte às suas necessidades de IA, HPC e desenvolvimento de software com programas compatíveis com os principais provedores de serviços de nuvem.

Abstract data center interior with glowing lights
AMD Instinct MI350 Series

Parceiros GPU AMD Instinct e soluções de servidor

A AMD colabora com os principais OEMs (Original Equipment Manufacturers, Fabricantes de equipamentos originais) e designers de plataformas para oferecer um ecossistema robusto de soluções AMD Instinct alimentadas por GPU.

Recursos

Fique por dentro

Inscreva-se para receber as últimas notícias sobre data centers e conteúdo sobre servidores.

Notas de rodapé
  1. Cálculos realizados pelos AMD Performance Labs em 22 de maio de 2025, com base nas especificações atuais e/ou estimativas. Os aceleradores AMD Instinct™ MI355X OAM têm capacidade de memória HBM3e de 288 GB e desempenho de largura de banda de memória teórica máxima da GPU de 8 TB/s. Os resultados mais altos publicados para o acelerador de GPU Nvidia Hopper H200 (141 GB) SXM resultaram em 141 GB de capacidade de memória HBM3e e desempenho de largura de banda de memória da GPU de 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446 Os resultados mais altos publicados para o acelerador de GPU Nvidia Blackwell HGX B200 (180 GB) resultaram em 180 GB de capacidade de memória HBM3e e desempenho de largura de banda de memória da GPU de 7,7 TB/s. https://nvdam.widen.net/s/wwnsxrhm2w/blackwell-datasheet-3384703 Os resultados mais altos publicados para o acelerador de GPU Nvidia Grace Blackwell GB200 (186 GB) resultaram em 186 GB de capacidade de memória HBM3e e desempenho de largura de banda de memória da GPU de 8 TB/s. https://nvdam.widen.net/s/wwnsxrhm2w/blackwell-datasheet-3384703 MI350-001
  2. Com base em cálculos realizados pelos AMD Performance Labs em maio de 2025, para determinar o desempenho teórico máximo de precisão das GPUs AMD Instinct™ MI350X/MI355X, ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6 e FP4, INT8 e bfloat16 com Vector, Matrix, Dispersão ou Tensor com Dispersão, conforme aplicável, em comparação com o acelerador NVIDIA Blackwell B200. Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. MI350-009
  3. Com base em cálculos realizados pelos AMD Performance Labs em maio de 2025 para determinar o desempenho teórico máximo de precisão das GPUs AMD Instinct™ MI350X/MI355X, ao comparar os formatos FP64 e FP32 com Vector, Matrix ou Tensor, conforme aplicável, em comparação ao NVIDIA Blackwell B200. Os resultados podem variar conforme a configuração do servidor, tipo de dado e carga de trabalho. O desempenho pode variar com base no uso dos drivers e otimizações mais recentes. MI350-019
  4. Com base em cálculos realizados pelos AMD Performance Labs em 17 de abril de 2025 sobre as especificações de memória publicadas das GPUs AMD Instinct MI350X/MI355X (288 GB) vs. MI300X (192 GB) vs. MI325X (256 GB).  Cálculos realizados com o tipo de dado FP16, considerando (2) bytes por parâmetro, para determinar o número mínimo de GPUs (com base na capacidade de memória) necessárias para executar os seguintes LLMs: OPT (130 bilhões de parâmetros), GPT-3 (175 bilhões de parâmetros), BLOOM (176 bilhões de parâmetros), Gopher (280 bilhões de parâmetros), PaLM 1 (340 bilhões de parâmetros), LM genérico (420 bilhões, 500 bilhões, 520 bilhões, 1,047 trilhão de parâmetros), Megatron-LM (530 bilhões de parâmetros), LLaMA (405 bilhões de parâmetros) e Samba (1 trilhão de parâmetros). Resultados com base no tamanho da memória da GPU em comparação com a memória exigida pelo modelo nos parâmetros definidos mais 10% de sobrecarga. Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. Os resultados podem variar de acordo com a configuração de memória da GPU, o tamanho do LLM e eventuais variações no acesso à memória da GPU ou no ambiente operacional do servidor. MI350-012.
  5. Segundo cálculos dos AMD Performance Labs em maio de 2025, para as plataformas com 8 GPUs AMD Instinct™ MI350X/MI355X para determinar o desempenho teórico máximo de precisão ao comparar os tipos de dados FP64, FP32, TF32, FP16, FP8, FP6, FP4 e INT8 com operações de matriz, tensor, vetor e dispersão (quando aplicável) vs. a plataforma de aceleradores NVIDIA HGX Blackwell B200. Os resultados podem variar com base na configuração, no tipo de dados, na carga de trabalho, 
    Os aceleradores NVIDIA B200 não são compatíveis com o Tensor FP32.
    Plataforma com 8 GPUs AMD Instinct™ MI355X 
    Precisão dupla teórica máxima (Matriz FP64): 628,8 TFLOPs 
    Precisão teórica simples máxima (Matriz FP32): 1.258,4 TFLOPs 
    Precisão teórica simples máxima (Matriz TF32): 20,1 PFLOPs 
    Meia precisão teórica máxima (Matriz FP16) com dispersão: 40,3 PFLOPs 
    Precisão teórica máxima em 8-bits (Matriz FP8) com dispersão: 80,5 PFLOPs
    Precisão teórica máxima em 6-bits (Matriz FP6) com dispersão: 161,1 PFLOPs 
    Precisão teórica máxima em 4-bits (Matriz FP4) com dispersão: 161,1 PFLOPs
    Desempenho teórico máximo (Matriz INT8) com dispersão: 80,5 POPs 
    Desempenho teórico máximo em bfloat16 (Matriz bfloat16) com dispersão: 40,3 PFLOPs 
    Plataforma com 8 GPUs AMD Instinct™ MI350X 
    Precisão dupla teórica máxima (Matriz FP64): 576,8 TFLOPs 
    Precisão simples teórica máxima (Matriz FP32): 1.153,6 TFLOPs 
    Precisão simples teórica máxima (Matriz TF32): 18,5 PFLOPs 
    Precisão de meia precisão teórica máxima (Matriz FP16) com dispersão: 36,8 PFLOPs 
    Precisão teórica máxima em 8-bits (Matriz FP8) com dispersão: 73,8 PFLOPs
    Precisão teórica máxima em 6-bits (Matriz FP6) com dispersão: 147,6 PFLOPs 
    Precisão teórica máxima em 4-bits (Matriz FP4) com dispersão: 147,6 PFLOPs
    Desempenho teórico máximo em INT8 (Matriz INT8) com dispersão: 73,8 POPs 
    Desempenho teórico máximo em bfloat16 (Matriz bfloat16) com dispersão: 36,9 PFLOPs 
    Plataforma NVIDIA Blackwell B200 com 8 GPUs 
    Precisão teórica máxima dupla (FP64), vetor/tensor: 296 TFLOPs 
    Precisão teórica máxima simples (FP32), vetor: 600 TFLOPs 
    Meia precisão teórica máxima (FP16), tensor com dispersão: 36 PFLOPs 
    Precisão teórica máxima em 8-bits (FP8), tensor com dispersão: 72 PFLOPs
    Precisão teórica máxima em 6-bits (FP6), tensor com dispersão: 72 PFLOPs 
    Precisão teórica máxima em 4-bits (FP4), tensor com dispersão: 144 PFLOPs
    Desempenho teórico máximo em INT8 (INT8), tensor com dispersão: 72 POPs 
    Desempenho teórico máximo em bfloat16 (bfloat16), tensor com dispersão: 36 PFLOPs   
    MI350-010