
A pilha de software de IA mais avançada da AMD
Últimos algoritmos e modelos
Raciocínio avançado, algoritmos de atenção e MoE esparso para maior eficiência
Suporte à AMD Instinct™ Série MI350
Arquitetura AMD CDNA 4 com suporte a novos tipos de dados e HBM avançado
Recursos avançados para dimensionar a IA em escala
Inferência distribuída contínua, treinamento MoE e aprendizado por reforço em escala
Ciclo de vida da IA
Gerenciamento simplificado de IA empresarial e de clusters para escalabilidade em diferentes setores
Suporte a placas de vídeo AMD Ryzen™ AI e AMD Radeon™
Solução abrangente de IA no endpoint para diversas aplicações
Salto geracional em desempenho
ROCm 7 vs. ROCm 6
Inferência¹
Treinamento²
Suporte à AMD Instinct™ Série MI350
Alimentando as GPUs AMD Instinct™ Série MI350
Integração otimizada com plataformas AMD Instinct MI350X, com infraestrutura de rack aberto para implantação rápida e desempenho otimizado de IA em escala.

Dimensionando a IA empresarial em escala

Inferência distribuída com ecossistema aberto
Com vLLM-d, DeepEP, SGLang e acesso direto à GPU, a plataforma ROCm proporciona a maior taxa de produtividade em escala de rack em lotes, nós e modelos.

ROCm para o ciclo de vida da IA
O software ROCm integra-se com estruturas de IA empresarial para oferecer um fluxo de trabalho totalmente aberto e completo para IA de produção, abrangendo o ROCm Enterprise AI, incluindo plataforma de operações e gerenciamento de cluster.

IA no endpoint
Expansão do ecossistema ROCm para AMD Ryzen™ AI e placa de vídeo AMD Radeon™
O ecossistema de IA para endpoints ROCm oferece suporte a Linux e Windows em produtos AMD Radeon, incluindo a nova Radeon RX Série 9000, e nos produtos Ryzen AI MAX, líderes do setor.


Comece hoje mesmo
Acelere suas tarefas de IA/ML, computação de alto desempenho e análise de dados com o AMD Developer Cloud.
Fique por dentro
Fique por dentro das últimas novidades do ROCm.
Notas de rodapé
- MI300-080 – Testes realizados pelo AMD Performance Labs em 15 de maio de 2025, medindo o desempenho de inferência em tokens por segundo (TPS) do software AMD ROCm 6.x, vLLM 0.3.3 vs. versão de teste do software AMD ROCm 7.0, vLLM 0.8.5 em um sistema com (8) GPUs AMD Instinct MI300X executando os modelos Llama 3.1-70B (TP2), Qwen 72B (TP2) e Deepseek-R1 (FP16) com tamanhos de lote de 1-256 e comprimentos de sequência de 128-204. A melhoria do desempenho declarado é expresso como a média de TPS nos (3) LLMs testados.
Configuração de hardwareServidor de CPU AMD EPYC ™ 9534 1P com 8 GPUs AMD Instinct™ MI300X (192 GB, 750 W), Supermicro AS-8125GS-TNMR2, NPS1 (1 NUMA por soquete), 1,5 TiB (24 DIMMs, 4800 mts de memória, 64 GiB/DIMM), 4x 3,49 TB de armazenamento micron 7450, versão de BIOS: 1,8
Configurações de software
Ubuntu 22.04 LTS com kernel Linux 5.15.0‑119‑generic
Qwen 72B e Llama 3.1‑70B -
Software AMD ROCm 7.0 (versão de teste)
PyTorch 2.7.0. DeepSeek R-1 – ROCm 7.0 versão de teste, SGLang 0.4.6, PyTorch 2.6.0
em comparação com
Qwen 72 e Llama 3.1‑70B – Software ROCm 6.x (GA)
PyTorch 2.7.0 e 2.1.1, respectivamente,
DeepSeek R‑1: ROCm 6.x (GA) SW
SGLang 0.4.1, PyTorch 2.5.0
Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. O desempenho pode variar conforme a configuração, o software, a versão do vLLM e o uso dos drivers e otimizações mais recentes.
- MI300‑081 – Teste conduzido pelos AMD Performance Labs em 15 de maio de 2025 para medir o desempenho de treinamento (TFLOPS) da versão de teste do software ROCm 7.0, com Megatron‑LM, em (8) GPUs AMD Instinct MI300X, executando os modelos Llama 2‑70B (4K), Qwen1.5‑14B e Llama 3.1‑8B em um contêiner Docker personalizado, comparado a um sistema similar com o software AMD ROCm 6.0.
Configuração de hardware
CPU 1P AMD EPYC™ 9454, 8 GPUs AMD Instinct MI300X (192 GB, 750 W), versão do BIOS do American Megatrends International LLC: Versão 1.8, BIOS 1.8.
Configuração de software
Ubuntu 22.04 LTS com kernel Linux 5.15.0‑70‑generic
ROCm 7.0, Megatron‑LM, PyTorch 2.7.0
em comparação com
Lançamento público do ROCm 6.0 com suporte de software, incluindo Megatron‑LM com os seguintes branches de código: hanl/disable_te_llama2 para o modelo Llama 2‑7B, guihong_dev para o modelo Llama 2‑70B, renwuli/disable_te_qwen1.5 para o modelo Qwen1.5‑14B, PyTorch 2.2.
Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. O desempenho pode variar conforme a configuração, o software, a versão do vLLM e o uso dos drivers e otimizações mais recentes.
- MI300-080 – Testes realizados pelo AMD Performance Labs em 15 de maio de 2025, medindo o desempenho de inferência em tokens por segundo (TPS) do software AMD ROCm 6.x, vLLM 0.3.3 vs. versão de teste do software AMD ROCm 7.0, vLLM 0.8.5 em um sistema com (8) GPUs AMD Instinct MI300X executando os modelos Llama 3.1-70B (TP2), Qwen 72B (TP2) e Deepseek-R1 (FP16) com tamanhos de lote de 1-256 e comprimentos de sequência de 128-204. A melhoria do desempenho declarado é expresso como a média de TPS nos (3) LLMs testados.
Configuração de hardwareServidor de CPU AMD EPYC ™ 9534 1P com 8 GPUs AMD Instinct™ MI300X (192 GB, 750 W), Supermicro AS-8125GS-TNMR2, NPS1 (1 NUMA por soquete), 1,5 TiB (24 DIMMs, 4800 mts de memória, 64 GiB/DIMM), 4x 3,49 TB de armazenamento micron 7450, versão de BIOS: 1,8
Configurações de software
Ubuntu 22.04 LTS com kernel Linux 5.15.0‑119‑generic
Qwen 72B e Llama 3.1‑70B -
Software AMD ROCm 7.0 (versão de teste)
PyTorch 2.7.0. DeepSeek R-1 – ROCm 7.0 versão de teste, SGLang 0.4.6, PyTorch 2.6.0
em comparação com
Qwen 72 e Llama 3.1‑70B – Software ROCm 6.x (GA)
PyTorch 2.7.0 e 2.1.1, respectivamente,
DeepSeek R‑1: ROCm 6.x (GA) SW
SGLang 0.4.1, PyTorch 2.5.0
Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. O desempenho pode variar conforme a configuração, o software, a versão do vLLM e o uso dos drivers e otimizações mais recentes.
- MI300‑081 – Teste conduzido pelos AMD Performance Labs em 15 de maio de 2025 para medir o desempenho de treinamento (TFLOPS) da versão de teste do software ROCm 7.0, com Megatron‑LM, em (8) GPUs AMD Instinct MI300X, executando os modelos Llama 2‑70B (4K), Qwen1.5‑14B e Llama 3.1‑8B em um contêiner Docker personalizado, comparado a um sistema similar com o software AMD ROCm 6.0.
Configuração de hardware
CPU 1P AMD EPYC™ 9454, 8 GPUs AMD Instinct MI300X (192 GB, 750 W), versão do BIOS do American Megatrends International LLC: Versão 1.8, BIOS 1.8.
Configuração de software
Ubuntu 22.04 LTS com kernel Linux 5.15.0‑70‑generic
ROCm 7.0, Megatron‑LM, PyTorch 2.7.0
em comparação com
Lançamento público do ROCm 6.0 com suporte de software, incluindo Megatron‑LM com os seguintes branches de código: hanl/disable_te_llama2 para o modelo Llama 2‑7B, guihong_dev para o modelo Llama 2‑70B, renwuli/disable_te_qwen1.5 para o modelo Qwen1.5‑14B, PyTorch 2.2.
Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. O desempenho pode variar conforme a configuração, o software, a versão do vLLM e o uso dos drivers e otimizações mais recentes.