A pilha de software de IA mais avançada da AMD

Últimos algoritmos e modelos

Raciocínio avançado, algoritmos de atenção e MoE esparso para maior eficiência

Suporte à AMD Instinct™ Série MI350

Arquitetura AMD CDNA 4 com suporte a novos tipos de dados e HBM avançado

Recursos avançados para dimensionar a IA em escala

Inferência distribuída contínua, treinamento MoE e aprendizado por reforço em escala

Ciclo de vida da IA

Gerenciamento simplificado de IA empresarial e de clusters para escalabilidade em diferentes setores

Suporte a placas de vídeo AMD Ryzen™ AI e AMD Radeon™

Solução abrangente de IA no endpoint para diversas aplicações

Salto geracional em desempenho

ROCm 7 vs. ROCm 6

3,5x Melhoria média do desempenho
3,2
3,4 vezes
3,8x
Llama 3.1 70B
Qwen2-72B
DeepSeek R1
Inferência¹
3x Melhoria média do desempenho
3x
3x
3,1 vezes
Llama 2 70B
Llama 3.1 8B
Qwen1.5 7B
Treinamento²

Suporte à AMD Instinct™ Série MI350

Alimentando as GPUs AMD Instinct™ Série MI350

Integração otimizada com plataformas AMD Instinct MI350X, com infraestrutura de rack aberto para implantação rápida e desempenho otimizado de IA em escala.

AMD Instinct™ MI350X Accelerators

Dimensionando a IA empresarial em escala

data center

Inferência distribuída com ecossistema aberto

Com vLLM-d, DeepEP, SGLang e acesso direto à GPU, a plataforma ROCm proporciona a maior taxa de produtividade em escala de rack em lotes, nós e modelos.

woman in data center

ROCm para o ciclo de vida da IA

O software ROCm integra-se com estruturas de IA empresarial para oferecer um fluxo de trabalho totalmente aberto e completo para IA de produção, abrangendo o ROCm Enterprise AI, incluindo plataforma de operações e gerenciamento de cluster.

vertical-gradient-1.png

IA no endpoint

Expansão do ecossistema ROCm para AMD Ryzen™ AI e placa de vídeo AMD Radeon™

O ecossistema de IA para endpoints ROCm oferece suporte a Linux e Windows em produtos AMD Radeon, incluindo a nova Radeon RX Série 9000, e nos produtos Ryzen AI MAX, líderes do setor.

AMD Radeon AI PRO R9700 and Ryzen AI Max
curved gradient divider

Comece hoje mesmo

Acelere suas tarefas de IA/ML, computação de alto desempenho e análise de dados com o AMD Developer Cloud.

Fique por dentro

Fique por dentro das últimas novidades do ROCm.

Notas de rodapé
  1. MI300-080 – Testes realizados pelo AMD Performance Labs em 15 de maio de 2025, medindo o desempenho de inferência em tokens por segundo (TPS) do software AMD ROCm 6.x, vLLM 0.3.3 vs. versão de teste do software AMD ROCm 7.0, vLLM 0.8.5 em um sistema com (8) GPUs AMD Instinct MI300X executando os modelos Llama 3.1-70B (TP2), Qwen 72B (TP2) e Deepseek-R1 (FP16) com tamanhos de lote de 1-256 e comprimentos de sequência de 128-204. A melhoria do desempenho declarado é expresso como a média de TPS nos (3) LLMs testados.

    Configuração de hardware

    Servidor de CPU AMD EPYC ™ 9534 1P com 8 GPUs AMD Instinct™ MI300X (192 GB, 750 W), Supermicro AS-8125GS-TNMR2, NPS1 (1 NUMA por soquete), 1,5 TiB (24 DIMMs, 4800 mts de memória, 64 GiB/DIMM), 4x 3,49 TB de armazenamento micron 7450, versão de BIOS: 1,8 

    Configurações de software

    Ubuntu 22.04 LTS com kernel Linux 5.15.0‑119‑generic

    Qwen 72B e Llama 3.1‑70B -

    Software AMD ROCm 7.0 (versão de teste) 

    PyTorch 2.7.0. DeepSeek R-1 – ROCm 7.0 versão de teste, SGLang 0.4.6, PyTorch 2.6.0 

    em comparação com

    Qwen 72 e Llama 3.1‑70B – Software ROCm 6.x (GA)

    PyTorch 2.7.0 e 2.1.1, respectivamente,  

    DeepSeek R‑1: ROCm 6.x (GA) SW

    SGLang 0.4.1, PyTorch 2.5.0

    Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. O desempenho pode variar conforme a configuração, o software, a versão do vLLM e o uso dos drivers e otimizações mais recentes.

  2. MI300‑081 – Teste conduzido pelos AMD Performance Labs em 15 de maio de 2025 para medir o desempenho de treinamento (TFLOPS) da versão de teste do software ROCm 7.0, com Megatron‑LM, em (8) GPUs AMD Instinct MI300X, executando os modelos Llama 2‑70B (4K), Qwen1.5‑14B e Llama 3.1‑8B em um contêiner Docker personalizado, comparado a um sistema similar com o software AMD ROCm 6.0.

    Configuração de hardware

    CPU 1P AMD EPYC™ 9454, 8 GPUs AMD Instinct MI300X (192 GB, 750 W), versão do BIOS do American Megatrends International LLC: Versão 1.8, BIOS 1.8.

    Configuração de software

    Ubuntu 22.04 LTS com kernel Linux 5.15.0‑70‑generic

    ROCm 7.0, Megatron‑LM, PyTorch 2.7.0

    em comparação com

    Lançamento público do ROCm 6.0 com suporte de software, incluindo Megatron‑LM com os seguintes branches de código: hanl/disable_te_llama2 para o modelo Llama 2‑7B, guihong_dev para o modelo Llama 2‑70B, renwuli/disable_te_qwen1.5 para o modelo Qwen1.5‑14B, PyTorch 2.2.

    Os fabricantes de servidores podem variar as configurações, gerando resultados diferentes. O desempenho pode variar conforme a configuração, o software, a versão do vLLM e o uso dos drivers e otimizações mais recentes.