Potencializando a infraestrutura de IA expandida
A placa de interface de rede AMD PensandoTM Pollara 400 AI foi projetada para acelerar a execução de aplicativos em nós de IA em data centers de megaescala e gigaescala, alcançando velocidades Ethernet de até 400 Gigabit por segundo (Gbps).
Construída com base no comprovado mecanismo de terceira geração Pensando P4 totalmente programável, a NIC (Network Interface Card, Placa de interface de rede) AMD Pensando Pollara 400 AI oferece desempenho líder com a flexibilidade de ser programada para atender a requisitos futuros, ajudando a maximizar os investimentos em infraestrutura para hiperescaladores, empresas, provedores de serviços em nuvem e pesquisadores.
A primeira placa de interface de rede de IA do setor compatível com recursos do UEC (Ultra Ethernet Consortium)
A placa de interface de rede AMD Pensando™ Pollara 400 AI é a primeira NIC de IA do setor adequada ao UEC (Ultra Ethernet Consortium). Com sua capacidade de programação, a placa de interface de rede possibilita que os clientes selecionem recursos do UEC para trazer inteligência ao monitoramento de rede e ajuste de desempenho. Por meio do mecanismo P4 totalmente programável, a placa de interface de rede permite que os clientes atualizem qualquer fator de forma de placa de interface de rede AMD Pensando Pollara 400 AI para atender aos novos padrões do setor, à medida que eles evoluem.
Trazendo a Ethernet projetada para IA para data centers de computação aberta
A placa de rede AMD Pensando™ Pollara 400 AI está disponível em um fator de forma OCP® (Open Compute Project®) padrão OCP-3.0, permitindo uma integração contínua com servidores e redes baseados em OCP. Ao se alinhar aos padrões OCP, a NIC permite que os data centers implantem uma interface Ethernet de 400 Gbps totalmente programável em sistemas OCP padrão do setor, liberando interoperabilidade excepcional, escalabilidade rápida e economia. A placa de rede AMD Pensando Pollara 400 AI compatível com OCP utiliza um mecanismo programável P4 e recursos avançados de RDMA, ajudando os clientes a prepararem a infraestrutura para futuras construções e acelerar cargas de trabalho de IA, ao mesmo tempo em que atendem aos padrões abertos do setor para projeto de hardware e facilidade de sua manutenção.
Placa de interface de rede AMD Pensando™ Pollara 400 AI em destaque
A função essencial da programabilidade da placa de rede na expansão de redes de data center para IA
Estão em andamento expansões de infraestrutura para hospedar cargas de trabalho de IA. Para uma expansão efetiva, as redes desempenham um papel fundamental, e essas redes estão se inclinando para a Ethernet. No entanto, uma rede eficaz não consiste apenas nos comutadores. A criação de funcionalidades avançadas em placas de interface de rede é uma estratégia essencial do projeto. Jim Frey, Analista Principal de Redes Empresariais do Enterprise Strategy Group da TechTarget, compartilha sua perspectiva sobre por que ele acha que as placas de rede programáveis da AMD representam um caminho otimizado para o sucesso.
Acelere o desempenho da IA em escala
Desempenho da carga de trabalho de IA
Com velocidades de comunicação de 400 Gbps entre GPUs, a placa de interface de rede AMD Pensando™ Pollara 400 AI pode acelerar os tempos de conclusão de trabalhos durante o treinamento nos maiores modelos de IA, implantando o modelo de IA da próxima geração ou pesquisando avanços de ponta com redes projetadas para acelerar as cargas de trabalho de IA.
Econômica
Projetada para atender às necessidades de cargas de trabalho de IA hoje e no futuro, a placa de interface de rede AMD Pensando™ Pollara 400 AI é compatível com um ecossistema aberto, permitindo que os clientes reduzam o Capex e se mantenham flexíveis para a futura escalabilidade da infraestrutura.
Monitoramento de rede inteligente
Economize tempo em tarefas tradicionais de monitoramento de rede e ajuste de desempenho. A placa de interface de rede AMD Pensando™ Pollara 400 AI equilibra a carga das redes e, ao mesmo tempo, monitora métricas de rede, permitindo que as equipes identifiquem e solucionem proativamente possíveis problemas de rede antes que eles se transformem em interrupções críticas.
Aumente o desempenho da IA e a confiabilidade da rede
Tenha até 25% de melhoria no desempenho de RCCL, aumentando significativamente a eficiência de várias GPUs e da rede expandida. Com otimizações avançadas de comunicação coletiva, balanceamento de carga inteligente e mecanismos de failover resilientes, acelere as cargas de trabalho de IA enquanto expande a utilização da infraestrutura e os recursos de dimensionamento.
Melhore o desempenho do tempo de execução em aproximadamente 15% para determinados aplicativos. Com recursos que incluem balanceamento inteligente de carga de rede, failover rápido e recuperação de perda, a placa de interface de rede AMD Pensando Pollara 400 AI ajuda a acelerar as cargas de trabalho enquanto maximiza os investimentos em IA.
Ganhe até 10% de aumento no tempo de atividade da rede. Com a placa de interface de rede AMD Pensando Pollara 400 AI, minimize o tempo de inatividade do cluster e, ao mesmo tempo, aumente a resiliência e a disponibilidade da rede com RAS de última geração e recuperação rápida de falhas.
Monitoramento de rede inteligente e balanceamento de carga
- Pulverização inteligente de pacotes
- Manuseio de pacotes fora de ordem e entrega de mensagens em ordem
- Retransmissão seletiva
- Controle de congestionamento baseado no caminho
- Detecção rápida de falhas
Pulverização inteligente de pacotes
A pulverização inteligente de pacotes permite que as equipes otimizem o desempenho da rede de forma contínua, melhorando o balanceamento de carga e aumentando a eficiência geral e a escalabilidade. O desempenho aprimorado da rede pode reduzir significativamente os tempos de comunicação entre GPUs, agilizando a conclusão dos trabalhos e tornando as operações mais eficientes.
Manuseio de pacotes fora de ordem e entrega de mensagens em ordem
Ajude a garantir que as mensagens sejam entregues na ordem correta, mesmo ao empregar técnicas de múltiplos caminhos e de pulverização de pacotes. O avançado recurso de entrega de mensagens fora de ordem processa com eficiência pacotes de dados que podem chegar fora de sequência, colocando-os diretamente na memória da GPU sem a necessidade de armazenamento em buffer.
Retransmissão seletiva
Aumente o desempenho da rede com retransmissão de SACK (Selective ACKnowledgment, Reconhecimento seletivo), que ajuda a garantir que apenas pacotes perdidos ou corrompidos sejam retransmitidos. O SACK detecta e reenvia pacotes perdidos ou danificados de forma eficiente, otimizando a utilização da largura de banda, ajudando a reduzir a latência durante a recuperação de perda de pacotes e minimizando a transmissão de dados redundantes para uma eficiência excepcional.
Controle de congestionamento baseado no caminho
Concentre-se nas cargas de trabalho, não no monitoramento de rede, com algoritmos de telemetria e de reconhecimento de rede em tempo real. O recurso de controle de congestionamento com reconhecimento de caminhos simplifica o gerenciamento de desempenho da rede, permitindo que as equipes detectem e solucionem rapidamente problemas críticos e, ao mesmo tempo, ajudem a atenuar o impacto de cenários de incast.
Detecção rápida de falhas
Com a detecção rápida de falhas, as equipes podem identificar problemas em milissegundos, permitindo a recuperação quase instantânea de failover e ajudando a reduzir significativamente o tempo de inatividade da GPU. Aproveite a observabilidade de rede elevada com métricas de latência quase em tempo real e estatísticas de congestionamento e queda.
Especificações da placa de interface de rede AMD Pensando™ Pollara 400 AI
| Largura de banda máxima | Fator de forma | Interface Ethernet | Velocidades de Ethernet | Configurações de Ethernet | Gerenciamento |
| até 400 Gbps | Metade da altura, metade do comprimento | PCIe® Gen5.0x16; OCP® 3.0 | 25/50/100/200/400 Gbps | Suporta até 4 portas |
MCTP sobre SMBus |
Explore o conjunto completo de soluções de rede AMD projetadas para data centers modernos de alto desempenho.
Recursos
Abra as portas do futuro das redes com IA
Saiba como a placa de interface de rede AMD Pensando Pollara 400 AI pode transformar sua infraestrutura de IA expandida.
Notas de rodapé
- PEN-016: testes realizados pelo AMD Performance Labs a partir de [28 de abril de 2025] na [placa de interface de rede AMD Pensando™ Pollara 400 AI], em um sistema de produção composto por: 2 nós de 8 GPUs AMD MI300X (16 GPUs): Switch leaf baseado em Broadcom Tomahawk-4 (64x400 G) da MICAS Networks; rede CLOS; placa de interface de rede AMD Pensando Pollara AI: 16 placas de interface de rede; modelo de CPU em cada um dos 2 nós - processador Intel® Xeon® 8568 de 5ª geração de soquete duplo - CPU de 48 núcleos com BIOS PCIe® de 5ª geração versão 1.3.6; mitigação - desligada (padrão)
Configuração do perfil do sistema - desempenho (padrão) habilitado para SMT (padrão); sistema operacional Ubuntu 22.04.5 LTS, Kernel 5.15.0-139-generic.
A seguinte operação foi avaliada: Allreduce
Média de 25% para todas as operações de All-Reduce com 4QP e usando RDMA pronto para UEC em comparação com RoCEv2 para várias amostras de tamanho de mensagem diferentes (512 MB, 1 GB, 2 GB, 4 GB, 8 GB, 16 GB). Os resultados são baseados na média de pelo menos oito execuções de teste.
- Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Drive Approach. A afirmação reflete a tecnologia usada nas placas de interface de rede AMD Pensando Pollara 400, porém os testes e dados não são específicos para a Pollara 400. Os resultados podem variar.
Dong, Jianbo e Luo, Bin e Zhang, Jun e Zhang, Pengcheng e Feng, Fei e Zhu, Yikai e Liu, Ang e Chen, Zian e Shi, Yi e Jiao, Hairong e Lu, Gang e Guan, Yu e Zhai, Ennan e Xiao, Wencong e Zhao, Hanyu e Yuan, Man e Yang, Sian e Li, Xiang e Wang, Jiamang e Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594.Meta Research Paper, "The Llama 3 Herd of Models", Tabela 5.
- A afirmação reflete a tecnologia usada nas placas de interface de rede AMD Pensando Pollara 400, porém os testes e dados não são específicos para a Pollara 400. Os resultados podem variar.
Dubey, Abhimanyu e Jauhri, Abhinav e Pandey, Abhinav e Kadian, Abhishek e Al-Dahle, Ahmad e Letman, Aiesha e Mathur, Akhil e Schelten, Alan e Yang, Amy e Fan, Angela e Goyal, Anirudh e Hartshorn, Anthony e Yang, Aobo e Mitra, Archi e Sravankumar, Archie e Korenev, Artem e Hinsvark, Arthur e Rao, Arun e Zhang, Aston e Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783.
- Open Compute Project® e OCP® são marcas registradas da Open Compute Project Foundation.
- PEN-016: testes realizados pelo AMD Performance Labs a partir de [28 de abril de 2025] na [placa de interface de rede AMD Pensando™ Pollara 400 AI], em um sistema de produção composto por: 2 nós de 8 GPUs AMD MI300X (16 GPUs): Switch leaf baseado em Broadcom Tomahawk-4 (64x400 G) da MICAS Networks; rede CLOS; placa de interface de rede AMD Pensando Pollara AI: 16 placas de interface de rede; modelo de CPU em cada um dos 2 nós - processador Intel® Xeon® 8568 de 5ª geração de soquete duplo - CPU de 48 núcleos com BIOS PCIe® de 5ª geração versão 1.3.6; mitigação - desligada (padrão)
Configuração do perfil do sistema - desempenho (padrão) habilitado para SMT (padrão); sistema operacional Ubuntu 22.04.5 LTS, Kernel 5.15.0-139-generic.
A seguinte operação foi avaliada: Allreduce
Média de 25% para todas as operações de All-Reduce com 4QP e usando RDMA pronto para UEC em comparação com RoCEv2 para várias amostras de tamanho de mensagem diferentes (512 MB, 1 GB, 2 GB, 4 GB, 8 GB, 16 GB). Os resultados são baseados na média de pelo menos oito execuções de teste. - Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Drive Approach. A afirmação reflete a tecnologia usada nas placas de interface de rede AMD Pensando Pollara 400, porém os testes e dados não são específicos para a Pollara 400. Os resultados podem variar.
Dong, Jianbo e Luo, Bin e Zhang, Jun e Zhang, Pengcheng e Feng, Fei e Zhu, Yikai e Liu, Ang e Chen, Zian e Shi, Yi e Jiao, Hairong e Lu, Gang e Guan, Yu e Zhai, Ennan e Xiao, Wencong e Zhao, Hanyu e Yuan, Man e Yang, Sian e Li, Xiang e Wang, Jiamang e Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594.Meta Research Paper, "The Llama 3 Herd of Models", Tabela 5. - A afirmação reflete a tecnologia usada nas placas de interface de rede AMD Pensando Pollara 400, porém os testes e dados não são específicos para a Pollara 400. Os resultados podem variar.
Dubey, Abhimanyu e Jauhri, Abhinav e Pandey, Abhinav e Kadian, Abhishek e Al-Dahle, Ahmad e Letman, Aiesha e Mathur, Akhil e Schelten, Alan e Yang, Amy e Fan, Angela e Goyal, Anirudh e Hartshorn, Anthony e Yang, Aobo e Mitra, Archi e Sravankumar, Archie e Korenev, Artem e Hinsvark, Arthur e Rao, Arun e Zhang, Aston e Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783. - Open Compute Project® e OCP® são marcas registradas da Open Compute Project Foundation.