Potencializando a infraestrutura de IA expandida

A placa de interface de rede AMD PensandoTM Pollara 400 AI foi projetada para acelerar a execução de aplicativos em nós de IA em data centers de megaescala e gigaescala, alcançando velocidades Ethernet de até 400 Gigabit por segundo (Gbps).

Construído com base no comprovado mecanismo Pensando P4, totalmente programável e de terceira geração, a placa de interface de rede AMD Pensando Pollara 400 AI oferece desempenho líder do setor com a flexibilidade de ser programada para atender a requisitos futuros, ajudando a maximizar os investimentos em infraestrutura para hiperescaladores, empresas, provedores de serviços em nuvem e pesquisadores. 

Ultra Ethernet Consortium logo

A primeira placa de interface de rede de IA do setor que oferece recursos do UEC (Ultra Ethernet Consortium)

A placa de interface de rede AMD Pensando™ Pollara 400 AI é a primeira placa de interface de rede de IA do setor compatível com o UEC (Ultra Ethernet Consortium). Com sua capacidade de programação, a placa de interface de rede AMD AI™ possibilita que os clientes selecionem recursos de UEC para trazer inteligência ao monitoramento de rede e ajuste de desempenho. Por meio do mecanismo P4 totalmente programável, a placa de interface de rede AMD AI permite que os clientes atualizem qualquer placa de interface de rede AMD Pensando™ Pollara 400 AI para atender aos novos padrões do setor, incluindo os estabelecidos pelo UEC.

Placa de interface de rede AMD AI™ em destaque

A função essencial da programabilidade da placa de interface de rede na expansão de redes de data center para IA

Estão em andamento expansões de infraestrutura para hospedar cargas de trabalho de IA. Para uma expansão efetiva, as redes desempenham um papel fundamental, e essas redes estão se inclinando para a Ethernet. No entanto, uma rede eficaz não consiste apenas nos comutadores. A criação de funcionalidades avançadas em placas de interface de rede é uma estratégia essencial do projeto. Jim Frey, Analista Principal de Redes Empresariais do Enterprise Strategy Group da TechTarget, compartilha sua perspectiva sobre por que ele acha que as placas de rede programáveis da AMD representam um caminho otimizado para o sucesso.

Acelere o desempenho da IA em escala

Desempenho da carga de trabalho de IA

Com velocidades de comunicação de 400 Gbps entre GPUs, a placa de interface de rede AMD Pensando™ Pollara 400 AI pode acelerar os tempos de conclusão de trabalhos, ao mesmo tempo em que treina os maiores modelos de IA, implanta o modelo de IA da próxima geração ou pesquisa avanços de ponta com redes projetadas para acelerar as cargas de trabalho de IA.

Redução no Capex

Projetada para atender às necessidades de cargas de trabalho de IA hoje e no futuro, a placa de interface de rede AMD Pensando™ Pollara 400 AI é compatível com um ecossistema aberto, permitindo que os clientes reduzam o Capex e se mantenham flexíveis para a futura escalabilidade da infraestrutura. 

Monitoramento de rede inteligente

Economize tempo em tarefas tradicionais de monitoramento de rede e ajuste de desempenho. A placa de interface de rede AMD Pensando™ Pollara 400 AI equilibra a carga das redes e, ao mesmo tempo, monitora métricas de rede, permitindo que as equipes identifiquem e solucionem proativamente possíveis problemas de rede antes que eles se transformem em interrupções críticas.

Monitoramento de rede inteligente e balanceamento de carga

Pulverização inteligente de pacotes

A pulverização inteligente de pacotes permite que as equipes otimizem o desempenho da rede de forma contínua, melhorando o balanceamento de carga e aumentando a eficiência geral e a escalabilidade. O desempenho aprimorado da rede pode reduzir significativamente os tempos de comunicação entre GPUs, agilizando a conclusão dos trabalhos e tornando as operações mais eficientes.

AI technology concept
Manuseio de pacotes fora de ordem e entrega de mensagens em ordem

Garanta que as mensagens sejam entregues na ordem correta, mesmo ao empregar técnicas de múltiplos caminhos e de pulverização de pacotes. O avançado recurso de entrega de mensagens fora de ordem processa com eficiência pacotes de dados que podem chegar fora de sequência, colocando-os diretamente na memória da GPU sem a necessidade de armazenamento em buffer.

Programming code abstract technology background of software developer and  Computer script
Retransmissão seletiva

Aumente o desempenho da rede com retransmissão de SACK (selective acknowledgment, reconhecimento seletivo), que garante que apenas pacotes perdidos ou corrompidos sejam retransmitidos. O SACK detecta e reenvia pacotes perdidos ou danificados de forma eficiente, otimizando a utilização da largura de banda, ajudando a reduzir a latência durante a recuperação de perda de pacotes e minimizando a transmissão de dados redundantes para uma eficiência excepcional.

Abstract illustration of a data stream
Controle de congestionamento baseado no caminho

Concentre-se nas cargas de trabalho, não no monitoramento de rede, com algoritmos de telemetria e de reconhecimento de rede em tempo real. O recurso de controle de congestionamento com reconhecimento de caminho simplifica o gerenciamento de desempenho da rede, permitindo que as equipes detectem e solucionem rapidamente problemas críticos e, ao mesmo tempo, atenuem o impacto de cenários de incast. 

Abstract data center concept
Detecção rápida de falhas 

Com a detecção rápida de falhas, as equipes podem identificar problemas em milissegundos, permitindo a recuperação quase instantânea de failover e reduzindo significativamente o tempo de inatividade da GPU. Aproveite a observabilidade de rede elevada com métricas de latência quase em tempo real e estatísticas de congestionamento e queda. 

Digital cyberspace and digital data network connections

Aumente o desempenho da IA e a confiabilidade da rede

Até
15% mais agilidade no desempenho do trabalho de IA 1

Melhore o desempenho do tempo de execução em aproximadamente 15% para determinados aplicativos. Com recursos que incluem balanceamento inteligente de carga de rede, failover rápido e recuperação de perda, a placa de interface de rede AMD Pensando Pollara 400 AI ajuda a acelerar as cargas de trabalho enquanto maximiza os investimentos em IA. 

Até
10% de melhoria na confiabilidade da rede 2

Ganhe até 10% de aumento no tempo de atividade da rede. Com a placa de interface de rede AMD Pensando Pollara 400 AI, minimize o tempo de inatividade do cluster e, ao mesmo tempo, aumente a resiliência e a disponibilidade da rede com RAS de última geração e recuperação rápida de falhas.  

Especificações da placa de interface de rede AMD Pensando™ Pollara 400 AI

Largura de banda máxima  Fator de forma Interface Ethernet  Velocidades de Ethernet Configurações de Ethernet  Gerenciamento
400 Gbps Metade da altura, metade do comprimento  PCIe® Gen5.0x16 25/50/100/200/400 Gbps

Suporta até 4 portas
- 1 x 400G
- 2 x 200G
- 4 x 100G
- 4 x 50G
- 4 x 25G

MCTP sobre SMBus

Explore o conjunto completo de soluções de rede AMD projetadas para data centers modernos de alto desempenho.

Recursos

Abra as portas do futuro das redes com IA

Saiba como a placa de interface de rede AMD Pensando Pollara 400 AI pode transformar sua infraestrutura de IA expandida.

Notas de rodapé
  1. Dong, Jianbo e Luo, Bin e Zhang, Jun e Zhang, Pengcheng e Feng, Fei e Zhu, Yikai e Liu, Ang e Chen, Zian e Shi, Yi e Jiao, Hairong e Lu, Gang e Guan, Yu e Zhai, Ennan e Xiao, Wencong e Zhao, Hanyu e Yuan, Man e Yang, Sian e Li, Xiang e Wang, Jiamang e Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594. Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach https://arxiv.org/pdf/2406.04594. A afirmação reflete a tecnologia usada nas placas de interface de rede AMD Pensando Pollara 400, porém os testes e dados não são específicos para a Pollara 400. Os resultados podem variar.
  2. Dubey, Abhimanyu e Jauhri, Abhinav e Pandey, Abhinav e Kadian, Abhishek e Al-Dahle, Ahmad e Letman, Aiesha e Mathur, Akhil e Schelten, Alan e Yang, Amy e Fan, Angela e Goyal, Anirudh e Hartshorn, Anthony e Yang, Aobo e Mitra, Archi e Sravankumar, Archie e Korenev, Artem e Hinsvark, Arthur e Rao, Arun e Zhang, Aston e Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783. Meta Research Paper, "The Llama 3 Herd of Models", Tabela 5.  A afirmação reflete a tecnologia usada nas placas de interface de rede AMD Pensando Pollara 400, porém os testes e dados não são específicos para a Pollara 400. Os resultados podem variar.