스케일 아웃 AI 인프라 지원

AMD PensandoTM Pollara 400 AI NIC는 메가스케일 및 기가스케일 데이터 센터의 AI 노드에서 실행되는 애플리케이션을 가속화하여 최대 400Gbps(초당 기가비트) 이더넷 속도를 달성하도록 설계되었습니다.

검증을 거치고 완전 하드웨어 프로그래밍 가능한 3세대 Pensando P4 엔진을 기반으로 제작된 AMD Pensando Pollara 400 AI NIC는 미래의 요구 사항을 충족하도록 프로그래밍할 수 있는 유연성과 함께 업계 최고의 성능을 제공하여 하이퍼스케일러, 엔터프라이즈, 클라우드 서비스 제공업체, 연구원을 위한 인프라 투자 극대화를 지원합니다. 

Ultra Ethernet Consortium logo

울트라 이더넷 컨소시엄(UEC) 기능을 제공하는 업계 최초의 AI NIC

AMD Pensando™ Pollara 400 AI NIC는 업계 최초의 울트라 이더넷 컨소시엄(UEC) 호환 AI NIC입니다. 프로그래밍 용이성을 통해 AMD AI NIC™는 고객이 UEC 기능을 선택하여 네트워크 모니터링 및 성능 튜닝에 인텔리전스를 적용할 수 있도록 지원합니다. 완전 프로그래밍 가능한 P4 엔진을 통해 AMD AI NIC는 고객이 UEC가 제정한 표준을 포함하여 새로운 산업 표준을 충족하도록 모든 AMD Pensando™ Pollara 400 AI NIC를 업그레이드할 수 있도록 지원합니다.

뜨거운 관심을 받고 있는 AMD AI NIC™

AI를 위한 데이터센터 네트워크 스케일 아웃에서 NIC 프로그래밍 용이성의 중요한 역할

AI 워크로드를 호스팅하기 위한 인프라 증축이 진행되고 있습니다. 효과적인 확장을 위해서는 네트워크가 중요한 역할을 하며, 이러한 네트워크는 이더넷 쪽으로 기울고 있습니다. 그러나 효과적인 네트워킹은 스위치에만 국한되지 않으며, 네트워크 인터페이스 카드에 고급 기능을 구축하는 것이 필수적인 설계 전략입니다. TechTarget의 Enterprise Strategy Group의 엔터프라이즈 네트워킹 수석 분석가인 Jim Frey가 AMD 프로그래밍 가능 NIC가 성공을 향한 최적화된 경로라고 생각하는 이유에 대해 설명합니다.

대규모 AI 성능 가속화

AI 워크로드 성능

400Gbps의 GPU 간 통신 속도를 지원하는 AMD Pensando™ Pollara 400 AI NIC는 최대 AI 모델을 학습시키거나 차세대 AI 모델을 배포하거나 AI 워크로드를 가속화하도록 설계된 네트워킹을 통해 최첨단 발전을 연구하면서 작업 완료 시간을 단축할 수 있습니다.

Capex 절감

현재와 미래의 AI 워크로드의 요구를 충족하도록 설계된 AMD Pensando™ Pollara 400 AI NIC는 개방형 생태계와 호환되므로 고객은 자본 지출을 줄이면서 미래의 인프라 확장에 대한 유연성을 유지할 수 있습니다. 

지능형 네트워크 모니터링

기존 네트워크 모니터링 및 성능 튜닝 작업에 소요되는 시간을 절약할 수 있습니다. AMD Pensando™ Pollara 400 AI NIC는 네트워크 메트릭을 모니터링하면서 네트워크의 로드 밸런싱을 수행하므로 잠재적인 네트워크 문제가 심각한 중단으로 확대되기 전에 팀이 이를 사전에 식별하고 해결할 수 있습니다.

지능형 네트워크 모니터링 및 로드 밸런싱

지능형 패킷 스프레이

지능형 패킷 스프레이를 통해 팀은 로드 밸런싱을 강화하고 전반적인 효율성 및 확장성을 높임으로써 네트워크 성능을 원활하게 최적화할 수 있습니다. 네트워크 성능이 향상되면 GPU 간 통신 시간이 크게 단축되어 작업 완료 속도가 빨라지고 운영 효율성이 더욱 향상됩니다.

AI technology concept
비순차적 패킷 처리 및 순차적 메시지 전달

다중 경로 및 패킷 스프레이 기술을 사용하는 경우에도 메시지가 올바른 순서로 전달됩니다. 고급 비순차적 메시지 전달 기능은 순서를 벗어나 도착할 수 있는 데이터 패킷을 효율적으로 처리하여 버퍼링 없이 GPU 메모리에 직접 원활하게 배치합니다.

Programming code abstract technology background of software developer and  Computer script
선택적 재전송

제외되거나 손상된 패킷만 다시 전송되도록 하는 SACK(Selective Acknowledgment) 재전송으로 네트워크 성능을 크게 향상합니다. SACK은 손실되거나 손상된 패킷을 효율적으로 탐지하고 재전송하여 대역폭 사용률을 최적화하고, 패킷 손실 복구 시 지연율을 줄이며, 중복 데이터 전송을 최소화하여 탁월한 효율성을 달성합니다.

Abstract illustration of a data stream
경로 인식 혼잡 제어

실시간 원격 측정 및 네트워크 인식 알고리즘을 통해 네트워크 모니터링이 아닌 워크로드에 집중할 수 있습니다. 경로 인식 혼잡 제어 기능은 네트워크 성능 관리를 간소화하므로 팀은 심각한 문제를 신속하게 탐지하고 해결하면서 인캐스트 시나리오의 영향을 완화할 수 있습니다. 

Abstract data center concept
신속한 오류 탐지 

신속한 오류 탐지를 통해 팀은 몇 밀리초 이내에 문제를 정확히 찾아낼 수 있으므로 거의 즉각적인 페일오버 복구를 지원하고 GPU 다운타임을 크게 줄일 수 있습니다. 실시간에 가까운 지연율 지표, 혼잡 및 제외 통계를 통해 향상된 네트워크 관측성을 활용할 수 있습니다. 

Digital cyberspace and digital data network connections

AI 성능 및 네트워크 신뢰성 향상

최대
15% 더 빠른 AI 작업 성능 1

특정 애플리케이션의 경우 런타임 성능이 약 15% 향상됩니다. 지능형 네트워크 로드 밸런싱, 빠른 페일오버 및 손실 복구 등의 기능을 지원하는 AMD Pensando Pollara 400 AI NIC는 AI 투자를 극대화하면서 워크로드를 가속화할 수 있도록 지원합니다. 

최대
10% 네트워크 신뢰성 향상 2

네트워크 업타임이 최대 10% 향상됩니다. AMD Pensando Pollara 400 AI NIC를 사용하면 최첨단 RAS 및 신속한 장애 복구를 통해 네트워크 복원력과 가용성을 강화하면서 클러스터 다운타임을 최소화할 수 있습니다.  

AMD Pensando™ Pollara 400 AI NIC 사양

최대 대역폭  폼 팩터 이더넷 인터페이스  이더넷 속도 이더넷 구성  관리
400Gbps 절반 높이, 절반 길이  PCIe® Gen5.0x16 25/50/100/200/400Gbps

최대 4개 포트 지원
- 1 x 400G
- 2 x 200G
- 4 x 100G
- 4 x 50G
- 4 x 25G

SMBus를 통한 MCTP

고성능 첨단 데이터 센터를 위해 설계된 AMD 네트워킹 솔루션의 전체 제품군을 살펴보세요.

리소스

AI 네트워킹의 미래를 열다

AMD Pensando Pollara 400 AI NIC가 스케일 아웃 AI 인프라를 어떻게 혁신할 수 있는지 알아보세요.

각주
  1. Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). C4를 통한 대규모 병렬 학습 효율성 향상: 통신 중심 접근 방식. 10.48550/arXiv.2406.04594. C4를 통한 대규모 병렬 학습 효율성 향상: 통신 중심 접근 방식 https://arxiv.org/pdf/2406.04594. 해당 주장은 AMD Pensando Pollara 400 NIC에 사용되는 기술을 반영하지만, 테스트 및 데이터는 Pollara 400에만 국한되지 않습니다. 결과는 다를 수 있습니다.
  2. Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). Llama 3 모델군. 10.48550/arXiv.2407.21783. 메타 연구 논문, “The Llama 3 Herd of Models”, 표 5.  해당 주장은 AMD Pensando Pollara 400 NIC에 사용되는 기술을 반영하지만, 테스트 및 데이터는 Pollara 400에만 국한되지 않습니다. 결과는 다를 수 있습니다.