助力横向扩展 AI 基础设施

AMD Pensando™ Pollara 400 AI NIC 旨在加速在后端网络上运行的应用程序,实现高达 400 千兆每秒 (Gbps) 的以太网速度。

AMD Pensando Pollara 400 AI NIC 基于成熟的第三代完全硬件可编程 Pensando P4 引擎构建,提供业界领先的性能,并具有可编程灵活性以满足未来需求,有助于企业、云服务提供商和研究人员最大限度地利用基础设施投资。

Ultra Ethernet Consortium logo

业界首款提供超级以太网联盟 (UEC) 功能的 AI NIC

AMD Pensando™ Pollara 400 AI NIC 是业界首款兼容超级以太网联盟 (UEC) 的 AI NIC。凭借其可编程性,AMD AI NIC™ 使客户能够选择 UEC 功能,从而为网络监控和性能调优提供依据。借助完全可编程的 P4 引擎,AMD AI NIC 允许客户升级任何 Pensando Pollara 400 AI NIC,以满足新的行业标准,包括 UEC 制定的标准。

大规模加速 AI 性能

AI 工作负载性能

AMD Pensando™ Pollara 400 AI NIC 具有 400 Gbps GPU-GPU 通信速度,可以加快作业完成时间,同时可以训练最大的 AI 模型、部署新一代 AI 模型或研究用于加速 AI 工作负载的网络技术的前沿进展。

降低资本支出

AMD Pensando™ Pollara 400 AI NIC 旨在满足当前和未来的 AI 工作负载需求,与开放生态系统兼容,可帮助客户降低资本支出,同时保持灵活性以确保未来基础设施的可扩展性。

智能网络监控

AMD Pensando™ Pollara 400 AI NIC 能够节省传统网络监控和性能调优任务的时间。它可在监控网络指标的同时平衡网络负载,使团队能够主动识别并解决潜在的网络问题,防止其升级为严重的中断。

智能网络监控和负载平衡

智能数据包喷射

智能数据包喷射功能可增强负载平衡、提升整体效率和可扩展性,从而帮助团队无缝优化网络性能。提升的网络性能可以显著缩短 GPU 之间的通信时间,从而加快作业完成速度并提高运营效率。

AI technology concept
无序数据包处理和按序消息传递

即使使用多路径和数据包喷射技术,也能确保消息以正确的顺序传递。先进的乱序消息传递功能可高效处理可能乱序到达的数据包,并无缝地将其直接放入 GPU 内存中,无需缓冲。

Programming code abstract technology background of software developer and  Computer script
选择性重传

利用选择性确认 (SACK) 重传功能提升网络性能,确保仅重传丢失或损坏的数据包。SACK 能够高效检测并重新发送丢失或损坏的数据包,从而优化带宽利用率,帮助降低数据包丢失到恢复期间的延迟,并最大限度地减少冗余数据传输,从而实现卓越效率。

Abstract illustration of a data stream
路径感知拥塞控制

利用实时遥测和网络感知算法,专注于工作负载而非网络监控。路径感知拥塞控制功能简化了网络性能管理,使团队能够快速检测并解决关键问题,同时减轻 incast 场景的影响。

Abstract data center concept
快速故障检测

借助快速故障检测,团队可以在几毫秒内查明问题所在,实现近乎即时的故障转移恢复,并显著减少 GPU 停机时间。以近乎实时的延迟指标、拥塞和掉线统计数据,提升网络可观测性。

Digital cyberspace and digital data network connections

提升人工智能性能和网络可靠性

最多可达
15% AI 作业性能提升 1

某些应用程序的运行时性能可提升约 15%。AMD Pensando Pollara 400 AI NIC 具备智能网络负载均衡、快速故障转移和数据丢失恢复等功能,可帮助加速工作负载,同时最大化 AI 投资回报。

最多可达
10% 的网络可靠性提高 2

网络正常运行时间提升最多可达 10%。借助 AMD Pensando Pollara 400 AI NIC,最大限度地减少集群停机时间,同时通过先进的 RAS 和快速故障恢复能力,提高网络弹性和可用性。

AMD Pensando™ 400 AI NIC 规格

最大带宽 外形尺寸 以太网接口 以太网速度 以太网配置 管理功能
400 Gbps 半高、半长 PCIe® Gen5.0x16 25/50/100/200/400 Gbps

支持最多 4 个端口
- 1 x 400G
- 2 x 200G
- 4 x 100G
- 4 x 50G
- 4 x 25G

基于 SMBus 的 MCTP

探索专为高性能现代数据中心设计的全套 AMD 网络解决方案。

资源

解锁人工智能网络的未来

了解 AMD Pensando™ DPU 技术如何改变现代数据中心的前端网络。

附注
  1. Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). 使用 C4 提高大规模并行训练效率:通信驱动的方法。 10.48550/arXiv.2406.04594。使用 C4 提高大规模并行训练效率:通信驱动方法 https://arxiv.org/pdf/2406.04594。使用 C4 提高大规模并行训练效率:通信驱动方法 https://arxiv.org/pdf/2406.04594。声明反映了 AMD Pensando Pollara 400 NIC 中使用的技术,但测试和数据并非针对 Pollara 400。结果可能会有所不同。
  2. Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). Llama 3 系列模型。 10.48550/arXiv.2407.21783。Meta 研究论文,“Llama 3 系列模型”,表 5。声明反映了 AMD Pensando Pollara 400 NIC 中使用的技术,但测试和数据并非特定于 Pollara 400。结果可能有所不同。