
备受关注的 AMD AI NIC

大规模提升 AI 性能
优化 AI 工作负载处理性能
AMD Pensando Pollara 400 AI NIC 带来 400 Gbps 的 GPU 间通信速度,专为加速 AI 工作负载而设计,无论是训练超大 AI 模型、部署新一代 AI 模型还是研究前沿领域的发展成果,均能加快任务完成速度。
降低资本支出
AMD Pensando Pollara 400 AI NIC 经过精心设计,不仅能满足当下的 AI 工作负载需求,还能满足未来需求。它与开放式生态系统相兼容,能够帮助客户降低资本支出,同时也能灵活适配未来不断扩展的基础设施。
智能网络监控
加快完成传统网络监控和性能调优任务,节省宝贵时间。AMD Pensando Pollara 400 AI NIC 能够在监控网络指标的同时进行网络负载均衡,帮助团队提前识别并解决潜在网络问题,以免问题恶化造成严重中断。
智能网络监控与负载均衡
- 智能数据包喷射
- 无序数据包处理和有序消息传递
- 选择性重传
- 路径感知拥塞控制
- 快速故障检测
智能数据包喷射
借助智能数据包喷射技术,团队能够全方位优化网络性能,包括增强负载均衡能力、提高整体效率以及提升可扩展性。通过优化网络性能,可显著缩短 GPU 与 GPU 之间的通信时间,从而加快任务完成速度并提高运营效率。

无序数据包处理和有序消息传递
即使采用多路径和数据包喷射技术,仍能确保按正确顺序传递消息。此外,通过高级无序消息传递功能,可高效处理未按顺序到达的数据包,让这些数据包无需缓冲即可直接顺利存入 GPU 显存。

选择性重传
通过选择性确认 (SACK) 重传技术,可确保仅重新传输丢弃或损坏的数据包,从而显著提升网络性能。SACK 能够高效检测并重新发送丢失或损坏的数据包,优化带宽利用率,降低数据包丢失恢复期间的延迟,同时充分减少冗余数据传输,从而实现卓越效率。

路径感知拥塞控制
利用实时遥测和网络感知算法,团队能够专注于处理工作负载,而无需在网络监控上投入过多精力。借助路径感知拥塞控制功能,可显著简化网络性能管理,使团队能够快速检测和解决关键问题,同时减轻多对一流量突发 (incast) 场景所带来的影响。

快速故障检测
借助快速故障检测技术,团队能够在毫秒内精准找到问题所在,实现近乎即时的故障转移和恢复,显著减少 GPU 停机时间。提供近乎实时的延迟指标、拥塞及丢弃统计数据,提升网络可观测性。

提升 AI 性能和网络可靠性
部分应用的运行时性能提高约 15%。AMD Pensando Pollara 400 AI NIC 具有智能网络负载均衡、快速故障转移和丢失恢复等功能,能够加快工作负载处理速度,同时充分提升 AI 投资价值。
网络正常运行时间延长多达 10%。AMD Pensando Pollara 400 AI NIC 具备卓越的 RAS(可靠性、可用性、可维护性)及快速故障恢复功能,可充分减少集群停机时间,同时提高网络弹性和可用性。
AMD Pensando Pollara 400 AI NIC 规格
最大带宽 | 外形尺寸 | 以太网接口 | 以太网速度 | 以太网配置 | 管理 |
400 Gbps | 半高、半长 | PCIe® Gen5.0x16 | 25/50/100/200/400 Gbps | 支持多达 4 个端口 |
MCTP over SMBus |
探索专为现代高性能数据中心设计的全套 AMD 网络解决方案。

资源

解锁 AI 网络未来
了解 AMD Pensando Pollara 400 AI NIC 如何重塑横向扩展 AI 基础设施。
附注
- Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594。Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Drive Approach https://arxiv.org/pdf/2406.04594。该声明基于 AMD Pensando Pollara 400 NIC 中使用的技术,但相关测试和数据并非特定于 Pollara 400。结果可能会有所不同。
- Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783。Meta Research Paper,《The Llama 3 Herd of Models》,表 5。 该声明基于 AMD Pensando Pollara 400 NIC 中使用的技术,但相关测试和数据并非特定于 Pollara 400。结果可能会有所不同。
- Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594。Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Drive Approach https://arxiv.org/pdf/2406.04594。该声明基于 AMD Pensando Pollara 400 NIC 中使用的技术,但相关测试和数据并非特定于 Pollara 400。结果可能会有所不同。
- Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783。Meta Research Paper,《The Llama 3 Herd of Models》,表 5。 该声明基于 AMD Pensando Pollara 400 NIC 中使用的技术,但相关测试和数据并非特定于 Pollara 400。结果可能会有所不同。