
助力横向扩展 AI 基础设施
AMD Pensando™ Pollara 400 AI NIC 旨在加速在后端网络上运行的应用程序,实现高达 400 千兆每秒 (Gbps) 的以太网速度。
AMD Pensando Pollara 400 AI NIC 基于成熟的第三代完全硬件可编程 Pensando P4 引擎构建,提供业界领先的性能,并具有可编程灵活性以满足未来需求,有助于企业、云服务提供商和研究人员最大限度地利用基础设施投资。

大规模加速 AI 性能
AI 工作负载性能
AMD Pensando™ Pollara 400 AI NIC 具有 400 Gbps GPU-GPU 通信速度,可以加快作业完成时间,同时可以训练最大的 AI 模型、部署新一代 AI 模型或研究用于加速 AI 工作负载的网络技术的前沿进展。
降低资本支出
AMD Pensando™ Pollara 400 AI NIC 旨在满足当前和未来的 AI 工作负载需求,与开放生态系统兼容,可帮助客户降低资本支出,同时保持灵活性以确保未来基础设施的可扩展性。
智能网络监控
AMD Pensando™ Pollara 400 AI NIC 能够节省传统网络监控和性能调优任务的时间。它可在监控网络指标的同时平衡网络负载,使团队能够主动识别并解决潜在的网络问题,防止其升级为严重的中断。
智能网络监控和负载平衡
- 智能数据包喷射
- 无序数据包处理和按序消息传递
- 选择性重传
- 路径感知拥塞控制
- 快速故障检测
智能数据包喷射
智能数据包喷射功能可增强负载平衡、提升整体效率和可扩展性,从而帮助团队无缝优化网络性能。提升的网络性能可以显著缩短 GPU 之间的通信时间,从而加快作业完成速度并提高运营效率。

无序数据包处理和按序消息传递
即使使用多路径和数据包喷射技术,也能确保消息以正确的顺序传递。先进的乱序消息传递功能可高效处理可能乱序到达的数据包,并无缝地将其直接放入 GPU 内存中,无需缓冲。

选择性重传
利用选择性确认 (SACK) 重传功能提升网络性能,确保仅重传丢失或损坏的数据包。SACK 能够高效检测并重新发送丢失或损坏的数据包,从而优化带宽利用率,帮助降低数据包丢失到恢复期间的延迟,并最大限度地减少冗余数据传输,从而实现卓越效率。

路径感知拥塞控制
利用实时遥测和网络感知算法,专注于工作负载而非网络监控。路径感知拥塞控制功能简化了网络性能管理,使团队能够快速检测并解决关键问题,同时减轻 incast 场景的影响。

快速故障检测
借助快速故障检测,团队可以在几毫秒内查明问题所在,实现近乎即时的故障转移恢复,并显著减少 GPU 停机时间。以近乎实时的延迟指标、拥塞和掉线统计数据,提升网络可观测性。

提升人工智能性能和网络可靠性
某些应用程序的运行时性能可提升约 15%。AMD Pensando Pollara 400 AI NIC 具备智能网络负载均衡、快速故障转移和数据丢失恢复等功能,可帮助加速工作负载,同时最大化 AI 投资回报。
网络正常运行时间提升最多可达 10%。借助 AMD Pensando Pollara 400 AI NIC,最大限度地减少集群停机时间,同时通过先进的 RAS 和快速故障恢复能力,提高网络弹性和可用性。
AMD Pensando™ 400 AI NIC 规格
最大带宽 | 外形尺寸 | 以太网接口 | 以太网速度 | 以太网配置 | 管理功能 |
400 Gbps | 半高、半长 | PCIe® Gen5.0x16 | 25/50/100/200/400 Gbps | 支持最多 4 个端口 |
基于 SMBus 的 MCTP |
探索专为高性能现代数据中心设计的全套 AMD 网络解决方案。

资源

解锁人工智能网络的未来
了解 AMD Pensando™ DPU 技术如何改变现代数据中心的前端网络。
附注
- Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). 使用 C4 提高大规模并行训练效率:通信驱动的方法。 10.48550/arXiv.2406.04594。使用 C4 提高大规模并行训练效率:通信驱动方法 https://arxiv.org/pdf/2406.04594。使用 C4 提高大规模并行训练效率:通信驱动方法 https://arxiv.org/pdf/2406.04594。声明反映了 AMD Pensando Pollara 400 NIC 中使用的技术,但测试和数据并非针对 Pollara 400。结果可能会有所不同。
- Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). Llama 3 系列模型。 10.48550/arXiv.2407.21783。Meta 研究论文,“Llama 3 系列模型”,表 5。声明反映了 AMD Pensando Pollara 400 NIC 中使用的技术,但测试和数据并非特定于 Pollara 400。结果可能有所不同。
- Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). 使用 C4 提高大规模并行训练效率:通信驱动的方法。 10.48550/arXiv.2406.04594。使用 C4 提高大规模并行训练效率:通信驱动方法 https://arxiv.org/pdf/2406.04594。使用 C4 提高大规模并行训练效率:通信驱动方法 https://arxiv.org/pdf/2406.04594。声明反映了 AMD Pensando Pollara 400 NIC 中使用的技术,但测试和数据并非针对 Pollara 400。结果可能会有所不同。
- Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). Llama 3 系列模型。 10.48550/arXiv.2407.21783。Meta 研究论文,“Llama 3 系列模型”,表 5。声明反映了 AMD Pensando Pollara 400 NIC 中使用的技术,但测试和数据并非特定于 Pollara 400。结果可能有所不同。