
スケールアウト AI インフラストラクチャの強化
AMD PensandoTM Pollara 400 AI NIC は、大規模なギガスケールのデータセンターの AI ノードで実行されるアプリケーションを高速化し、最大 400 ギガビット/秒 (Gbps) のイーサネット速度を実現するように設計されています。
実績ある第 3 世代の完全ハードウェア プログラム可能な Pensando P4 エンジンをベースにした AMD Pensando Pollara 400 AI NIC は、業界をリードするパフォーマンスを発揮するとともに、将来の要件に対応できる柔軟なプログラム性を備え、ハイパースケーラー、企業、クラウド サービス プロバイダー、研究機関のインフラ投資効果の最大化に貢献します。

Ultra Ethernet Consortium (UEC) 機能を備えた業界初の AI NIC
AMD Pensando™ Pollara 400 AI NIC は、業界初の Ultra Ethernet Consortium (UEC) 互換の AI NIC です。AMD AI NIC™ は、プログラム可能であるため、ユーザーは UEC 機能を選択して、ネットワーク監視とパフォーマンス調整をインテリジェント化できます。AMD AI NIC は、完全にプログラム可能な P4 エンジンを通して、AMD Pensando™ Pollara 400 AI NIC をアップグレードし、UEC によって確立された新しい業界標準に適合させることができます。
注目の AMD AI NIC™
AI 向けデータセンター ネットワークのスケールアウトにおける NIC のプログラマビリティの重要な役割
AI ワークロードのホスティングに必要なインフラストラクチャの構築が進められています。効果的なスケールアウトを実現するためには、ネットワークが重要な役割を果たし、そのネットワークはイーサネットが主流となっています。それでも、効果的なネットワーキングは、スイッチだけではなく、ネットワーク インターフェイス カードに高度な機能を組み込むことも、設計上の重要な戦略となります。TechTarget の Enterprise Strategy Group に所属するエンタープライズ ネットワーキング担当プリンシパル アナリストである Jim Frey 氏が、なぜ AMD のプログラム可能な NIC が成功への最適な道筋と考えているのか、その見解について説明します。

AI パフォーマンスを大幅に向上
AI ワークロードのパフォーマンス
AMD Pensando™ Pollara 400 AI NIC は、GPU 間通信速度が 400 Gbps に達し、最大規模の AI モデルのトレーニング、次世代 AI モデルの展開、AI ワークロードの高速化を目的としたネットワークを使用した最先端技術の研究のいずれでも、作業にかかる時間を短縮できます。
設備投資の削減
AMD Pensando™ Pollara 400 AI NIC は、現在の AI ワークロードのニーズに対応するように設計されており、オープン エコシステムと互換性があるため、お客様は設備投資を削減しながら、将来的なインフラストラクチャのスケーラビリティの柔軟さを維持できます。
インテリジェントなネットワーク監視
従来のネットワーク監視作業やパフォーマンス調整作業にかかる時間を短縮できます。AMD Pensando™ Pollara 400 AI NIC は、ネットワークの負荷分散とネットワーク メトリクスを同時に監視することで、チームが潜在的なネットワーク問題を事前に特定し、重大な障害に発展する前に解決できるようにします。
インテリジェントなネットワーク監視と負荷分散
- インテリジェントなパケット スプレー
- アウトオブオーダー パケットの処理とインオーダー メッセージ配信
- 選択的な再送信
- パス認識型輻輳制御
- 迅速な障害検出
インテリジェントなパケット スプレー
インテリジェントなパケット スプレーにより、チームは、負荷分散を強化し、全体的な効率性とスケーラビリティを向上させることで、ネットワーク パフォーマンスをスムーズに最適化できます。ネットワーク パフォーマンスの向上により、GPU 間の通信時間を大幅に短縮できるため、作業の完了時間が短縮され、運用効率が向上します。

アウトオブオーダー パケットの処理とインオーダー メッセージ配信
マルチパスやパケット スプレー技術を用いた場合でも、メッセージが正しい順序で確実に配信されるようにします。高度なアウトオブオーダー メッセージ配信機能は、順番通りには到着しない可能性があるデータ パケットを効率的に処理し、バッファリングなしで GPU メモリにシームレスに直接並べます。

選択的な再送信
選択的確認応答 (SACK) 再送信により、ドロップしたパケットまたは破損したパケットのみが再送信され、ネットワーク パフォーマンスが向上します。SACK は、損失または破損したパケットを効率的に検出し、再送信することで、帯域幅の使用率を最適化します。これにより、パケット損失の回復時のレイテンシが抑えられ、冗長的なデータ伝送を最小限に抑えられるため、効率性が非常に高くなります。

パス認識型輻輳制御
リアルタイムのテレメトリおよびネットワーク対応アルゴリズムにより、ネットワーク監視ではなくワークロードに重点を置きます。パス認識型輻輳制御機能により、ネットワーク パフォーマンス管理が簡素化され、重要な問題を迅速に検出して対処すると同時に、インキャスト シナリオの影響を軽減します。

迅速な障害検出
迅速な障害検出により、チームはごく短時間で問題を特定できるため、ほぼ瞬時にフェイルオーバーを復旧し、GPU のダウンタイムを大幅に削減できます。ほぼリアルタイムのレイテンシ メトリクス、輻輳、およびドロップ統計情報による高度なネットワーク監視機能を利用できます。

AI パフォーマンスとネットワーク信頼性が向上
一部のアプリケーションでは、ランタイム パフォーマンスが約 15% 向上します。AMD Pensando Pollara 400 AI NIC は、インテリジェントなネットワーク負荷分散、高速フェイルオーバー、損失回復などの機能を備えており、AI への投資を最大限に有効活用すると同時にワークロードを高速化します。
ネットワークのアップタイムが最大 10% 向上します。AMD Pensando Pollara 400 AI NIC は、最新の RAS と高速障害復旧機能を備えており、ネットワークの耐障害性と可用性を向上させながら、クラスターのダウンタイムを最小限に抑えます。
AMD Pensando™ Pollara 400 AI NIC の仕様
最大帯域幅 | フォーム ファクター | イーサネット インターフェイス | イーサネットの速度 | イーサネット構成 | 管理職 |
400Gbps | 1/2 高さ、1/2 長さ | PCIe® Gen5.0x16 | 25/50/100/200/400Gbps | 最大 4 ポートまでサポート |
MCTP over SMBus |
高性能の最新データセンター向けに設計された一連の AMD ネットワーク ソリューション群をご紹介します。

リソース

AI ネットワーキングの未来を切り開く
AMD Pensando Pollara 400 AI NIC がスケールアウト AI インフラストラクチャをどのように変革するかについて説明します。
脚注
- Dong、Jianbo & Luo、Bin & Zhang、Jun & Zhang、Pengcheng & Feng、Fei & Zhu、Yikai & Liu、Ang & Chen、Zian & Shi、Yi & Jiao、Hairong & Lu、Gang & Guan、Yu & Zhai、Ennan & Xiao、Wencong & Zhao、Hanyu & Yuan、Man & Yang、Siran & Li、Xiang & Wang、Jiamang & Fu、Binzhang。(2024)。C4 による大規模並列トレーニングの効率化: コミュニケーション主導のアプローチ。10.48550/arXiv.2406.04594。C4 による大規模並列トレーニングの効率化: 通信駆動型アプローチ (https://arxiv.org/pdf/2406.04594)。本データは、AMD Pensando Pollara 400 NIC に使用されている技術を反映したものですが、テストとデータは Pollara 400 に特化したものではありません。実際の結果と異なる場合があります。
- Dubey、Abhimanyu & Jauhri、Abhinav & Pandey、Abhinav & Kadian、Abhishek & Al-Dahle、Ahmad & Letman、Aiesha & Mathur、Akhil & Schelten、Alan & Yang、Amy & Fan、Angela & Goyal、Anirudh & Hartshorn、Anthony & Yang、Aobo & Mitra、Archi & Sravankumar、Archie & Korenev、Artem & Hinsvark、Arthur & Rao、Arun & Zhang、Aston & Zhao、Zhiwei。(2024)。The Llama 3 Herd of Models。10.48550/arXiv.2407.21783。Meta 社の研究論文『The Llama 3 Herd of Models』の表 5。 本データは、AMD Pensando Pollara 400 NIC に使用されている技術を反映したものですが、テストとデータは Pollara 400 に特化したものではありません。実際の結果と異なる場合があります。
- Dong、Jianbo & Luo、Bin & Zhang、Jun & Zhang、Pengcheng & Feng、Fei & Zhu、Yikai & Liu、Ang & Chen、Zian & Shi、Yi & Jiao、Hairong & Lu、Gang & Guan、Yu & Zhai、Ennan & Xiao、Wencong & Zhao、Hanyu & Yuan、Man & Yang、Siran & Li、Xiang & Wang、Jiamang & Fu、Binzhang。(2024)。C4 による大規模並列トレーニングの効率化: コミュニケーション主導のアプローチ。10.48550/arXiv.2406.04594。C4 による大規模並列トレーニングの効率化: 通信駆動型アプローチ (https://arxiv.org/pdf/2406.04594)。本データは、AMD Pensando Pollara 400 NIC に使用されている技術を反映したものですが、テストとデータは Pollara 400 に特化したものではありません。実際の結果と異なる場合があります。
- Dubey、Abhimanyu & Jauhri、Abhinav & Pandey、Abhinav & Kadian、Abhishek & Al-Dahle、Ahmad & Letman、Aiesha & Mathur、Akhil & Schelten、Alan & Yang、Amy & Fan、Angela & Goyal、Anirudh & Hartshorn、Anthony & Yang、Aobo & Mitra、Archi & Sravankumar、Archie & Korenev、Artem & Hinsvark、Arthur & Rao、Arun & Zhang、Aston & Zhao、Zhiwei。(2024)。The Llama 3 Herd of Models。10.48550/arXiv.2407.21783。Meta 社の研究論文『The Llama 3 Herd of Models』の表 5。 本データは、AMD Pensando Pollara 400 NIC に使用されている技術を反映したものですが、テストとデータは Pollara 400 に特化したものではありません。実際の結果と異なる場合があります。