Erweiterbare KI-Infrastrukturen unterstützen

Die AMD PensandoTM Pollara 400 AI NIC wurde entwickelt, um Anwendungen zu beschleunigen, die über KI-Knoten in Mega- und Giga-Scale-Rechenzentren ausgeführt werden. Ethernet-Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gbit/s) können damit erreicht werden.

Die AMD Pensando Pollara 400 AI NIC basiert auf der bewährten, vollständig hardwareprogrammierbaren Pensando P4-Engine der dritten Generation und bietet führende Performance mit der Flexibilität, sodass sie für zukünftige Anforderungen programmiert werden kann. Dies trägt zur Maximierung der Infrastrukturinvestitionen für Hyperscaler, Unternehmen, Cloud-Service-Provider und Forscher bei. 

Ultra Ethernet Consortium logo

Die erste AI NIC der Branche mit Unterstützung von Ultra Ethernet Consortium (UEC)-Funktionen

Die AMD Pensando™ Pollara 400 AI NIC ist die branchenweit erste AI NIC, die Ultra Ethernet Consortium (UEC)-bereit ist. Dank der Programmierbarkeit der NIC können die Kunden UEC-Funktionen auswählen, die die Netzwerküberwachung und Performance-Optimierung intelligent unterstützen. Mithilfe der voll programmierbaren P4-Engine der NIC können Kunden bei AMD Pensando Pollara 400 AI NICs jeglicher Bauform ein Upgrade durchführen, um neue Industriestandards zu erfüllen, sobald diese sich weiterentwickeln.

Open Compute Project white logo

Für KI konzipiertes Ethernet für Open-Compute-Rechenzentren bereitstellen

Die AMD Pensando™ Pollara 400 AI NIC ist in einer Open Compute Project® (OCP®) Standard OCP 3.0-Bauform verfügbar, die eine nahtlose Integration mit OCP-basierten Servern und Netzwerken ermöglicht. Die NIC erfüllt die OCP-Standards, sodass Rechenzentren eine vollständig programmierbare 400-Gbit/s-Ethernet-Schnittstelle in OCP-Systemen nach Industriestandard bereitstellen können, wodurch außergewöhnliche Interoperabilität, schnelle Skalierbarkeit und Kosteneffizienz gewährleistet werden. Die OCP-kompatible AMD Pensando Pollara 400 AI NIC nutzt eine programmierbare P4-Engine und erweiterte RDMA-Funktionen, um Kunden bei der Vorbereitung der Infrastruktur für zukünftige Builds und der Beschleunigung von KI-Auslastungen zu unterstützen und gleichzeitig offene Industriestandards für Hardwaredesign und Wartungsfreundlichkeit zu erfüllen.

AMD Pensando™ Pollara 400 AI NIC im Spotlight

Die wichtige Rolle der NIC-Programmierbarkeit bei der Erweiterbarkeit von Rechenzentrumsnetzwerken für KI

Die Infrastruktur wird derzeit ausgebaut, um KI-Auslastungen hosten zu können. Für eine effektive Erweiterbarkeit spielen Netzwerke eine entscheidende Rolle, und diese Netzwerke tendieren zu Ethernet. Doch bei effektiven Netzwerken geht es nicht nur um Switches – auch die Integration von erweiterten Funktionen in Netzwerkschnittstellenkarten ist eine wesentliche Designstrategie. Jim Frey, Principal Analyst of Enterprise Networking bei der Enterprise Strategy Group von TechTarget, erläutert, warum er der Meinung ist, dass die programmierbaren NICs von AMD einen optimierten Weg zum Erfolg darstellen.

KI-Performance im großen Maßstab beschleunigen

KI-Auslastungs-Performance

Mit einer GPU-GPU-Kommunikationsgeschwindigkeit von bis zu 400 Gbit/s kann die AMD Pensando™ Pollara 400 AI NIC die Job-Abwicklung beschleunigen und gleichzeitig die größten KI-Modelle trainieren, das KI-Modell der nächsten Generation bereitstellen oder hochmoderne Entwicklungen über Netzwerke zur Beschleunigung von KI-Auslastungen erforschen.

Kosteneffizient

Die AMD Pensando™ Pollara 400 AI NIC wurde für die Anforderungen von KI-Auslastungen von heute und morgen entwickelt und ist mit einem offenen Ökosystem kompatibel, wodurch Kunden ihre Investitionskosten senken und gleichzeitig flexibel für zukünftige Infrastrukturskalierbarkeit bleiben können.

Intelligente Netzwerküberwachung

Sparen Sie Zeit bei herkömmlichen Aufgaben zur Netzwerküberwachung und Performance-Optimierung. Über die AMD Pensando™ Pollara 400 AI NIC erfolgt ein Lastausgleich der Netzwerke, während gleichzeitig die Netzwerkmetriken überwacht werden. Dies ermöglicht es Teams, potenzielle Netzwerkprobleme proaktiv zu identifizieren und zu beheben, bevor sie zu kritischen Unterbrechungen führen.

KI-Performance und Netzwerkzuverlässigkeit steigern

Bis zu
25 % Verbesserte Performance 1

Erzielen Sie eine Verbesserung der RCCL-Performance von bis zu 25 %, wodurch die Effizienz von Multi-GPU und Scale-out-Netzwerken deutlich gesteigert wird. Dank fortschrittlicher kollektiver Kommunikationsoptimierungen, intelligentem Lastausgleich und ausfallsicheren Failover-Mechanismen beschleunigen Sie KI-Auslastungen und maximieren gleichzeitig die Infrastrukturnutzung und Skalierungsmöglichkeiten.

Bis zu
15 % Reduzierung der KI-Job-Laufzeit 2

Verbessern Sie die Laufzeit-Performance bei bestimmten Anwendungen um ca. 15 %. Mit Funktionen wie dem intelligenten Netzwerklastausgleich, schnellem Failover und Verlustwiederherstellung beschleunigt die AMD Pensando Pollara 400 AI NIC Auslastungen und maximiert zugleich die KI-Investitionen.  

Bis zu
10 % Verbesserte Netzwerkzuverlässigkeit 1

Erzielen Sie eine bis zu 10 % bessere Netzwerkverfügbarkeit. Mit der AMD Pensando Pollara 400 AI NIC minimieren Sie Cluster-Ausfallzeiten und erhöhen gleichzeitig die Netzwerkausfallsicherheit und -verfügbarkeit mit modernstem RAS und schneller Ausfallwiederherstellung.

Intelligente Netzwerküberwachung und Lastausgleich

Intelligentes Packet Spray

Mit dem intelligenten Packet Spray können Teams die Netzwerk-Performance nahtlos optimieren, indem damit der Lastausgleich verbessert sowie die Gesamteffizienz und Skalierbarkeit gesteigert werden. Eine verbesserte Netzwerk-Performance kann die GPU-zu-GPU-Kommunikationszeiten erheblich verkürzen, was zu einer schnelleren Job-Abwicklung und einer höheren Betriebseffizienz führt.

AI technology concept
Außerplanmäßige Paketverarbeitung und Nachrichtenzustellung in der richtigen Reihenfolge

Stellen Sie sicher, dass Nachrichten in der richtigen Reihenfolge zugestellt werden, selbst wenn Multipathing- und Packet-Spray-Techniken eingesetzt werden. Die erweiterte Funktion für die außerplanmäßige Nachrichtenzustellung verarbeitet Datenpakete, die möglicherweise nicht in der richtigen Reihenfolge ankommen, und legt sie nahtlos direkt im GPU-Speicher ab, ohne dass eine Pufferung erforderlich ist.

Programming code abstract technology background of software developer and  Computer script
Selektive erneute Übertragung

Steigern Sie die Netzwerk-Performance durch die erneute Übertragung mittels selektiver Bestätigung (Selective Acknowledgment, SACK), mit der sichergestellt wird, dass nur verlorene oder beschädigte Pakete erneut übertragen werden. SACK erkennt und sendet erneut verlorene oder beschädigte Pakete effizient und optimiert so die Bandbreitennutzung, reduziert die Latenz während der Wiederherstellung von Paketverlusten und minimiert redundante Datenübertragungen für außergewöhnliche Effizienz.

Abstract illustration of a data stream
Steuerung einer pfadabhängigen Überlastung

Konzentrieren Sie sich mit Echtzeittelemetrie und netzwerkfähigen Algorithmen auf Auslastungen statt auf Netzwerküberwachung. Die Funktion zur Steuerung einer pfadabhängigen Überlastung vereinfacht die Verwaltung der Netzwerk-Performance, sodass Teams kritische Probleme schnell erkennen und beheben können und gleichzeitig die Auswirkungen von Incast-Szenarien gemindert werden.

Abstract data center concept
Schnelle Fehlererkennung 

Dank der schnellen Fehlererkennung können Teams Probleme innerhalb von Millisekunden lokalisieren, was eine nahezu sofortige Failover-Wiederherstellung ermöglicht und die Ausfallzeit der GPU erheblich reduziert. Profitieren Sie von einer höheren Beobachtbarkeit des Netzwerks mit Latenzmetriken in nahezu Echtzeit sowie Statistiken zu Überlastungen und Verlusten.

Digital cyberspace and digital data network connections

AMD Pensando™ Pollara 400 AI NIC Spezifikationen

Maximale Bandbreite  Bauform Ethernet-Schnittstelle  Ethernet-Geschwindigkeiten Ethernet-Konfigurationen  Verwaltung
Bis zu 400 Gbit/s Halbe Höhe, halbe Länge  PCIe® Gen5.0 x16; OCP® 3.0 25/50/100/200/400 Gbit/s

Unterstützt bis zu 4 Ports
- 1 x 400G
- 2 x 200G
- 4 x 100G
- 4 x 50G
- 4 x 25G

MCTP über SMBus

Entdecken Sie die komplette Suite von AMD Netzwerklösungen, die für moderne High-Performance-Rechenzentren entwickelt wurden.

Ressourcen

Die Zukunft von KI-Networking erschließen

Erfahren Sie, wie die AMD Pensando Pollara 400 AI NIC Ihre erweiterbare KI-Infrastruktur transformieren kann.

Fußnoten
  1. PEN-016 – Tests durchgeführt vom AMD Leistungslabor am [28. April 2025] auf der [AMD Pensando™ Pollara 400 AI NIC], auf einem Produktionssystem mit den folgenden Komponenten: 2 Knoten mit 8 MI300X AMD GPUs (16 GPUs): Broadcom Tomahawk-4-basierter Leaf-Switch (64 x 400G) aus MICAS-Netzwerk; CLOS-Topologie; AMD Pensando Pollara AI NIC – 16 NICs; CPU-Modell in jedem der beiden Knoten – Dual-Socket Intel® Xeon® 8568 der 5. Generation – CPU mit 48 Kernen und PCIe® Gen-5 BIOS Version 1.3.6; Mitigation – Aus (Standard)
    Systemprofileinstellung – Performance (Standard) SMT – aktiviert (Standard); Betriebssystem Ubuntu 22.04.5 LTS, Kernel 5.15.0-139-generic.
    Folgender Vorgang wurde gemessen: Allreduce
    Durchschnittlich 25 % für Allreduce-Vorgänge mit 4QP und UEC-fähigem RDMA im Vergleich zu RoCEv2 für mehrere Samples unterschiedlicher Nachrichtengröße (512 MB, 1 GB, 2 GB, 4 GB, 8 GB, 16 GB). Die Ergebnisse basieren auf durchschnittlich mindestens 8 Testläufen.
  2. Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Drive Approach. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.
    Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594.Meta Research Paper „The Llama 3 Herd of Models“, Tabelle 5. 
  3. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.
    Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783.
  4. Open Compute Project® und OCP® sind eingetragene Marken der Open Compute Project Foundation.