
Erweiterbare KI-Infrastrukturen unterstützen
Die AMD PensandoTM Pollara 400 AI NIC wurde entwickelt, um Anwendungen zu beschleunigen, die über KI-Knoten in Mega- und Giga-Scale-Rechenzentren ausgeführt werden. Ethernet-Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gbit/s) können damit erreicht werden.
Die AMD Pensando Pollara 400 AI NIC basiert auf der bewährten, vollständig hardwareprogrammierbaren Pensando P4-Engine der dritten Generation und bietet branchenführende Performance mit der Flexibilität, sodass sie für zukünftige Anforderungen programmiert werden kann. Dies trägt zur Maximierung der Infrastrukturinvestitionen für Hyperscaler, Unternehmen, Cloud-Service-Provider und Forscher bei.

Die erste AI NIC der Branche mit Ultra Ethernet Consortium (UEC)-Funktionen
Die AMD Pensando™ Pollara 400 AI NIC ist die branchenweit erste mit dem Ultra Ethernet Consortium (UEC) kompatible AI NIC. Dank ihrer Programmierbarkeit ermöglicht es die AMD AI NIC™ den Kunden, UEC-Funktionen auszuwählen, um die Netzwerküberwachung und Performance-Optimierung intelligent zu unterstützen. Mithilfe der voll programmierbaren P4-Engine der AMD AI NIC können Kunden ein Upgrade für jede AMD Pensando™ Pollara 400 AI NIC durchführen, um neue Industriestandards, einschließlich der vom UEC festgelegten, zu erfüllen.
AMD AI NIC™ im Spotlight
Die wichtige Rolle der NIC-Programmierbarkeit bei der Erweiterbarkeit von Rechenzentrumsnetzwerken für KI
Die Infrastruktur wird derzeit ausgebaut, um KI-Auslastungen hosten zu können. Für eine effektive Erweiterbarkeit spielen Netzwerke eine entscheidende Rolle, und diese Netzwerke tendieren zu Ethernet. Doch bei effektiven Netzwerken geht es nicht nur um Switches – auch die Integration von erweiterten Funktionen in Netzwerkschnittstellenkarten ist eine wesentliche Designstrategie. Jim Frey, Principal Analyst of Enterprise Networking bei der Enterprise Strategy Group von TechTarget, erläutert, warum er der Meinung ist, dass die programmierbaren NICs von AMD einen optimierten Weg zum Erfolg darstellen.

KI-Performance im großen Maßstab beschleunigen
KI-Auslastungs-Performance
Mit einer GPU-GPU-Kommunikationsgeschwindigkeit von 400 Gbit/s kann die AMD Pensando™ Pollara 400 AI NIC die Job-Abwicklung beschleunigen und gleichzeitig die größten KI-Modelle trainieren, das KI-Modell der nächsten Generation bereitstellen oder hochmoderne Entwicklungen über Netzwerke zur Beschleunigung von KI-Auslastungen erforschen.
Niedrigere Investitionskosten
Die AMD Pensando™ Pollara 400 AI NIC wurde für die Anforderungen von KI-Auslastungen von heute und morgen entwickelt und ist mit einem offenen Ökosystem kompatibel, wodurch Kunden ihre Investitionskosten senken und gleichzeitig flexibel für zukünftige Infrastrukturskalierbarkeit bleiben können.
Intelligente Netzwerküberwachung
Sparen Sie Zeit bei herkömmlichen Aufgaben zur Netzwerküberwachung und Performance-Optimierung. Über die AMD Pensando™ Pollara 400 AI NIC erfolgt ein Lastausgleich der Netzwerke, während gleichzeitig die Netzwerkmetriken überwacht werden. Dies ermöglicht es Teams, potenzielle Netzwerkprobleme proaktiv zu identifizieren und zu beheben, bevor sie zu kritischen Unterbrechungen führen.
Intelligente Netzwerküberwachung und Lastausgleich
- Intelligentes Packet Spray
- Außerplanmäßige Paketverarbeitung und Nachrichtenzustellung in der richtigen Reihenfolge
- Selektive erneute Übertragung
- Steuerung einer pfadabhängigen Überlastung
- Schnelle Fehlererkennung
Intelligentes Packet Spray
Mit dem intelligenten Packet Spray können Teams die Netzwerk-Performance nahtlos optimieren, indem damit der Lastausgleich verbessert sowie die Gesamteffizienz und Skalierbarkeit gesteigert werden. Eine verbesserte Netzwerk-Performance kann die GPU-zu-GPU-Kommunikationszeiten erheblich verkürzen, was zu einer schnelleren Job-Abwicklung und einer höheren Betriebseffizienz führt.

Außerplanmäßige Paketverarbeitung und Nachrichtenzustellung in der richtigen Reihenfolge
Stellen Sie sicher, dass Nachrichten in der richtigen Reihenfolge zugestellt werden, selbst wenn Multipathing- und Packet-Spray-Techniken eingesetzt werden. Die erweiterte Funktion für die außerplanmäßige Nachrichtenzustellung verarbeitet Datenpakete, die möglicherweise nicht in der richtigen Reihenfolge ankommen, und legt sie nahtlos direkt im GPU-Speicher ab, ohne dass eine Pufferung erforderlich ist.

Selektive erneute Übertragung
Steigern Sie die Netzwerk-Performance durch die erneute Übertragung mittels selektiver Bestätigung (Selective Acknowledgment, SACK), wodurch sichergestellt wird, dass nur verlorene oder beschädigte Pakete erneut übertragen werden. SACK erkennt und sendet verlorene oder beschädigte Pakete effizient und optimiert so die Bandbreitennutzung, reduziert die Latenz während der Wiederherstellung von Paketverlusten und minimiert redundante Datenübertragungen für außergewöhnliche Effizienz.

Steuerung einer pfadabhängigen Überlastung
Konzentrieren Sie sich mit Echtzeittelemetrie und netzwerkfähigen Algorithmen auf Auslastungen statt auf Netzwerküberwachung. Die Funktion zur Steuerung einer pfadabhängigen Überlastung vereinfacht die Verwaltung der Netzwerk-Performance, sodass Teams kritische Probleme schnell erkennen und beheben können und gleichzeitig die Auswirkungen von Incast-Szenarien mindern.

Schnelle Fehlererkennung
Dank der schnellen Fehlererkennung können Teams Probleme innerhalb von Millisekunden lokalisieren, was eine nahezu sofortige Failover-Wiederherstellung ermöglicht und die Ausfallzeit der GPU erheblich reduziert. Profitieren Sie von einer höheren Beobachtbarkeit des Netzwerks mit Latenzmetriken in nahezu Echtzeit sowie Statistiken zu Überlastungen und Verlusten.

KI-Performance und Netzwerkzuverlässigkeit steigern
Verbessern Sie die Laufzeit-Performance bei bestimmten Anwendungen um ca. 15 %. Mit Funktionen wie dem intelligenten Netzwerklastausgleich, schnellem Failover und Verlustwiederherstellung beschleunigt die AMD Pensando Pollara 400 AI NIC Auslastungen und maximiert zugleich die KI-Investitionen.
Erzielen Sie eine bis zu 10 % bessere Netzwerkverfügbarkeit. Mit der AMD Pensando Pollara 400 AI NIC minimieren Sie Cluster-Ausfallzeiten und erhöhen gleichzeitig die Netzwerkausfallsicherheit und -verfügbarkeit mit modernstem RAS und schneller Ausfallwiederherstellung.
AMD Pensando™ Pollara 400 AI NIC Spezifikationen
Maximale Bandbreite | Bauform | Ethernet-Schnittstelle | Ethernet-Geschwindigkeiten | Ethernet-Konfigurationen | Verwaltung |
400 Gbit/s | Halbe Höhe, halbe Länge | PCIe® Gen5.0x16 | 25/50/100/200/400 Gbit/s | Unterstützt bis zu 4 Ports |
MCTP über SMBus |
Entdecken Sie die komplette Suite von AMD Netzwerklösungen, die für moderne High-Performance-Rechenzentren entwickelt wurden.

Ressourcen

Die Zukunft von KI-Networking erschließen
Erfahren Sie, wie die AMD Pensando Pollara 400 AI NIC Ihre erweiterbare KI-Infrastruktur transformieren kann.
Fußnoten
- Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594. Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach https://arxiv.org/pdf/2406.04594. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.
- Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783. Meta Research Paper „The Llama 3 Herd of Models“, Tabelle 5. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.
- Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594. Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach https://arxiv.org/pdf/2406.04594. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.
- Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783. Meta Research Paper „The Llama 3 Herd of Models“, Tabelle 5. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.