Erweiterbare KI-Infrastrukturen unterstützen

Die AMD PensandoTM Pollara 400 AI NIC wurde entwickelt, um Anwendungen zu beschleunigen, die über KI-Knoten in Mega- und Giga-Scale-Rechenzentren ausgeführt werden. Ethernet-Geschwindigkeiten von bis zu 400 Gigabit pro Sekunde (Gbit/s) können damit erreicht werden.

Die AMD Pensando Pollara 400 AI NIC basiert auf der bewährten, vollständig hardwareprogrammierbaren Pensando P4-Engine der dritten Generation und bietet branchenführende Performance mit der Flexibilität, sodass sie für zukünftige Anforderungen programmiert werden kann. Dies trägt zur Maximierung der Infrastrukturinvestitionen für Hyperscaler, Unternehmen, Cloud-Service-Provider und Forscher bei. 

Ultra Ethernet Consortium logo

Die erste AI NIC der Branche mit Ultra Ethernet Consortium (UEC)-Funktionen

Die AMD Pensando™ Pollara 400 AI NIC ist die branchenweit erste mit dem Ultra Ethernet Consortium (UEC) kompatible AI NIC. Dank ihrer Programmierbarkeit ermöglicht es die AMD AI NIC™ den Kunden, UEC-Funktionen auszuwählen, um die Netzwerküberwachung und Performance-Optimierung intelligent zu unterstützen. Mithilfe der voll programmierbaren P4-Engine der AMD AI NIC können Kunden ein Upgrade für jede AMD Pensando™ Pollara 400 AI NIC durchführen, um neue Industriestandards, einschließlich der vom UEC festgelegten, zu erfüllen.

AMD AI NIC™ im Spotlight

Die wichtige Rolle der NIC-Programmierbarkeit bei der Erweiterbarkeit von Rechenzentrumsnetzwerken für KI

Die Infrastruktur wird derzeit ausgebaut, um KI-Auslastungen hosten zu können. Für eine effektive Erweiterbarkeit spielen Netzwerke eine entscheidende Rolle, und diese Netzwerke tendieren zu Ethernet. Doch bei effektiven Netzwerken geht es nicht nur um Switches – auch die Integration von erweiterten Funktionen in Netzwerkschnittstellenkarten ist eine wesentliche Designstrategie. Jim Frey, Principal Analyst of Enterprise Networking bei der Enterprise Strategy Group von TechTarget, erläutert, warum er der Meinung ist, dass die programmierbaren NICs von AMD einen optimierten Weg zum Erfolg darstellen.

KI-Performance im großen Maßstab beschleunigen

KI-Auslastungs-Performance

Mit einer GPU-GPU-Kommunikationsgeschwindigkeit von 400 Gbit/s kann die AMD Pensando™ Pollara 400 AI NIC die Job-Abwicklung beschleunigen und gleichzeitig die größten KI-Modelle trainieren, das KI-Modell der nächsten Generation bereitstellen oder hochmoderne Entwicklungen über Netzwerke zur Beschleunigung von KI-Auslastungen erforschen.

Niedrigere Investitionskosten

Die AMD Pensando™ Pollara 400 AI NIC wurde für die Anforderungen von KI-Auslastungen von heute und morgen entwickelt und ist mit einem offenen Ökosystem kompatibel, wodurch Kunden ihre Investitionskosten senken und gleichzeitig flexibel für zukünftige Infrastrukturskalierbarkeit bleiben können. 

Intelligente Netzwerküberwachung

Sparen Sie Zeit bei herkömmlichen Aufgaben zur Netzwerküberwachung und Performance-Optimierung. Über die AMD Pensando™ Pollara 400 AI NIC erfolgt ein Lastausgleich der Netzwerke, während gleichzeitig die Netzwerkmetriken überwacht werden. Dies ermöglicht es Teams, potenzielle Netzwerkprobleme proaktiv zu identifizieren und zu beheben, bevor sie zu kritischen Unterbrechungen führen.

Intelligente Netzwerküberwachung und Lastausgleich

Intelligentes Packet Spray

Mit dem intelligenten Packet Spray können Teams die Netzwerk-Performance nahtlos optimieren, indem damit der Lastausgleich verbessert sowie die Gesamteffizienz und Skalierbarkeit gesteigert werden. Eine verbesserte Netzwerk-Performance kann die GPU-zu-GPU-Kommunikationszeiten erheblich verkürzen, was zu einer schnelleren Job-Abwicklung und einer höheren Betriebseffizienz führt.

AI technology concept
Außerplanmäßige Paketverarbeitung und Nachrichtenzustellung in der richtigen Reihenfolge

Stellen Sie sicher, dass Nachrichten in der richtigen Reihenfolge zugestellt werden, selbst wenn Multipathing- und Packet-Spray-Techniken eingesetzt werden. Die erweiterte Funktion für die außerplanmäßige Nachrichtenzustellung verarbeitet Datenpakete, die möglicherweise nicht in der richtigen Reihenfolge ankommen, und legt sie nahtlos direkt im GPU-Speicher ab, ohne dass eine Pufferung erforderlich ist.

Programming code abstract technology background of software developer and  Computer script
Selektive erneute Übertragung

Steigern Sie die Netzwerk-Performance durch die erneute Übertragung mittels selektiver Bestätigung (Selective Acknowledgment, SACK), wodurch sichergestellt wird, dass nur verlorene oder beschädigte Pakete erneut übertragen werden. SACK erkennt und sendet verlorene oder beschädigte Pakete effizient und optimiert so die Bandbreitennutzung, reduziert die Latenz während der Wiederherstellung von Paketverlusten und minimiert redundante Datenübertragungen für außergewöhnliche Effizienz.

Abstract illustration of a data stream
Steuerung einer pfadabhängigen Überlastung

Konzentrieren Sie sich mit Echtzeittelemetrie und netzwerkfähigen Algorithmen auf Auslastungen statt auf Netzwerküberwachung. Die Funktion zur Steuerung einer pfadabhängigen Überlastung vereinfacht die Verwaltung der Netzwerk-Performance, sodass Teams kritische Probleme schnell erkennen und beheben können und gleichzeitig die Auswirkungen von Incast-Szenarien mindern. 

Abstract data center concept
Schnelle Fehlererkennung 

Dank der schnellen Fehlererkennung können Teams Probleme innerhalb von Millisekunden lokalisieren, was eine nahezu sofortige Failover-Wiederherstellung ermöglicht und die Ausfallzeit der GPU erheblich reduziert. Profitieren Sie von einer höheren Beobachtbarkeit des Netzwerks mit Latenzmetriken in nahezu Echtzeit sowie Statistiken zu Überlastungen und Verlusten. 

Digital cyberspace and digital data network connections

KI-Performance und Netzwerkzuverlässigkeit steigern

Bis zu
15 % Schnellere KI-Job-Performance 1

Verbessern Sie die Laufzeit-Performance bei bestimmten Anwendungen um ca. 15 %. Mit Funktionen wie dem intelligenten Netzwerklastausgleich, schnellem Failover und Verlustwiederherstellung beschleunigt die AMD Pensando Pollara 400 AI NIC Auslastungen und maximiert zugleich die KI-Investitionen. 

Bis zu
10 % Verbesserte Netzwerkzuverlässigkeit 2

Erzielen Sie eine bis zu 10 % bessere Netzwerkverfügbarkeit. Mit der AMD Pensando Pollara 400 AI NIC minimieren Sie Cluster-Ausfallzeiten und erhöhen gleichzeitig die Netzwerkausfallsicherheit und -verfügbarkeit mit modernstem RAS und schneller Ausfallwiederherstellung.  

AMD Pensando™ Pollara 400 AI NIC Spezifikationen

Maximale Bandbreite  Bauform Ethernet-Schnittstelle  Ethernet-Geschwindigkeiten Ethernet-Konfigurationen  Verwaltung
400 Gbit/s Halbe Höhe, halbe Länge  PCIe® Gen5.0x16 25/50/100/200/400 Gbit/s

Unterstützt bis zu 4 Ports
- 1 x 400G
- 2 x 200G
- 4 x 100G
- 4 x 50G
- 4 x 25G

MCTP über SMBus

Entdecken Sie die komplette Suite von AMD Netzwerklösungen, die für moderne High-Performance-Rechenzentren entwickelt wurden.

Ressourcen

Die Zukunft von KI-Networking erschließen

Erfahren Sie, wie die AMD Pensando Pollara 400 AI NIC Ihre erweiterbare KI-Infrastruktur transformieren kann.

Fußnoten
  1. Dong, Jianbo & Luo, Bin & Zhang, Jun & Zhang, Pengcheng & Feng, Fei & Zhu, Yikai & Liu, Ang & Chen, Zian & Shi, Yi & Jiao, Hairong & Lu, Gang & Guan, Yu & Zhai, Ennan & Xiao, Wencong & Zhao, Hanyu & Yuan, Man & Yang, Siran & Li, Xiang & Wang, Jiamang & Fu, Binzhang. (2024). Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach. 10.48550/arXiv.2406.04594. Boosting Large-scale Parallel Training Efficiency with C4: A Communication-Driven Approach https://arxiv.org/pdf/2406.04594. Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.
  2. Dubey, Abhimanyu & Jauhri, Abhinav & Pandey, Abhinav & Kadian, Abhishek & Al-Dahle, Ahmad & Letman, Aiesha & Mathur, Akhil & Schelten, Alan & Yang, Amy & Fan, Angela & Goyal, Anirudh & Hartshorn, Anthony & Yang, Aobo & Mitra, Archi & Sravankumar, Archie & Korenev, Artem & Hinsvark, Arthur & Rao, Arun & Zhang, Aston & Zhao, Zhiwei. (2024). The Llama 3 Herd of Models. 10.48550/arXiv.2407.21783. Meta Research Paper „The Llama 3 Herd of Models“, Tabelle 5.  Leistungsbezogene Angaben beziehen sich auf die Technologie, die in AMD Pensando Pollara 400 NICs verwendet wird, die Tests und Daten sind jedoch nicht spezifisch für Pollara 400. Ergebnisse können abweichen.