Services auslagern und beschleunigen

Die AMD Pensando™ DPU-Technologie wurde von einigen der branchenweit größten Anbieter von Unternehmens- und Cloud-Services über Produktgenerationen hinweg übernommen. Die AMD Pensando DPUs wurden als Front-End-Netzwerklösung in einigen der größten Hyperscale-Rechenzentren weithin übernommen, validiert und getestet.

Anwendungsfälle

Speicherbeschleunigung

Verlagern Sie Speichervirtualisierung, Verschlüsselung und Datendienste, um den Durchsatz zu maximieren, Latenz zu reduzieren und die Effizienz moderner Rechenzentren zu steigern.

Front-End-Netzwerke für KI-Cluster

Nutzen Sie Front-End-Netzwerke zur Beschleunigung und Verwaltung der Datenverschiebung zwischen Rechen-, Speicher- und externen Netzwerken, um einen hohen Durchsatz und eine geringe Latenz für anspruchsvolle KI-Auslastungen zu ermöglichen.

AMD Pensando DPU

Die AMD Pensando™ Salina 400 DPU ist vollständig P4-programmierbar und optimiert für Latenz, Jitter und Energiebedarf auf Minimalniveau. Die DPU der dritten Generation von AMD Pensando liefert unglaubliche Energieeffizienz bei gleichzeitiger Erhöhung des Durchsatzes für P4-Pipelines und ermöglicht zugleich Softwarekompatibilität mit vorherigen AMD Pensando™ DPUs, was den Kunden die Übernahme erleichtert.

Funktionen

  • Erweiterte Überwachbarkeit
  • Cloud-Networking
  • Verbesserte Sicherheitsfunktionen
  • Speicherbeschleunigung
  • Sicherheitsbeschleunigung und Verschlüsselung
  • 16 Arm® N1 CPU-Kerne

Vorteile

  • Doppelte Performance und Skalierung im Vergleich zu DPUs der vorherigen Generation1
  • Optimierte Unternehmens-, Cloud- und KI-Frontend-Infrastruktur-Performance
  • Deterministische Latenz, geringer Jitter
  • Vollständig programmierbarer P4-Datenpfad
  • Services werden mithilfe von ARM-Kernen ausgelagert

AMD Pensando™ Giglio DPU

Die AMD Pensando™ Giglio DPU basiert auf der Architektur der zweiten Generation mit verbesserter Energie- und Performance-Effizienz und bietet eine duale 200-Gbit/s-Leitungsgeschwindigkeits-Auslagerung für Netzwerke, Speicher und Sicherheit in Rechenzentren. Dieses Gerät ist vollständig P4-programmierbar, unterstützt DDR5-Speicher und behält die Quellcodekompatibilität mit früheren Generationen bei. Dies ermöglicht eine einfache Bereitstellung fortschrittlicher Traffic-Verarbeitung und Virtualisierung auf Cloud-Ebene.

AMD Pensando™ Elba DPU

Die AMD Pensando Elba DPU der zweiten Generation ist vollständig P4-programmierbar und für hohen Durchsatz optimiert, wodurch eine erweiterte Auslagerung von Netzwerk-, Speicher- und Sicherheits-Services mit einer dualen Leitungsgeschwindigkeit von 200 Gbit/s ermöglicht wird. Mit dedizierten Engines für Verschlüsselung und Speicher unterstützt diese Lösung komplexe Traffic-Verarbeitung, Netzwerkvirtualisierung und Inline-Verschlüsselung und ist mit früheren AMD Pensando™ DPUs quellcodekompatibel für eine nahtlose Integration.

Aussagekräftige Ergebnisse für unsere Kunden bereitstellen

Oracle Cloud logo

5-fache SDN-Performance2
Multi-Service
Zukunftsbereit

Microsoft Azure logo

100-fache Verbesserung der CPS-Performance3
Kosteneinsparungen

IBM Cloud white logo

Bare-Metal und VSI
Einsparungen bei Gesamtbetriebskosten4
Regulierte Branchen

DXC Technology

Einsparungen bei Gesamtbetriebskosten in Höhe von 65 Mio. $5

Kundenerfahrungen mit AMD Pensando™ DPUs

Microsoft Azure: „Eine wunderbare Partnerschaft“

„AMD Pensando™ hat uns in puncto CPS sehr geholfen. Die Kunden sind davon begeistert. Jetzt sind wir weltweit führend bei der CPS-Performance.“

DXC Technology: Kosten für Kunden und das Unternehmen selbst senken

DXC verzeichnet geschätzte Einsparungen im zweistelligen Millionenbereich dank AMD Pensando™ DPUs im HPE Aruba CX 10000-Serie Switch.

Oracle Cloud: 5-fache Steigerung bei der Netzwerk-Performance

OCI arbeitet mit dem AMD Pensando™ der Weltklasse, um schnell neue Funktionen hinzuzufügen, Performance-Steigerungen zu realisieren und mehr Kunden zu gewinnen.

HPE Aruba: Rechenzentren neu gedacht

Der HPE Aruba CX 10000-Serie Switch mit integrierter AMD Pensando™ Technologie schafft neue Möglichkeiten, Netzwerkstrukturen aufzubauen.

Ressourcen

Die Zukunft von KI-Networking erschließen

Erfahren Sie, wie die AMD Pensando™ DPU-Technologie das Front-End-Netzwerk für moderne Rechenzentren transformieren kann. Entdecken Sie die komplette Suite von Netzwerklösungen, die für moderne High-Performance-Rechenzentren entwickelt wurden.

Fußnoten
  1. PEN-012:  Messungen durchgeführt im AMD Leistungslabor am 27. August 2024 anhand der aktuellen Spezifikation für den AMD Pensando™ Salina DPU-Beschleuniger, konzipiert mit AMD Pensando™ 5-nm-Prozesstechnologie, die zu einer geschätzten linearen Performance von 400 Gb/s führen soll. Geschätzte gelieferte Ergebnisse berechnet für AMD Pensando™ Elba DPU mit AMD Pensando 7-nm-Prozesstechnologie ergaben eine Leitungsraten-Performance von 200 Gb/s. Die tatsächlichen Ergebnisse auf Basis von Chips aus der Produktion können abweichen. 
  2. Vithal Shirodkar, SVP, Software Development, OCI Networking: „Diese gemeinsam entwickelte Lösung war entscheidend für die Beschleunigung der Performance für die anspruchsvollsten Auslastungen der Kunden. Die Verbesserungen waren äußerst umfangreich und beinhalteten eine 5-fache Steigerung der Performance für SDN-Networking.“
  3. Gerald De Grace, Lead, Microsoft Azure Accelerated Connections: „Unsere Zusammenarbeit mit AMD mithilfe der auf der AMD Pensando DPU basierenden Appliance und der vollständigen AMD Software in Produktion für ‚Accelerated Connections‘ hat zu einer 100-fachen Verbesserung der CPS-Performance gegenüber unserer bestehenden Lösung geführt und wird sich in Zukunft auf weitere Ebenen innerhalb des Azure Netzwerks ausweiten.“
  4. Satinder Sethi, GM, IBM Cloud Infrastructure Services: „Aufgrund der Zusammenarbeit mit AMD und der Nutzung seiner programmierbaren DPU, schlüsselfertiger SDN- und Sicherheitsservices-Software konnte IBM Cloud die Vermarktung unseres preisgekrönten sicheren High-Performance-Angebots „Bare-Metal Servers for VPC“ für VMware-, Red Hat- und SAP-Auslastungen beschleunigen und so erhebliche Verbesserungen des Netzwerkdurchsatzes für die Kunden und Einsparungen von 30 % bei den Gesamtbetriebskosten durch höhere Auslastungsdichte und eingesparte CPU-Kerne erzielen.“
  5. Jayant Tulsiani, DXC VP Cloud and Infrastructure Services: „Was früher Hunderte von virtuellen und physischen Firewalls erforderte, um unsere Segmentierungs- und Konformitätsanforderungen zu erfüllen, wird jetzt nativ inline auf der Plattform bereitgestellt, was eine Transformation für unser Unternehmensmodell für die Gesamtbetriebskosten darstellt und zu prognostizierten Einsparungen bei den Gesamtbetriebskosten von ~65 Mio. $ führt“