Hohe Performance. Energieeffizienz. Geringe Gesamtbetriebskosten.

Die AMD EPYC 9004 Server-CPU unterstützt Enterprise-Workloads mit hoher Performance, Energieeffizienz und nahtloser x86-Kompatibilität bei On-Premises- und Cloud-nativen Bereitstellungen. Minimieren Sie Ihre Gesamtbetriebskosten und maximieren Sie gleichzeitig die Ergebnisse bei einer Vielzahl von Workloads.

„Zen 4“-Architektur

Mit bis zu 128 „Zen 4“ bzw. „Zen 4c“ Kernen und 12 DDR5-Speicherkanälen für außergewöhnliche Speicherbandbreite und Kapazität. Die AMD EPYC CPU-Architektur der 4. Generation ermöglicht leistungsstarke, energieeffiziente Lösungen, die für eine Vielzahl von Rechenzentren optimiert sind.

“Zen 4” Architecture white paper
~65 %
mehr Gesamtdurchsatz/Min. bei KI-Anwendungsfällen
*TPCx-AI SF30 2P 96C EPYC™ 9654 vs 2P 64C Xeon 8582+-¹

KI-Workloads verbessern

Bieten Sie führende Performance und Effizienz für anspruchsvolle KI-Workloads mit Plattformen, die auf AMD EPYC 9004 Server-CPUs basieren, und unterstützen Sie Unternehmen und Cloud-Anbieter bei der nahtlosen Skalierung der KI-Infrastruktur für die Zukunft.

Cloud-Computing-Lösungen

Bieten Sie führende Performance und Effizienz für anspruchsvolle Workloads mit virtuellen Cloud-Maschinen (VMs) mit AMD EPYC 9004 Server-CPUs – damit Cloud-Anbieter problemlos in die Zukunft skalieren können.

Verwendung von
~38 %
weniger Instanzen

Zur Verarbeitung von 7 Millionen Anfragen pro Sekunde mit NGINX™ auf Amazon EC2 M7a.4xl mit AMD EPYC CPU im Vergleich zu M7i.4xl mit Intel Xeon.2

Bis zu
~60 %
höherer Durchsatz unternehmenskritischer Operationen – SLA-konform³
*SPECjbb®2015-MultiJVM Critical-jOPS 2P 96C EPYC™ 9684X vs. 2P 64C Xeon Platinum 8592+

Enterprise

Erweitern Sie Ihre allgemeinen Server, um einen herausragenden Wert in Bezug auf Energieeffizienz, Gesamtbetriebskosten, Platzeinsparungen und Performance zu erzielen. AMD EPYC 9004 Server-CPU ist für alle Unternehmenskunden konzipiert. 

Black fade

Partnerlösungen

AMD arbeitet mit einer Vielzahl von Partnern zusammen, um mit AMD EPYC™ Prozessoren der 4. Generation optimierte Lösungen zu entwickeln.

Modellspezifikationen

Support und Ressourcen

Fußnoten
  1. SP5-051A: Vergleich der Auslastung von TPCx-AI SF30-Derivaten basierend auf internen Tests von AMD mit mehreren VM-Instanzen (Stand: 13.4.2024). Der aggregierte End-to-End-KI-Durchsatztest ist vom TPCx-AI-Benchmark abgeleitet und als solcher nicht mit den veröffentlichten TPCx-AI-Ergebnissen vergleichbar, da die Ergebnisse des End-to-End-KI-Durchsatztests nicht der TPCx-AI-Spezifikation entsprechen. AMD Systemkonfiguration: Prozessoren: 2 x AMD EPYC 9654; Frequenzen: 2,4 GHz | 3,7 GHz; Kerne: 96 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 384 MB/Sockel (768 MB insgesamt); Speicher: 1,5 TB (24) Dual-Rank DDR5-5600 64GB DIMMs, 1DPC (Plattform unterstützt bis zu 4800 MHz); NIC: 2 x 100 GbE Mellanox CX-5 (MT28800); Speicher: 3,2 TB Samsung MO003200KYDNC U.3 NVMe; BIOS: 1.56; BIOS-Einstellungen: SMT=ON, Determinism=Power, NPS=1, PPL=400W, Turbo Boost=Enabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 6 Instanzen, 64 vCPUs/Instanz, 2663 aggregierte KI-Nutzungsfälle/Min. im Vergleich zu einer Intel-Systemkonfiguration: Prozessoren: 2 x Intel® Xeon® Platinum 8592+; Frequenzen: 1,9 GHz | 3,9 GHz; Kerne: 64 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 320 MB/Sockel (640 MB insgesamt); Speicher: 1 TB (16) Dual-Rank DDR5-5600 64 GB DIMMs, 1DPC; NIC: 4 x 1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe; Speicher: 3,84 TB KIOXIA KCMYXRUG3T84 NVMe; BIOS: ESE124B-3.11; BIOS-Einstellungen: Hyperthreading=Enabled, Turbo boost=Enabled, SNC=Disabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 4 Instanzen, 64 vCPUs/Instanz, 1607 aggregierte KI-Nutzungsfälle/min. Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren.  TPC, TPC Benchmark und TPC-C sind Marken des Transaction Processing Performance Council.
  2. SP5C-013: Basierend auf dem AMD Test vom 28.09.2023 weist M7a.4xl beim NGINX WRK-Testdurchsatz eine 1,62-mal bessere Performance gegenüber M7i.4xl auf. Die Instanz-Preise von m7i.4xlarge: 0,8064 $/Std. und m7a.4xlarge: 0,92736 $/Std. basieren auf den veröffentlichten Amazon EC2 On-Demand-Preisen US-East-Region (Ohio) vom 28.09.2023. https://calculator.aws/#/createCalculator/ec2-enhancement

    Performance (NGINX WRK Anfragen/s (RPS))
    m7i.4xlarge   893621,554
    m7a.4xlarge  1448376,598

    Die hier dargestellten Cloud-Performance-Ergebnisse basieren auf dem Testdatum der Konfiguration. Die Ergebnisse können aufgrund von Änderungen an der zugrundeliegenden Konfiguration und anderen Bedingungen variieren, z. B. Platzierung der VM und ihrer Ressourcen, Optimierungen durch den Cloud-Service-Anbieter, aufgerufene Cloud-Regionen, Co-Tenants und die Arten anderer Workloads, die gleichzeitig auf dem System ausgeführt werden. NGINX ist eine Marke von Nginx Software Inc.
  3. SP5-104B: SPECjbb® 2015-MultiJVM Critical-jOPS basierend auf veröffentlichten Ergebnissen von www.spec.org, Stand: 04.01.2024. Konfigurationen: 2P AMD EPYC 9684X (679.119 SPECjbb®2015 MultiJVM critical-jOPS, 783.622 SPECjbb®2015 MultiJVM max-jOPS, 192 Kerne gesamt, https://spec.org/jbb2015/results/res2023q3/jbb2015-20230906-01166.html) erreicht die 1,61-fache veröffentlichte critical-jOPS-Performance von 2P Intel Xeon Platinum 8592+ mit 64 Kernen (421.207 SPECjbb®2015 MultiJVM critical-jOPS, 480.007 SPECjbb®2015 MultiJVM max-jOPS, 128 Kerne gesamt, https://spec.org/jbb2015/results/res2024q1/jbb2015-20231224-01210.html). SPEC® and SPECjbb® sind eingetragene Marken der Standard Performance Evaluation Corporation. Weitere Informationen auf www.spec.org.