Hohe Performance. Energieeffizienz. Geringe Gesamtbetriebskosten.
Die AMD EPYC 9004 Server-CPU unterstützt Enterprise-Workloads mit hoher Performance, Energieeffizienz und nahtloser x86-Kompatibilität bei On-Premises- und Cloud-nativen Bereitstellungen. Minimieren Sie Ihre Gesamtbetriebskosten und maximieren Sie gleichzeitig die Ergebnisse bei einer Vielzahl von Workloads.
„Zen 4“-Architektur
Mit bis zu 128 „Zen 4“ bzw. „Zen 4c“ Kernen und 12 DDR5-Speicherkanälen für außergewöhnliche Speicherbandbreite und Kapazität. Die AMD EPYC CPU-Architektur der 4. Generation ermöglicht leistungsstarke, energieeffiziente Lösungen, die für eine Vielzahl von Rechenzentren optimiert sind.
KI-Workloads verbessern
Bieten Sie führende Performance und Effizienz für anspruchsvolle KI-Workloads mit Plattformen, die auf AMD EPYC 9004 Server-CPUs basieren, und unterstützen Sie Unternehmen und Cloud-Anbieter bei der nahtlosen Skalierung der KI-Infrastruktur für die Zukunft.
Cloud-Computing-Lösungen
Bieten Sie führende Performance und Effizienz für anspruchsvolle Workloads mit virtuellen Cloud-Maschinen (VMs) mit AMD EPYC 9004 Server-CPUs – damit Cloud-Anbieter problemlos in die Zukunft skalieren können.
Zur Verarbeitung von 7 Millionen Anfragen pro Sekunde mit NGINX™ auf Amazon EC2 M7a.4xl mit AMD EPYC CPU im Vergleich zu M7i.4xl mit Intel Xeon.2
Enterprise
Erweitern Sie Ihre allgemeinen Server, um einen herausragenden Wert in Bezug auf Energieeffizienz, Gesamtbetriebskosten, Platzeinsparungen und Performance zu erzielen. AMD EPYC 9004 Server-CPU ist für alle Unternehmenskunden konzipiert.
Modellspezifikationen
- 9004-Serie Prozessoren
- 9004-Serie mit 3D V-Cache™ Technologie
- 97x4-Prozessoren
Support und Ressourcen
Fußnoten
- SP5-051A: Vergleich der Auslastung von TPCx-AI SF30-Derivaten basierend auf internen Tests von AMD mit mehreren VM-Instanzen (Stand: 13.4.2024). Der aggregierte End-to-End-KI-Durchsatztest ist vom TPCx-AI-Benchmark abgeleitet und als solcher nicht mit den veröffentlichten TPCx-AI-Ergebnissen vergleichbar, da die Ergebnisse des End-to-End-KI-Durchsatztests nicht der TPCx-AI-Spezifikation entsprechen. AMD Systemkonfiguration: Prozessoren: 2 x AMD EPYC 9654; Frequenzen: 2,4 GHz | 3,7 GHz; Kerne: 96 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 384 MB/Sockel (768 MB insgesamt); Speicher: 1,5 TB (24) Dual-Rank DDR5-5600 64GB DIMMs, 1DPC (Plattform unterstützt bis zu 4800 MHz); NIC: 2 x 100 GbE Mellanox CX-5 (MT28800); Speicher: 3,2 TB Samsung MO003200KYDNC U.3 NVMe; BIOS: 1.56; BIOS-Einstellungen: SMT=ON, Determinism=Power, NPS=1, PPL=400W, Turbo Boost=Enabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 6 Instanzen, 64 vCPUs/Instanz, 2663 aggregierte KI-Nutzungsfälle/Min. im Vergleich zu einer Intel-Systemkonfiguration: Prozessoren: 2 x Intel® Xeon® Platinum 8592+; Frequenzen: 1,9 GHz | 3,9 GHz; Kerne: 64 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 320 MB/Sockel (640 MB insgesamt); Speicher: 1 TB (16) Dual-Rank DDR5-5600 64 GB DIMMs, 1DPC; NIC: 4 x 1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe; Speicher: 3,84 TB KIOXIA KCMYXRUG3T84 NVMe; BIOS: ESE124B-3.11; BIOS-Einstellungen: Hyperthreading=Enabled, Turbo boost=Enabled, SNC=Disabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 4 Instanzen, 64 vCPUs/Instanz, 1607 aggregierte KI-Nutzungsfälle/min. Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren. TPC, TPC Benchmark und TPC-C sind Marken des Transaction Processing Performance Council.
- SP5C-013: Basierend auf dem AMD Test vom 28.09.2023 weist M7a.4xl beim NGINX WRK-Testdurchsatz eine 1,62-mal bessere Performance gegenüber M7i.4xl auf. Die Instanz-Preise von m7i.4xlarge: 0,8064 $/Std. und m7a.4xlarge: 0,92736 $/Std. basieren auf den veröffentlichten Amazon EC2 On-Demand-Preisen US-East-Region (Ohio) vom 28.09.2023. https://calculator.aws/#/createCalculator/ec2-enhancement
Performance (NGINX WRK Anfragen/s (RPS))
m7i.4xlarge 893621,554
m7a.4xlarge 1448376,598
Die hier dargestellten Cloud-Performance-Ergebnisse basieren auf dem Testdatum der Konfiguration. Die Ergebnisse können aufgrund von Änderungen an der zugrundeliegenden Konfiguration und anderen Bedingungen variieren, z. B. Platzierung der VM und ihrer Ressourcen, Optimierungen durch den Cloud-Service-Anbieter, aufgerufene Cloud-Regionen, Co-Tenants und die Arten anderer Workloads, die gleichzeitig auf dem System ausgeführt werden. NGINX ist eine Marke von Nginx Software Inc.
- SP5-104B: SPECjbb® 2015-MultiJVM Critical-jOPS basierend auf veröffentlichten Ergebnissen von www.spec.org, Stand: 04.01.2024. Konfigurationen: 2P AMD EPYC 9684X (679.119 SPECjbb®2015 MultiJVM critical-jOPS, 783.622 SPECjbb®2015 MultiJVM max-jOPS, 192 Kerne gesamt, https://spec.org/jbb2015/results/res2023q3/jbb2015-20230906-01166.html) erreicht die 1,61-fache veröffentlichte critical-jOPS-Performance von 2P Intel Xeon Platinum 8592+ mit 64 Kernen (421.207 SPECjbb®2015 MultiJVM critical-jOPS, 480.007 SPECjbb®2015 MultiJVM max-jOPS, 128 Kerne gesamt, https://spec.org/jbb2015/results/res2024q1/jbb2015-20231224-01210.html). SPEC® and SPECjbb® sind eingetragene Marken der Standard Performance Evaluation Corporation. Weitere Informationen auf www.spec.org.
- SP5-051A: Vergleich der Auslastung von TPCx-AI SF30-Derivaten basierend auf internen Tests von AMD mit mehreren VM-Instanzen (Stand: 13.4.2024). Der aggregierte End-to-End-KI-Durchsatztest ist vom TPCx-AI-Benchmark abgeleitet und als solcher nicht mit den veröffentlichten TPCx-AI-Ergebnissen vergleichbar, da die Ergebnisse des End-to-End-KI-Durchsatztests nicht der TPCx-AI-Spezifikation entsprechen. AMD Systemkonfiguration: Prozessoren: 2 x AMD EPYC 9654; Frequenzen: 2,4 GHz | 3,7 GHz; Kerne: 96 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 384 MB/Sockel (768 MB insgesamt); Speicher: 1,5 TB (24) Dual-Rank DDR5-5600 64GB DIMMs, 1DPC (Plattform unterstützt bis zu 4800 MHz); NIC: 2 x 100 GbE Mellanox CX-5 (MT28800); Speicher: 3,2 TB Samsung MO003200KYDNC U.3 NVMe; BIOS: 1.56; BIOS-Einstellungen: SMT=ON, Determinism=Power, NPS=1, PPL=400W, Turbo Boost=Enabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 6 Instanzen, 64 vCPUs/Instanz, 2663 aggregierte KI-Nutzungsfälle/Min. im Vergleich zu einer Intel-Systemkonfiguration: Prozessoren: 2 x Intel® Xeon® Platinum 8592+; Frequenzen: 1,9 GHz | 3,9 GHz; Kerne: 64 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 320 MB/Sockel (640 MB insgesamt); Speicher: 1 TB (16) Dual-Rank DDR5-5600 64 GB DIMMs, 1DPC; NIC: 4 x 1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe; Speicher: 3,84 TB KIOXIA KCMYXRUG3T84 NVMe; BIOS: ESE124B-3.11; BIOS-Einstellungen: Hyperthreading=Enabled, Turbo boost=Enabled, SNC=Disabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 4 Instanzen, 64 vCPUs/Instanz, 1607 aggregierte KI-Nutzungsfälle/min. Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren. TPC, TPC Benchmark und TPC-C sind Marken des Transaction Processing Performance Council.
- SP5C-013: Basierend auf dem AMD Test vom 28.09.2023 weist M7a.4xl beim NGINX WRK-Testdurchsatz eine 1,62-mal bessere Performance gegenüber M7i.4xl auf. Die Instanz-Preise von m7i.4xlarge: 0,8064 $/Std. und m7a.4xlarge: 0,92736 $/Std. basieren auf den veröffentlichten Amazon EC2 On-Demand-Preisen US-East-Region (Ohio) vom 28.09.2023. https://calculator.aws/#/createCalculator/ec2-enhancement
Performance (NGINX WRK Anfragen/s (RPS))
m7i.4xlarge 893621,554
m7a.4xlarge 1448376,598
Die hier dargestellten Cloud-Performance-Ergebnisse basieren auf dem Testdatum der Konfiguration. Die Ergebnisse können aufgrund von Änderungen an der zugrundeliegenden Konfiguration und anderen Bedingungen variieren, z. B. Platzierung der VM und ihrer Ressourcen, Optimierungen durch den Cloud-Service-Anbieter, aufgerufene Cloud-Regionen, Co-Tenants und die Arten anderer Workloads, die gleichzeitig auf dem System ausgeführt werden. NGINX ist eine Marke von Nginx Software Inc. - SP5-104B: SPECjbb® 2015-MultiJVM Critical-jOPS basierend auf veröffentlichten Ergebnissen von www.spec.org, Stand: 04.01.2024. Konfigurationen: 2P AMD EPYC 9684X (679.119 SPECjbb®2015 MultiJVM critical-jOPS, 783.622 SPECjbb®2015 MultiJVM max-jOPS, 192 Kerne gesamt, https://spec.org/jbb2015/results/res2023q3/jbb2015-20230906-01166.html) erreicht die 1,61-fache veröffentlichte critical-jOPS-Performance von 2P Intel Xeon Platinum 8592+ mit 64 Kernen (421.207 SPECjbb®2015 MultiJVM critical-jOPS, 480.007 SPECjbb®2015 MultiJVM max-jOPS, 128 Kerne gesamt, https://spec.org/jbb2015/results/res2024q1/jbb2015-20231224-01210.html). SPEC® and SPECjbb® sind eingetragene Marken der Standard Performance Evaluation Corporation. Weitere Informationen auf www.spec.org.