Wir stellen vor: AMD EPYC Server-CPUs der 5. Generation

Die AMD EPYC 9005 Server-CPUs wurden speziell zur Beschleunigung von Workloads für Rechenzentren, Cloud und KI entwickelt und setzen neue Maßstäbe für die Computing-Performance in Unternehmen.   

Die führende CPU für KI1

AMD EPYC™ 9005 Server-CPUs bieten durchgängige KI-Performance.

Pro-Server-Performance maximieren

AMD EPYC™ 9005 CPUs können die Integer Performance alter Hardware mit bis zu 88 % weniger Racks2 abdecken. So wird der physische Platzbedarf, der Stromverbrauch und die Anzahl der erforderlichen Softwarelizenzen enorm reduziert und Platz geschaffen für neue oder erweiterte KI-Auslastungen.

Führende KI-Inferenz-Performance

Viele KI-Auslastungen, LLMs mit 13 Milliarden Parametern und darunter, Bild- und Betrugsanalysen oder Empfehlungssysteme werden effizient auf reinen CPU-Servern mit AMD EPYC™ 9005 CPUs ausgeführt. Server, die mit zwei AMD EPYC 9965 CPUs der 5. Generation ausgestattet sind, bieten einen bis zu 2-fachen Inferenzdurchsatz im Vergleich zu Angeboten der vorherigen Generation.3

GPU-Beschleunigung maximieren

Die AMD EPYC™ 9005 Familie beinhaltet Optionen, die für Host-CPUs für GPU-fähige Systeme optimiert sind, um die Performance auf ausgewählten KI-Auslastungen zu erhöhen und den ROI für jeden GPU-Server zu verbessern. In Inferenz-Performancetests zum geometrischen Mittel für 8 Modelle und 4 Anwendungsfälle bietet beispielsweise ein Hochfrequenz-Server mit AMD EPYC 9575F CPU und 8 GPUs eine bis zu 13 % kürzere Zeit bis zum ersten Token und einen um 6,6 % höheren Gesamt-Inferenzdurchsatz als ein gleichwertiger Server mit 8 GPUs und Intel Xeon 6960P CPUs.4,5,6

Erfahren Sie, wie AMD EPYC Prozessoren der 5. Generation dazu beitragen, die Effizienz und Performance von KI im gesamten Rechenzentrum zu steigern. Von der Schaffung von Platz und Energie in Ihrem Rechenzentrum über Inferenz direkt auf der CPU bis hin zur Verbesserung der Performance auf GPUs – AMD EPYC Prozessoren ermöglichen neue Dimensionen für KI im Unternehmen.

Unternehmens-Performance, optimiert

AMD EPYC 9005 Server-CPUs liefern herausragende Performance und bieten dabei führende Energieeffizienz und niedrige Gesamtbetriebskosten zur Unterstützung wichtiger Unternehmensziele.

Branchenführende Integer Performance

Server mit AMD EPYC 9005 CPU nutzen die neuen „Zen 5“ Kerne, um überzeugende Mainstream-Performance-Metriken zu bieten, einschließlich einer 2,3-fachen Integer Performance im Vergleich zu führenden Angeboten der Konkurrenz.5

Konzipiert für die Cloud

AMD EPYC™ 9005 Server-CPUs bieten Dichte und Performance für Cloud-Auslastungen. Mit 192 Kernen unterstützt der AMD EPYC 9965 Top-of-Stack-Prozessor 33 % mehr virtuelle CPUs (vCPUs) als der führende Intel® Xeon 6E „Sierra Forest“ Prozessor mit 144 Kernen (1 Kern pro vCPU).

Führende Effizienz und Gesamtbetriebskosten

Rechenzentren erfordern mehr Strom als je zuvor. AMD EPYC™ 9005 Server-CPUs bieten auch weiterhin die Vorteile der vorherigen AMD EPYC Generationen in Sachen Energieeffizienz und Gesamtbetriebskosten. 

Führende Performance, Dichte und Effizienz

AMD EPYC 9005-Serie Server-CPUs enthalten bis zu 192 „Zen 5“ oder „Zen 5c“ Kerne mit einzigartiger Speicherbandbreite und -kapazität.  Die innovative AMD-Chiplet-Architektur ermöglicht energieeffiziente High-Performance-Lösungen, die für die unterschiedlichsten Computing-Anforderungen optimiert sind.

„Zen 5“

AMD Zen 5 chip

„Zen 5c“

AMD Zen 5c chip

Breite Ökosystemunterstützung, mit führenden Unternehmen der Branche

AMD arbeitet mit einem großen Netzwerk von Lösungsanbietern für AMD EPYC™ 9005 Server-CPUs zusammen. Unternehmen und Behörden auf der ganzen Welt wählen AMD für ihre wichtigsten Auslastungen.

Modellspezifikationen

Ressourcen

Fußnoten
  1. 9xx-151: TPCxAI @SF30 Multi-Instanz mit 32 Kernen Instanzgröße-Durchsatzergebnisse basierend auf internen Tests von AMD vom 01.04.2025 bei Ausführung mehrerer VM-Instanzen. Der aggregierte End-to-End-KI-Durchsatztest ist vom TPCx-AI-Benchmark abgeleitet und als solcher nicht mit den veröffentlichten TPCx-AI-Ergebnissen vergleichbar, da die Ergebnisse des End-to-End-KI-Durchsatztests nicht der TPCx-AI-Spezifikation entsprechen. 2P AMD EPYC 9965 (6067,53 AIUCpm gesamt, 384 Kerne gesamt, 500 W TDP, AMD Referenzsystem, 1,5 TB 24x64 GB DDR5-6400, 2x40 GbE Mellanox CX-7 (MT2910), 3,84 TB Samsung MZWLO3T8HCLS-00A07 NVMe, Ubuntu® 24.04 LTS-Kernel 6.13, SMT=EIN, Determinism=power, Mitigations=EIN) 2P AMD EPYC 9755 (4073,42 AIUCpm gesamt, 256 Kerne gesamt, 500 W TDP, AMD Referenzsystem, 1,5 TB 24x64 GB DDR5-6400, 2x40 GbE Mellanox CX-7 (MT2910) 3,84 TB Samsung MZWLO3T8HCLS-00A07 NVMe, Ubuntu 24.04 LTS-Kernel 6.13, SMT=EIN, Determinism=power, Mitigations=EIN) 2P Intel Xeon 6980P (3550,50 AIUCpm gesamt, 256 Kerne gesamt, 500 W TDP, Produktionssystem, 1,5 TB 24x64 GB DDR5-6400, 4x1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe 3,84 TB SAMSUNG MZWLO3T8HCLS-00A07 NVMe, Ubuntu 24.04 LTS-Kernel 6.13, SMT=EIN, Performance Bias, Mitigations=EIN) Die Ergebnisse können abhängig von Faktoren wie u. a. Systemkonfiguration, Softwareversion und BIOS-Einstellungen abweichen. TPC, TPC Benchmark und TPC-H sind Marken des Transaction Processing Performance Council.
  2. 9xx5TCO-018: Dieses Szenario fußt auf vielen Annahmen und Schätzungen, und obwohl es auf internen Forschungen und bestmöglichen Näherungswerten von AMD basiert, dient es nur als Beispiel zur Veranschaulichung und sollte nicht anstelle eigener Tests als Entscheidungsgrundlage genommen werden. Das AMD Server and Greenhouse Gas Emissions TCO (Total Cost of Ownership) Estimator Tool – Version 1.53 – vergleicht die benötigten AMD EPYC™ und Intel® Xeon® CPU-basierten Server für insgesamt 391.000 Einheiten von SPECrate2017_int_base-Performance (Stand 3. Dezember 2025). Diese Analyse vergleicht einen 2P-Server mit AMD EPYC_9965, 192 Kernen und einer SPECrate2017_int_base Bewertung von 3230, https://spec.org/cpu2017/results/res2025q2/cpu2017-20250324-47086.pdf
    mit einem 2P-Server mit Intel Xeon_6980P, 128 Kernen und einer SPECrate2017_int_base Bewertung von 2510, https://spec.org/cpu2017/results/res2025q2/cpu2017-20250324-47099.pdf; im Vergleich zu einem älteren 2P-Server mit Intel Xeon Platinum_8280, 28 Kernen und einer SPECrate2017_int_base Bewertung von 391, https://spec.org/cpu2017/results/res2020q3/cpu2017-20200915-23984.pdf
    Schätzungen der Umweltauswirkungen, die auf Daten aus „2025 International Country Specific Electricity Factors“ beruhen, finden Sie unter https://www.carbondi.com/#electricity-factors/. Der in dieser Analyse verwendete US EPA Greenhouse Gas Equivalencies Calculator mit Stand vom 4.9.2024 ist unter https://www.epa.gov/energy/greenhouse-gas-equivalencies-calculator abrufbar.
    Weitere Details unter https://www.amd.com/en/legal/claims/epyc.html#q=9xx5TCO-018.
  3. 9xx5-040A: XGBoost (Läufe/Stunde) Durchsatzergebnisse basierend auf internen Tests von AMD vom 05.09.2024. XGBoost Konfigurationen: v2.2.1, Higgs Data Set, Instanzen mit 32 Kernen, FP32 2P AMD EPYC 9965 (384 Kerne gesamt), Instanzen mit 12 x 32 Kernen, 1,5 TB 24 x 64 GB DDR5-6400 (bei 6000 MT/s), 1,0 Gbit/s NetXtreme BCM5720 Gigabit Ethernet PCIe, 3,5 TB Samsung MZWLO3T8HCLS-00A07 NVMe®, Ubuntu® 22.04.4 LTS, 6.8.0-45-generic (tuned-adm profile throughput-performance, ulimit -l 198078840, ulimit -n 1024, ulimit -s 8192), BIOS RVOT1000C (SMT = off, Determinism = Power, Turbo Boost = Enabled), NPS = 1 2P AMD EPYC 9755 (256 Kerne gesamt), 1,5 TB 24 x 64 GB DDR5-6400 (bei 6000 MT/s), 1 DPC, 1,0 Gbit/s NetXtreme BCM5720 Gigabit Ethernet PCIe, 3,5 TB Samsung MZWLO3T8HCLS-00A07 NVMe®, Ubuntu 22.04.4 LTS, 6.8.0-40-generic (tuned-adm profile throughput-performance, ulimit -l 198094956, ulimit -n 1024, ulimit -s 8192), BIOS RVOT0090F (SMT = off, Determinism = Power, Turbo Boost = Enabled), NPS = 1 2P AMD EPYC 9654 (192 Kerne gesamt), 1,5 TB 24 x 64 GB DDR5-4800, 1 DPC, 2 x 1,92 TB Samsung MZQL21T9HCJR-00A07 NVMe®, Ubuntu 22.04.4 LTS, 6.8.0-40-generic (tuned-adm profile throughput-performance, ulimit -l 198120988, ulimit -n 1024, ulimit -s 8192), BIOS TTI100BA (SMT = off, Determinism = Power), NPS = 1 Versus 2P Xeon Platinum 8592+ (128 Kerne gesamt), AMX Ein, 1 TB 16 x 64 GB DDR5-5600, 1 DPC, 1,0 Gbit/s NetXtreme BCM5719 Gigabit Ethernet PCIe, 3,84 TB KIOXIA KCMYXRUG3T84 NVMe®, Ubuntu 22.04.4 LTS, 6.5.0-35 generic (tuned-adm profile throughput-performance, ulimit -l 132065548, ulimit -n 1024, ulimit -s 8192), BIOS ESE122V (SMT = off, Determinism = Power, Turbo Boost = Enabled) Ergebnisse: CPU Lauf 1 Lauf 2 Lauf 3 Medianwert Relativer Wert Durchsatz Generationenvergleich 2P Turin 192 Kerne, NPS1 1565.217 1537.367 1553.957 1553.957 3 2.41 2P Turin 128C, NPS1 1103.448 1138.34 1111.969 1111.969 2.147 1.725 2P Genoa 96C, NPS1 662.577 644.776 640.95 644.776 1.245 1 2P EMR 64C 517.986 421.053 553.846 517.986 1 NA Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren.
  4. 9xx5-258: GPU-Inferenz-Durchsatzergebnisse basierend auf internen Tests von AMD vom 24.10.2025. Auslastungskonfigurationen: vLLM-Version, NIM-Version, Eingabe-/Ausgabe-Tokens: 128/128, 1024/128, 128/1024, 1024/1024, Ergebnisse in Token/Sekunde. 2P AMD EPYC 9575F (insgesamt 128 Kerne) Produktionssystem mit 8 x NVIDIA B200 GPUs, 24x64 GB DDR5-6400, SAMSUNG MZWLO3T8HCLS-00A07 3,84 TB NVMe, Ubuntu 24.04 6.8.0-85-generic, BIOS 1,5, SMT AUS, Mitigations AUS, Power Determinism, CUDA 13.0, NPS1 2P Intel Xeon 6960P (128 Kerne insgesamt) Produktionssystem mit 8 x NVIDIA B200 GPUs, 24x64 GB DDR5-6400, SAMSUNG MZWLO3T8HCLS-00A07 3,84 TB NVMe, Ubuntu 24.04 6.8.0-85-generic, BIOS 1,2, SMT AUS, Mitigations AUS, Power Determinism, CUDA 13.0, NPS1 Ergebnisse: Relatives Framework-Modell NIM llama3.3-70b-instruct 1,053 NIM gpt-oss-120b 1,133 NIM qwen2_5-coder-32b-instruct 1,034 VLLM Vllm_Deepseek_V3(R1) 1,036 VLLM Vllm_Llama4_scout 1,049 VLLM Vllm_Qwen2.5-VL-72B-Instruct 1,073 NIM Multi-instance llama3.1-8b-instruct 1,144 NIM Multi-instance qwen2_5-coder-32b-instruct 1,014 Geometrisches Mittel (gesamt) 1,066 Bestes Ergebnis 1,144 Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren.
  5. 9xx5-259: GPU-Inferenzlatenz (Zeit bis zum ersten Token) basierend auf internen Tests von AMD vom 24.10.2025. Auslastungskonfigurationen: vLLM-Version, NIM-Version, Eingabe-/Ausgabe-Tokens: 128/128, 1024/128, 128/1024, 1024/1024, Ergebnisse in Sekunden. 2P AMD EPYC 9575F (insgesamt 128 Kerne) Produktionssystem mit 8 x NVIDIA B200 GPUs, 24x64 GB DDR5-6400, SAMSUNG MZWLO3T8HCLS-00A07 3,84 TB NVMe, Ubuntu 24.04 6.8.0-85-generic, BIOS 1,5, SMT AUS, Mitigations AUS, Power Determinism, CUDA 13.0, NPS1 2P Intel Xeon 6960P (128 Kerne insgesamt) Produktionssystem mit 8 x NVIDIA B200 GPUs, 24x64 GB DDR5-6400, SAMSUNG MZWLO3T8HCLS-00A07 3,84 TB NVMe, Ubuntu 24.04 6.8.0-85-generic, BIOS 1,2, SMT AUS, Mitigations AUS, Power Determinism, CUDA 13.0, NPS1 Ergebnisse: Relatives Framework-Modell NIM llama3.3-70b-instruct 0,996 NIM gpt-oss-120b 1,22 NIM qwen2_5-coder-32b-instruct 1,062 VLLM Vllm_Deepseek_V3(R1) 1,059 VLLM Vllm_Llama4_scout 1,246 VLLM Vllm_Qwen2.5-VL-72B-Instruct 1,164 NIM Multi-instance llama3.1-8b-instruct 1,355 NIM Multi-instance qwen2_5-coder-32b-instruct 1,012 Geometrisches Mittel (gesamt) 1,133 Bestes Ergebnis 1,355 Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren.
  6. 9xx5-260: GPU-Inferenz-Tokenlatenz (Zeit pro Ausgabe-Token) basierend auf internen Tests von AMD vom 24.10.2025. Auslastungskonfigurationen: vLLM-Version, NIM-Version, Eingabe-/Ausgabe-Tokens: 128/128, 1024/128, 128/1024, 1024/1024, Ergebnisse in Sekunden. 2P AMD EPYC 9575F (insgesamt 128 Kerne) Produktionssystem mit 8 x NVIDIA B200 GPUs, 24x64 GB DDR5-6400, SAMSUNG MZWLO3T8HCLS-00A07 3,84 TB NVMe, Ubuntu 24.04 6.8.0-85-generic, BIOS 1, SMT AUS, Mitigations AUS, Power Determinism, CUDA 13.0, NPS1 2P Intel Xeon 6960P (128 Kerne insgesamt) Produktionssystem mit 8 x NVIDIA B200 GPUs, 24x64 GB DDR5-6400, SAMSUNG MZWLO3T8HCLS-00A07 3,84 TB NVMe, Ubuntu 24.04 6.8.0-85-generic, BIOS 1,2, SMT AUS, Mitigations AUS, Power Determinism, CUDA 13.0, NPS1 Ergebnisse: Relatives Framework-Modell NIM llama3.3-70b-instruct 1,053 NIM gpt-oss-120b 1,28 NIM qwen2_5-coder-32b-instruct 1,019 VLLM Vllm_Deepseek_V3(R1) 1,025 VLLM Vllm_Llama4_scout 1,025 VLLM Vllm_Qwen2.5-VL-72B-Instruct 1,062 NIM Multi-instance llama3.1-8b-instruct 1,102 NIM Multi-instance qwen2_5-coder-32b-instruct 1,033 Geometrisches Mittel (gesamt) 1,055 Bestes Ergebnis 1,128 Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren.
  7. 9xx5-002F: Vergleich zu SPECrate®2017_int_base basierend auf veröffentlichten Wertungen von www.spec.org vom 11.12.2025.
    2P AMD EPYC 9654, 96 Kerne, 360 W, 8.452 USD, 1830, 5,083, 0,217, https://www.spec.org/cpu2017/results/res2025q3/cpu2017-20250727-49206.html
    2P AMD EPYC 9754, 128 Kerne, 360 W, 10.631 USD, 1950, 5,417, 0,183, https://www.spec.org/cpu2017/results/res2023q2/cpu2017-20230522-36617.html
    2P AMD EPYC 9755, 128 Kerne, 500 W, 10.931 USD, 2850, 5,70, 0,261, https://www.spec.org/cpu2017/results/res2025q4/cpu2017-20250928-49776.html
    2P AMD EPYC 9965, 192 Kerne, 500 W, 11.988 USD, 3230, 6,460, 0,269, https://www.spec.org/cpu2017/results/res2025q2/cpu2017-20250324-47086.html
    2P Intel Xeon 6780E, 144 Kerne, 330 W, 8.513 USD, 1420, 4,303, 0,167, https://www.spec.org/cpu2017/results/res2025q4/cpu2017-20251020-50067.html
    2P Intel Xeon 6980P, 128 Kerne, 500 W, 12.460 USD, 2510, 5,020, 0,201, https://www.spec.org/cpu2017/results/res2025q2/cpu2017-20250324-47099.html
    2P Intel Xeon Platinum 8592+, 64 Kerne, 350 W, 11.600 USD, 1130, 3,229, 0,097, https://www.spec.org/cpu2017/results/res2023q4/cpu2017-20231127-40064.html
    SPEC®, SPEC CPU® und SPECrate® sind eingetragene Marken der Standard Performance Evaluation Corporation. Weitere Informationen auf www.spec.org. AMD CPU-Preise ab 11.12.2025. Intel CPU W und Preise unter https://ark.intel.com/ (Stand 11.12.2025)