Mit AMD können Sie Ihr Rechenzentrum transformieren und Ihr Unternehmen voranbringen

AMD EPYC™ Prozessoren sind die weltbesten CPUs für Rechenzentren. Sie bieten die Computing-Performance für Rechenzentren, die Unternehmen benötigen, um Kundenanforderungen zu erfüllen, können den Platzbedarf im Rack reduzieren, energieeffiziente Performance bieten und KI-Workloads skalierbar bereitstellen.

Modernisieren und konsolidieren, um KI-Initiativen vorzubereiten

Unternehmen implementieren KI-Technologie, um wettbewerbsfähig zu bleiben, aber sie kann für IT-Führungskräfte eine Herausforderung darstellen. Das Hinzufügen von KI-Anwendungen zum Unternehmen kann die Leistungsfähigkeit der vorhandenen Rechenzentrumsinfrastruktur beeinträchtigen. Deshalb ist Modernisierung von entscheidender Bedeutung. Unternehmen benötigen zum Beispiel bei einem Upgrade von Intel Xeon Gold 6143 auf AMD EPYC 9334 der 4. Generation bis zu 73 % weniger Server, 70 % weniger Rack-Fläche und 65 % weniger Strom, um eine SPECrate®-Ganzzahlwertung von mindestens 80.000 zu erreichen.1

Server room. 3d rendering of data center
AMD Intel Comparison Renditions

Warum AMD EPYC™?

Die Wahl des richtigen Rechenzentrumsprozessors kann Ihrer IT-Abteilung dabei helfen, mehr Performance und Dichte zu erzielen und gleichzeitig den Platzbedarf ihres Rechenzentrums beizubehalten oder zu reduzieren.

Um beispielsweise eine SPECrate®-Ganzzahlwertung von mindestens 10.000 zu erreichen, wären 11 der neuesten Intel Xeon Platinum 8490H Doppelsockel-Server erforderlich, aber nur 6 AMD EPYC 9654 Dual-Socket-Server.

Server mit AMD EPYC Prozessoren der 4. Generation können Ihnen dabei helfen:

  • Die gleichen Auslastungen mit weniger Servern auszuführen
  • Betriebs- und Energiekosten zu senken
  • Im Rechenzentrum wertvollen Platz und Strom einzusparen und diese Kapazität neuen Auslastungen und Services zuzuweisen

Wählen Sie AMD für Ihre KI-Bereitstellungen im Rechenzentrum

Bei KI-Workloads sind die Anforderungen vielfältig und entwickeln sich ständig weiter. Sowohl CPUs als auch GPUs können für die Ausführung von KI-Inferenz-Workloads mit unterschiedlichen Eigenschaften und Bereitstellungsszenarien hervorragend geeignet sein. AMD bietet führende KI-Performance und -Effizienz für CPUs und GPU-Beschleuniger für Bereitstellungen im Rechenzentrum.

Die weltbesten CPUs für Rechenzentren

AMD EPYC Prozessoren der 4. Generation helfen Unternehmen dabei, schneller zu Erkenntnissen zu gelangen – und damit ihre Geschäftsprozesse zu beschleunigen. KI-Inferenz wird am besten auf EPYC-CPUs bereitgestellt, wenn die Modellgrößen kleiner sind und wenn KI einen geringeren Prozentsatz des gesamten Server-Workload-Mix darstellt.

Die KI-Rechenlast ist einer von vielen Faktoren, die sich auf die Gesamtleistung eines Servers bei der Bereitstellung im Unternehmen auswirken. Um ein besseres Bild von den allgemeinen Funktionen eines Servers zu erhalten, ist es wichtig, die End-to-End-Pipeline zu betrachten. Im Vergleich zu Servern mit 2x Xeon Prozessoren der 5. Generation mit 64 Kernen bieten Server mit 2x EPYC Prozessoren der 4. Generation mit 96 Kernen eine 1,65-fache Performance pro Server mit dem TPCx-AI SF30 Benchmark.³

1.65x performance

GPU-Beschleuniger mit der weltweit höchsten Performance für Rechenzentren

AMD Instinct™ Beschleuniger bieten führende Performance für die anspruchsvollsten KI- und HPC-Workloads. Dabei bieten MI300X Beschleuniger im Vergleich zu Nvidia H100 SXM Beschleunigern (80 GB) eine bis zu 1,3-fache Performance bei KI-Anwendungen.⁴ Zusätzlich zu den Schulungen zu KI-Modellen eignen sich AMD Instinct GPUs ideal für Inferenz von dedizierten KI-Bereitstellungen, bei denen KI einen größeren Teil des gesamten Server-Workload-Mixes ausmacht oder für den Fall, dass die Reaktion auf Inferenz in Echtzeit für die Anwendung entscheidend ist.

1.3x performance

Lösungen

AMD arbeitet mit einer Vielzahl von Partnern zusammen, um mit AMD EPYC Prozessoren der 4. Generation optimierte Lösungen zu entwickeln.

Alibaba Cloud
Chaos
Gigabyte
Microsoft Azure
RedHat
Third AI
Altair
Cisco
Google Cloud
msi
Rescale
TigerGraph
Ansys
Cloudera
Hewlett Packard Enterprise
Neural Magic
Siemens
Tyan
ASRock Rack
Dassault Systemes
ieit systems
Nutanix
SuperMicro
visionular
Asus
Dell Technologies
Lenovo
Oracle
Synamedia
vmware
Amazon Web Services
Eviden
Microsoft
Oracle Cloud
Tencent Cloud

Mehr Leistung mit AMD EPYC

AMD EPYC Prozessoren der 4. Generation wurden entwickelt, um durch die Konsolidierung der Infrastruktur und die Reduzierung von CAPEX und OPEX schnellere Geschäftsergebnisse zu erzielen.

Erfahren Sie, wie Sie Ihr Rechenzentrum leistungsfähiger und effizienter machen können, um Kosten, Energieverbrauch und Platzbedarf der Server zu reduzieren.

Tausende von Unternehmen vertrauen darauf

Ob vor Ort oder in der Cloud, entdecken Sie, wie andere Unternehmen AMD EPYC Prozessoren erfolgreich eingesetzt haben.

Emirates NBD

„Wir haben festgestellt, dass AMD EPYC™ CPUs im Durchschnitt 42 % schneller sind als eine Alternative.“

TSMC

„Für unsere allgemeinen Auslastungen ist die Speicherdichte der AMD EPYC™ Prozessoren ein klarer Vorteil.“

DBS

„Unser Stromverbrauch ist um 50 Prozent gesunken. Gleichzeitig hatten wir plötzlich das Zehnfache an Wachstumskapazität.“

Shell

„Preis, Performance und Speicherbandbreite der AMD EPYC CPUs sind perfekt für unsere Anforderungen. Sie sind einfach Weltklasse.“

Hier alle Neuigkeiten und Inhalte über Rechenzentren abonnieren.

Fußnoten
  1. SP5TCO-055: Dieses Szenario fußt auf vielen Annahmen und Schätzungen, und obwohl es auf internen Forschungen und bestmöglichen Näherungswerten von AMD basiert, dient es nur als Beispiel zur Veranschaulichung und sollte nicht anstelle eigener Tests als Entscheidungsgrundlage genommen werden. Die Gesamtkostenschätzung des Tools Bare Metal Server Greenhouse Gas Emissions TCO (Total Cost of Ownership) – v9.37 Pro Refresh vergleicht die benötigten AMD EPYC™ und Intel® Xeon® CPU-basierten Server für insgesamt 80.000 Einheiten Integer Performance, basierend auf veröffentlichten Werten für diese spezifischen Server mit Intel Xeon und AMD EPYC CPUs (Stand 01.06.2023).  Diese Schätzung bezieht sich auf einen Zeitrahmen von 3 Jahren mit einem PUE-Wert von 1,7 und US-Stromkosten von 0,128 USD/kWh.  Diese Analyse vergleicht einen 2P AMD EPYC 9334 CPU-basierten Server mit 32 Kernen und einem SPECrate®2017_int_base-Wert von 725, https://spec.org/cpu2017/results/res2023q1/cpu2017-20230102-33282.pdf, mit einem 2P Intel Xeon Gold 6143 basierten Server mit 16 Kernen und einem SPECrate®2017_int_base-Wert von 197, https://spec.org/cpu2017/results/res2017q4/cpu2017-20171114-00863.pdf. Da die Kosten für Immobilien und Verwaltung sehr unterschiedlich sind, werden diese Kosten in dieser Analyse der Gesamtbetriebskosten nicht berücksichtigt. Die Betriebskosten für neue AMD Server beinhalten nur die Stromversorgung.  Die Betriebskosten für ältere installierte Server mit Intel CPUs bestehen aus Kosten für die Stromversorgung sowie die erweiterte Garantie. Die Kosten zur Verlängerung der Servergarantie belaufen sich auf jährlich 20 % des ursprünglichen Kaufpreises, der auf der Grundlage der Kosten von 2023 berechnet wird.  Zusammen mit den Kosten für die Stromversorgung bedeutet dies, dass die AMD Lösung bei den 3-Jahres-Gesamtbetriebskosten mehr als 2,5 Mio. $ (62 % weniger) und 1,2 Mio. $ bzw. 93 % geringere jährliche Betriebskosten aufweist. Schätzungen der Umweltauswirkungen auf der Grundlage dieser Daten unter Verwendung der länder- und regionenspezifischen Stromfaktoren aus „2020 Grid Electricity Emissions Factors v1.4 – September 2020“ und „Greenhouse Gas Equivalencies Calculator“ der United States Environmental Protection Agency. Weitere Details auf https://www.amd.com/en/claims/epyc4#SP5TCO-055   
  2. SP5TCO-032: Dieses Szenario fußt auf vielen Annahmen und Schätzungen, und obwohl es auf internen Forschungen und bestmöglichen Näherungswerten von AMD basiert, dient es nur als Beispiel zur Veranschaulichung und sollte nicht anstelle eigener Tests als Entscheidungsgrundlage genommen werden. Die Gesamtkostenschätzung des Tools Bare Metal Server Greenhouse Gas Emissions TCO (Total Cost of Ownership) – Version 6.80 vergleicht die benötigten AMD EPYC™ und Intel® Xeon® CPU-basierten Server für insgesamt 10.000 Einheiten Integer Performance, basierend auf veröffentlichten Werten für diese spezifischen Server mit Intel Xeon und AMD EPYC CPUs (Stand 10. Januar .2023). Diese Schätzung bezieht sich auf einen Zeitrahmen von 3 Jahren mit einem PUE-Wert von 1,7 und US-Stromkosten von 0,16 USD/kWh. Diese Analyse vergleicht einen 2P AMD EPYC 9654 Server mit 96 Kernen und einem SPECrate2017_int_base-Wert von 1.790, https://spec.org/cpu2017/results/res2022q4/cpu2017-20221024-32607.pdf; mit einem 2P Intel Xeon Platinum 8490H basierten Server mit 60 Kernen und einem SPECrate2017_int_base-Wert von 991, https://spec.org/cpu2017/results/res2023q1/cpu2017-20221206-33039.pdf. Schätzungen der Umweltauswirkungen auf der Grundlage dieser Daten unter Verwendung der länder- und regionenspezifischen Stromfaktoren aus „2020 Grid Electricity Emissions Factors v1.4 – September 2020“ und „Greenhouse Gas Equivalencies Calculator“ der United States Environmental Protection Agency. Weitere Details unter https://www.amd.com/en/claims/epyc4#SP5TCO-032.
  3.  SP5-051A: Vergleich der Auslastung von TPCx-AI SF30-Derivaten basierend auf internen Tests von AMD mit mehreren VM-Instanzen (Stand: 13.4.2024). Der aggregierte End-to-End-KI-Durchsatztest ist vom TPCx-AI-Benchmark abgeleitet und als solcher nicht mit den veröffentlichten TPCx-AI-Ergebnissen vergleichbar, da die Ergebnisse des End-to-End-KI-Durchsatztests nicht der TPCx-AI-Spezifikation entsprechen. AMD Systemkonfiguration: Prozessoren: 2 x AMD EPYC 9654; Frequenzen: 2,4 GHz | 3,7 GHz; Kerne: 96 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 384 MB/Sockel (768 MB insgesamt); Speicher: 1,5 TB (24) Dual-Rank DDR5-5600 64GB DIMMs, 1DPC (Plattform unterstützt bis zu 4800 MHz); NIC: 2 x 100 GbE Mellanox CX-5 (MT28800); Speicher: 3,2 TB Samsung MO003200KYDNC U.3 NVMe; BIOS: 1.56; BIOS-Einstellungen: SMT=ON, Determinism=Power, NPS=1, PPL=400W, Turbo Boost=Enabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 6 Instanzen, 64 vCPUs/Instanz, 2663 aggregierte KI-Nutzungsfälle/Min. im Vergleich zu einer Intel-Systemkonfiguration: Prozessoren: 2 x Intel® Xeon® Platinum 8592+; Frequenzen: 1,9 GHz | 3,9 GHz; Kerne: 64 Kerne pro Sockel (1 NUMA-Domäne pro Sockel); L3-Cache: 320 MB/Sockel (640 MB insgesamt); Speicher: 1 TB (16) Dual-Rank DDR5-5600 64 GB DIMMs, 1DPC; NIC: 4 x 1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe; Speicher: 3,84 TB KIOXIA KCMYXRUG3T84 NVMe; BIOS: ESE124B-3.11; BIOS-Einstellungen: Hyperthreading=Enabled, Turbo boost=Enabled, SNC=Disabled; OS: Ubuntu® 22.04.3 LTS; Testkonfiguration: 4 Instanzen, 64 vCPUs/Instanz, 1607 aggregierte KI-Nutzungsfälle/min. Die Ergebnisse können abhängig von Faktoren wie Systemkonfiguration, Softwareversion und BIOS-Einstellungen variieren.  TPC, TPC Benchmark und TPC-C sind Marken des Transaction Processing Performance Council. 
  4. MI300-17: Messungen durchgeführt vom AMD Leistungslabor am 11. November 2023, für die AMD Instinct™ MI300X (750 W) GPU mit AMD CDNA™ 3 5-nm-/6-nm-FinFET-Prozesstechnologie bei max. 2.100 MHz Boost-Speichertakt ergaben folgende theoretische Gleitkommaleistung: max. 653,7 TFLOPS TensorFloat-32 (TF32), max. 1.307,4 TFLOPS mit halber Genauigkeit (FP16), max. 1.307,4 TFLOPS mit Bfloat16-Format-Genauigkeit (BF16), max. 2.614,9 TFLOPS mit 8-Bit-Genauigkeit (FP8), 2.614,9 TOPs INT8. Es wird erwartet, dass der MI300X in der Lage ist, die Vorteile der genauen Structure Sparsity zu nutzen, was eine geschätzte 2-fache Verbesserung der mathematischen Effizienz ermöglicht, die folgende theoretische Gleitkommaleistung mit Sparsity ergibt: max. 1.307,4 TFLOPS TensorFloat-32 (TF32), max. 2.614,9 TFLOPS mit halber Genauigkeit (FP16), max. 2.614,9 TFLOPS mit Bfloat16-Format-Genauigkeit (BF16), max. 5.229,8 TFLOPS mit 8-Bit-Genauigkeit (FP8), 5.229,8 TOPs INT8. Veröffentlichte Ergebnisse auf Nvidia H100 SXM (80 GB) 700 W GPU ergaben eine theoretische Gleitkommaleistung von max. 989,4 TFLOPs TensorFloat-32 (TF32) mit Sparsity, max. 1.978,9 TFLOPS mit halber Genauigkeit (FP16) mit Sparsity, max. 1.978,9 TFLOPS mit Bfloat16-Format-Genauigkeit (BF16) mit Sparsity, max. 3.957,8 TFLOPS 8-Bit-Genauigkeit (FP8) mit Sparsity, max. 3.957,8 TOPs INT8 mit Sparsity. Quelle Nvidia H100: https://resources.nvidia.com/en-us-tensor-core. MI300-17