Eine Nachricht von Darren Grasby
Liebe Partner,
wenn ich auf das Jahr 2025 zurückblicke, fällt mir nicht nur der Umfang der Aktivitäten auf dem Markt besonders auf, sondern auch die Art und Weise, wie unsere Teams zusammengewachsen sind, um diese Dynamik in echte Ergebnisse für Sie, unsere Kunden, umzuwandeln. Vielen Dank für Ihre Partnerschaft, Ihr Vertrauen und Ihr Engagement, das Sie jeden Tag einbringen.
Dies war ein Jahr, in dem sich KI, High-Performance-Computing und moderne Client-Plattformen von vielversprechenden Konzepten in grundlegende Tools dafür verwandelt haben, wie Organisationen agieren und konkurrieren. Wir sehen, dass diese Technologien spürbare Auswirkungen in vielen Branchen erzielen. Diese Auswirkungen werden dadurch bestimmt, wie Sie AMD Lösungen für unsere Kunden zum Leben erwecken.
Dieser Fortschritt geschieht nicht von allein. Ihr Fachwissen, Ihre Umsetzung und Ihr gemeinsames Vertrauen in das, was möglich ist, treibt uns weiter voran. Wir sind dankbar für die Zusammenarbeit und freuen uns auf die vor uns liegenden Chancen, wenn wir Kunden dabei unterstützen, schnell, sicher und zielgerichtet innovativ zu sein.
Rückblick auf entscheidende Momente im Jahr 2025
Wir sind weiterhin fest entschlossen, eng mit Ihnen zusammenzuarbeiten, um unseren Kunden mehr zu bieten, Innovationen schnell voranzubringen und auf den gemeinsamen Erfolg hinzuarbeiten.
Einige Momente in diesem Jahr stachen als Beispiele dafür, wie wir gemeinsam Großes erreichen, besonders hervor:
- Wir kündigten eine umfassende mehrjährige Partnerschaft mit OpenAI an und stellen ab nächstem Jahr 6 Gigawatt AMD Instinct™ GPUs bereit.
- Bei unserer Veranstaltung Advancing AI gaben wir bekannt, dass Oracle Cloud Infrastructure (OCI) der erste Hyperscaler sein wird, der die neuen AMD Instinct™ MI355X GPUs einführen und bereitstellen wird.
- Wir stellten den landesweit ersten dedizierten AI Factory Supercomputer vor – ebenfalls mit AMD Instinct™ MI355X GPUs und in Zusammenarbeit mit OCI, HPE und ORNL. Er wird die KI-Führungsposition des Energieministeriums der Vereinigten Staaten ausbauen und den Fortschritt in Bereichen wie KI, Energieforschung, Materialien, Medizin und fortschrittliche Fertigung beschleunigen.
- Wir gaben bekannt, dass HPE zu den ersten OEMs gehören wird, die die AMD Instinct™ GPU „Helios“ KI-Rack-Lösung einführen, und diese mit den speziell entwickelten HPE Juniper Networking Switches kombiniert, die gemeinsam mit Broadcom konzipiert wurden, um Performance mit hoher Bandbreite und niedriger Latenz für große KI-Cluster bereitzustellen. Außerdem stellten wir „Herder“ vor, einen neuen Supercomputer, der mit HPE entwickelt wurde und mit AMD Instinct™ MI430X GPUs und AMD EPYC™ Server-CPUs der nächsten Generation angetrieben wird, um erweitertes HPC und souveräne KI-Forschung in Europa zu unterstützen.
- Wir vertiefen weiterhin die Zusammenarbeit mit wichtigen Partnern wie Microsoft und Meta, um AMD Technologien für neue Microsoft Copilot+ KI-Erlebnisse wie Cocreator zu optimieren, und treiben gleichzeitig gemeinsam Infrastrukturaufgaben und KI-Entwicklungsinitiativen voran.
- Wir führten die AMD Ryzen™ 9000X3D Prozessoren und AMD Ryzen™ Threadripper™ 9000-Serie Desktop-Prozessoren, die AMD Ryzen™ 9000HX Prozessoren und Ryzen™ Z2-Serie Mobil-Prozessoren ein, wobei der Schwerpunkt darauf lag, den Menschen mehr Möglichkeiten zu geben, nach ihren eigenen Vorstellungen zu arbeiten, zu spielen und kreativ zu sein.
- Wir erweiterten unser Grafik-Portfolio um die AMD Radeon™ RX 9000-Serie GPUs, AMD Instinct™ MI350-Serie Prozessoren und AMD Radeon™ AI PRO R9700 GPUs. Mit diesen Plattformen können Kunden aus zahlreichen Segmenten bei Performance, Effizienz und KI-Bereitschaft bedeutende Fortschritte erzielen.
- Im Rechenzentrum bot die Einführung der AMD EPYC™ 4005-Serie Server-CPUs Kunden aus dem mittleren Marktsegment eine neue Möglichkeit, die Performance, Effizienz und Erschwinglichkeit in Einklang bringt. Mit diesen Konfigurationen können Kunden ihre Rechenzentrumsstellfläche im Vergleich zu Angeboten der Konkurrenz deutlich reduzieren und so die Kosten und den Stromverbrauch senken, während gleichzeitig die Umgebungen skaliert werden.1
- Wir präsentierten unser bisher umfangreichstes Angebot für Business-Notebooks, das Unternehmen weltweit eine beispiellose Auswahl und Vielseitigkeit bietet.
- Wir führten die nächste Generation der Copilot+ PCs mit AMD Ryzen™ AI 300-Serie Prozessoren in mehr als 150 Designs ein.
- Die AMD Radeon™ RX 9070 XT GPUs sorgten für eine unserer bisher stärksten Markteinführungen im Grafikbereich, was die klare Kundennachfrage und die präzise Umsetzung durch das gesamte Team widerspiegelt.
- Die AMD Ryzen™ AI MAX 300-Serie Prozessoren erhielten von der Presse und Branchenexperten Anerkennung für die Weiterentwicklung der KI- und Edge-Computing-Funktionen.
Kundenerlebnisse durch integrierte Lösungen voranbringen
Unsere Hardware erreicht ihr volles Potenzial nur aufgrund der Arbeit, die unsere Softwareteams parallel dazu leisten. Sie bemühen sich weiterhin, Kunden neue Möglichkeiten zu eröffnen, und helfen sicherzustellen, dass jeder Prozessor, jede Grafikkarte und jeder Beschleuniger dort eine starke Performance liefert, wo es darauf ankommt.
Im Verbraucherbereich führten wir AMD FidelityFX™ Super Resolution 4 und kürzlich auch die AMD FSR™ „Redstone“ Technologie ein. Diese Technologien auf Basis von maschinellem Lernen bieten eine stärkere Performance und bessere visuelle Wiedergabetreue für AMD RDNA™ 4 Grafikprodukte. So erhalten Gamer mehr Flexibilität und können aus ihren bereits vorhandenen Systemen das Beste herausholen.
Für Entwickler haben wir unsere KI-Softwarefunktionen mit der Einführung der AMD ROCm™ 7 Software erweitert. Dieses Release bietet eine signifikante Performance-Steigerung gegenüber vorherigen Generationen und unterstützt die neuesten Modelle, Algorithmen und Hardware.2 Unser Ziel mit ROCm 7 ist simpel: Entwickler sollen mit KI einfacher und schneller erstellen, skalieren und innovativ sein.
Ein vielversprechendes Jahr liegt vor uns
Wenn wir unseren Blick in Richtung 2026 richten, bleibt es für mich und jeden bei AMD Priorität, unsere Partnerschaften auszubauen. Unser Fokus ist einfach: Wir möchten Ihr Wachstum unterstützen und Ihnen helfen, schnell zu reagieren, wenn sich neue Möglichkeiten ergeben.
Hierzu werden wir im Laufe des nächsten Jahres eine Reihe von Initiativen einführen – erweiterte Schulungen und Zertifizierungen, aktualisierte Prämien und verbesserte Channel-Tools für unsere Geschäftspartner. Außerdem richten wir unser besonderes Augenmerk auf Bereiche, in denen Kunden aus dem mittleren Marktsegment die größte Nachfrage sehen, damit Sie alles haben, was Sie brauchen, um sicher zu skalieren. Diese Investitionen sind der Beginn einer umfassenderen Initiative, auf der wir weiter aufbauen werden. Dabei sollten wir einander stets zuhören und voneinander lernen.
Wir wünschen Ihnen, Ihren Teams und Ihren Familien frohe Festtage. Ich bin dankbar für die Zusammenarbeit dieses Jahr und ich freue mich auf das, was wir 2026 gemeinsam erreichen werden.
Mit freundlichen Grüßen
Darren Grasby
Executive Vice President, Chief Sales Officer und President AMD EMEA
AMD Arena
Erweitern Sie Ihr AMD Produktwissen durch Schulungen zu AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ und weiteren.
Anmelden
Erhalten Sie monatliche Updates zu den neuesten Produkten, Schulungen und „Meet the Experts“-Online-Seminaren von AMD.
Verwandte Artikel
Fußnoten
- 9xx5TCO-005 – Dieses Szenario basiert auf vielen Annahmen und Schätzungen, und obwohl es auf internen Forschungen und bestmöglichen Näherungswerten von AMD basiert, dient es nur als Beispiel zur Veranschaulichung und sollte nicht als Grundlage für die Entscheidungsfindung anstelle tatsächlicher Tests dienen. Das AMD Server and Greenhouse Gas Emissions TCO (Total Cost of Ownership) Estimator Tool – Version 1.3 – vergleicht die benötigten AMD EPYC™ und Intel® Xeon® CPU-basierten Server für insgesamt 391000 Einheiten von SPECrate®2017_int_base-Performance (Stand 21. November 2024). Diese Schätzung vergleicht ein Upgrade von einem alten 2P-Server auf Basis von Intel Xeon Platinum_8280 mit 28 Kernen mit einer Bewertung von 391 (https://spec.org/cpu2017/results/res2020q3/cpu2017-20200915-23984.pdf) mit einem 2P-Server auf Basis von EPYC 9965 (192 Kerne) mit einer Bewertung von 3100 (https://spec.org/cpu2017/results/res2024q4/cpu2017-20241004-44979.pdf). Schätzungen der Umweltauswirkungen auf der Grundlage dieser Daten unter Verwendung der länder- und regionenspezifischen Stromfaktoren aus „Country Specific Electricity Factors – 2024“ und „Greenhouse Gas Equivalencies Calculator“ der United States Environmental Protection Agency.
- MI300-080 – Tests durchgeführt vom AMD Leistungslabor am 15. Mai 2025 zur Messung der Inferenz-Performance in Token pro Sekunde (TPS) der AMD ROCm 6.x Software, vLLM 0.3.3 im Vergleich zu AMD ROCm 7.0 Preview Version SW, vLLM 0.8.5 auf einem System mit (8) AMD Instinct MI300X GPUs mit Llama 3.1-70B (TP2), Qwen 72B (TP2) und Deepseek-R1 (FP16) Modellen mit Batch-Größen von 1–256 und Sequenzlängen von 128–204. Die angegebene Performance-Verbesserung wird als durchschnittliche TPS über die (3) getesteten LLMs ausgedrückt.
Hardwarekonfiguration
1P AMD EPYC™ 9534 CPU Server mit 8 x AMD Instinct™ MI300X (192 GB, 750 W) GPUs, Supermicro AS-8125GS-TNMR2, NPS1 (1 NUMA pro Sockel), 1,5 TiB (24 DIMMs, 4800 MT/s Speicher, 64 GiB/DIMM), 4 x 3,49 TB Micron 7450 Speicher, BIOS-Version: 1.8
Softwarekonfiguration(en)
Ubuntu 22.04 LTS mit Linux-Kernel 5.15.0-119-generic
Qwen 72B und Llama 3.1-70B –
ROCm™ Software 7.0 Preview Version SW
PyTorch 2.7.0. DeepSeek R-1 – ROCm 7.0 Preview Version, SGLang 0.4.6, PyTorch 2.6.0
im Vergleich zu
Qwen 72 und Llama 3.1-70B – ROCm 6.x GA SW
PyTorch 2.7.0 bzw. 2.1.1,
DeepSeek R-1: ROCm 6.x GA SW
SGLang 0.4.1, PyTorch 2.5.0
Serverhersteller wählen möglicherweise andere Konfigurationen, was zu anderen Ergebnissen führen kann. Die Performance kann je nach Konfiguration, Software, vLLM-Version und Verwendung der neuesten Treiber und Optimierungen variieren.
- 9xx5TCO-005 – Dieses Szenario basiert auf vielen Annahmen und Schätzungen, und obwohl es auf internen Forschungen und bestmöglichen Näherungswerten von AMD basiert, dient es nur als Beispiel zur Veranschaulichung und sollte nicht als Grundlage für die Entscheidungsfindung anstelle tatsächlicher Tests dienen. Das AMD Server and Greenhouse Gas Emissions TCO (Total Cost of Ownership) Estimator Tool – Version 1.3 – vergleicht die benötigten AMD EPYC™ und Intel® Xeon® CPU-basierten Server für insgesamt 391000 Einheiten von SPECrate®2017_int_base-Performance (Stand 21. November 2024). Diese Schätzung vergleicht ein Upgrade von einem alten 2P-Server auf Basis von Intel Xeon Platinum_8280 mit 28 Kernen mit einer Bewertung von 391 (https://spec.org/cpu2017/results/res2020q3/cpu2017-20200915-23984.pdf) mit einem 2P-Server auf Basis von EPYC 9965 (192 Kerne) mit einer Bewertung von 3100 (https://spec.org/cpu2017/results/res2024q4/cpu2017-20241004-44979.pdf). Schätzungen der Umweltauswirkungen auf der Grundlage dieser Daten unter Verwendung der länder- und regionenspezifischen Stromfaktoren aus „Country Specific Electricity Factors – 2024“ und „Greenhouse Gas Equivalencies Calculator“ der United States Environmental Protection Agency.
- MI300-080 – Tests durchgeführt vom AMD Leistungslabor am 15. Mai 2025 zur Messung der Inferenz-Performance in Token pro Sekunde (TPS) der AMD ROCm 6.x Software, vLLM 0.3.3 im Vergleich zu AMD ROCm 7.0 Preview Version SW, vLLM 0.8.5 auf einem System mit (8) AMD Instinct MI300X GPUs mit Llama 3.1-70B (TP2), Qwen 72B (TP2) und Deepseek-R1 (FP16) Modellen mit Batch-Größen von 1–256 und Sequenzlängen von 128–204. Die angegebene Performance-Verbesserung wird als durchschnittliche TPS über die (3) getesteten LLMs ausgedrückt.
Hardwarekonfiguration
1P AMD EPYC™ 9534 CPU Server mit 8 x AMD Instinct™ MI300X (192 GB, 750 W) GPUs, Supermicro AS-8125GS-TNMR2, NPS1 (1 NUMA pro Sockel), 1,5 TiB (24 DIMMs, 4800 MT/s Speicher, 64 GiB/DIMM), 4 x 3,49 TB Micron 7450 Speicher, BIOS-Version: 1.8
Softwarekonfiguration(en)
Ubuntu 22.04 LTS mit Linux-Kernel 5.15.0-119-generic
Qwen 72B und Llama 3.1-70B –
ROCm™ Software 7.0 Preview Version SW
PyTorch 2.7.0. DeepSeek R-1 – ROCm 7.0 Preview Version, SGLang 0.4.6, PyTorch 2.6.0
im Vergleich zu
Qwen 72 und Llama 3.1-70B – ROCm 6.x GA SW
PyTorch 2.7.0 bzw. 2.1.1,
DeepSeek R-1: ROCm 6.x GA SW
SGLang 0.4.1, PyTorch 2.5.0
Serverhersteller wählen möglicherweise andere Konfigurationen, was zu anderen Ergebnissen führen kann. Die Performance kann je nach Konfiguration, Software, vLLM-Version und Verwendung der neuesten Treiber und Optimierungen variieren.