Von Endpunkten bis zur Cloud: AMD ermöglicht das volle Spektrum 

Generative KI verändert die Art und Weise, wie Unternehmenskunden arbeiten. Tatsächlich wird KI schnell zu einem Teil von fast jedem Geschäftsprozess– vom Kundenservice bis zur Datenanalyse. Und diese immer tiefgreifendere Integration wird voraussichtlich exponentiell zunehmen. In dieser Phase ist die KI-gestützte Transformation eine geschäftliche Notwendigkeit. Die KI-Integration läutet eine neue Ära für Unternehmen ein: Workloads und Prozesse werden neu definiert und bestehende Infrastrukturen werden um neue Anforderungen erweitert, die häufig aktuelle Hardwarekonfigurationen überlasten. 

Wenn Kunden nahtlose KI-Erlebnisse und Produktivitätssteigerungen sofort und langfristig genießen möchten, benötigen sie bei der Weiterentwicklung ihrer IT-Infrastruktur Hilfe. An dieser Stelle kommen die Technologien von AMD ins Spiel. Diese bieten Unternehmen die Performance und Effizienz, um bestehende Auslastungen zusammen mit den neuen Möglichkeiten, die KI mit sich bringt, bereitzustellen. 

Die Welt von KI und Virtualisierung​mit AMD EPYC™ Prozessoren entdecken

AMD EPYC™ Prozessoren werden aus gutem Grund für etwa ein Drittel der Server der Welt eingesetzt.1 AMD EPYC Prozessoren der 5. Generation bieten Unternehmenskunden die weltbeste Rechenzentrums-CPU mit bis zu 192 Kernen und ermöglichen so die anspruchsvollsten Unternehmensanwendungen von heute.2

High-Performance-CPUs von AMD bieten eine starke Option für Unternehmen, die KI-Auslastungen wie Empfehlungssysteme, Lösungen für maschinelles Lernen und andere Einsatzmöglichkeiten für generative KI bereitstellen. 

Die Nutzung einer bewährten Standardinfrastruktur in Kombination mit einem Upgrade auf leistungsstarke AMD EPYC Prozessoren hilft Kunden dabei, die Kosten für Serverstellfläche, Stromverbrauch und Anschaffung niedrig zu halten, und kann die Server-Performance und -Dichte erhöhen – so können Sie den ROI verbessern und mehr Kapazität für KI in Reichweite bringen.

AMD EPYC Prozessoren unterstützen Kunden nicht nur bei ihren KI-Workloads, sondern auch bei der Konsolidierung und Reduzierung des physischen Serverbedarfs für Virtualisierungsanforderungen. In einigen Fällen senken sie die Hardwarekosten um bis zu 33 %3 und in anderen Fällen die Lizenzkosten um bis zu 42 %.4 Sie bieten eine hohe Performance und Kerndichte und tragen so zu einer Senkung der wachsenden Lizenzkosten für virtuelle Maschinen (VM) pro Kern bei. Anstelle mehrerer alternder Kerne, auf denen nur wenige VMs ausgeführt werden, sind einzelne moderne AMD EPYC CPU-Kerne problemlos dazu in der Lage, mehrere VMs ausführen.

Kunden wie DBS Bank und Emirates NBD profitieren bereits von den Vorteilen, die Server-Prozessoren von AMD bieten: 

Mehr erfahren über AMD EPYC™ Prozessoren.

KI mit AMD Instinct™ Beschleunigern voranbringen

Große KI-Auslastungen und -Anwendungsfälle erfordern ggf. mehr, als AMD EPYC™ CPUs allein leisten können. Large Language Models wachsen stetig zu Hunderten von Milliarden – ja sogar Billionen – Parametern an.

Glücklicherweise bietet AMD eine Vielzahl von Auslastungs-Engines, um die anspruchsvollsten KI-Aufgaben zu meistern. Durch die Erweiterung der effektiven Verwaltung von KI-Workloads durch AMD EPYC Prozessoren sind dank AMD Instinct™ Beschleunigern neue Dimensionen der GPU-Beschleunigung möglich. Während AMD Server-CPUs für kleine bis mittlere Modelle und Bereitstellungen mit unterschiedlichen Workload-Inferenzen sehr effizient sind, wurden AMD Beschleuniger speziell für Echtzeit-KI-Training mit hohem Volumen, dedizierte Bereitstellungen und groß angelegte Inferenzen in Echtzeit entwickelt, um KI-Ergebnisse für Unternehmen zu beschleunigen.

AMD bietet eine Reihe von GPU-Lösungen für verschiedene Performance-Level und Bauformen, einschließlich der Flaggschiff-Beschleuniger AMD Instinct™ MI350X und MI355X mit AMD ROCm™ Software-Stack. AMD Beschleuniger bieten dank AMD ROCm™ 6 Software eine Steigerung der KI-Inferenz-Rechenleistung von ~330 % und sind bereit, die Art und Weise, wie Unternehmen mit KI-Workloads arbeiten, zu transformieren.5

AMD Instinct™ Beschleuniger treiben bereits einige der anspruchsvollsten KI-Plattformen der Welt an, einschließlich des Llama 3.1 405B-Modells von Meta, das für den gesamten Live-Datenverkehr bei der Markteinführung exklusiv auf AMD GPUs lief.6

Mit der unternehmensgerechten Open-Source-Software AMD ROCm™, die die AMD Beschleunigung unterstützt, können Unternehmen schnell auf KI-Auslastungen zugreifen. Dabei gibt es Unterstützung für ca. 2 Millionen Hugging-Face-Modelle und eine enge Zusammenarbeit mit anderen führenden KI-Unternehmen wie PyTorch und OpenAI.

Mehr erfahren über AMD Instinct™ Beschleuniger.

KI mit AMD Ryzen™ Prozessoren in lokale Geräte integrieren

KI wird nicht nur im Rechenzentrum eingesetzt. Sie steht auch auf Endbenutzergeräten zur Verfügung und verbessert die Arbeitsweise der Menschen und herkömmliche Prozesse. Dies ermöglicht ein schnelleres und einfacheres Arbeiten, da die Teams sich auf das große Ganze konzentrieren können.

Taiwanese Advanced Semiconductor Engineering Inc. (ASE), ein führendes Unternehmen für die Testung und Montage von Computerchipgehäusen, entschied sich aufgrund der marktführenden KI-Performance und -Effizienz für AMD Ryzen™ CPUs. Das jüngste Upgrade des Unternehmens führte zu einer verbesserten Datenkonvertierung und einem schnelleren Grafik-Rendering seiner intensivsten Workloads sowie zu einer Steigerung der Produktivität auf Kunden-PCs um bis zu 30 %.

AMD Ryzen™ PRO Prozessoren sind die weltweit fortschrittlichsten, extrem energieeffizienten Prozessoren für Unternehmens-Desktops7 und boten die erste integrierte KI-Engine in einem x86-Prozessor.8 Diese Dimension der KI-Ermöglichung von Servern bis zu Client-Geräten bietet unglaubliche Fähigkeiten, die vorher einfach nicht möglich waren.

Mehr erfahren über AMD Ryzen™ PRO Prozessoren.

Mit adaptiven AMD Versal™ SoCs für Edge AI das Bild vervollständigen

KI gibt es aber nicht nur für PCs und Server. Es gibt viele Anwendungen, bei denen eine lokale KI-Verarbeitung auf Edge-Geräten einen großen Einfluss auf Performance und Sicherheit haben kann. 

In der Automobilbranche kann KI an der Edge die Sicherheit verbessern, indem Sensordaten lokal für Entscheidungen in Echtzeit verarbeitet werden. Schließlich möchte man nicht, dass ein autonomes Fahrzeug darauf warten muss, bis die Daten in der Cloud verarbeitet sind, damit entschieden wird, ob die Bremse betätigt werden soll, um einen Unfall zu vermeiden. 

Im Gesundheitswesen kann KI an der Edge Bildgebungsgeräte verbessern, um Diagnosen zu beschleunigen oder Echtzeitvisualisierungen zur Unterstützung bei Operationen bereitzustellen. Sie kann auch zum Schutz der Privatsphäre der Patienten beitragen, da Daten nicht über die Cloud gesendet werden müssen. 

Und im Bereich der Industrie kann KI an der Edge helfen, dass Fabrikanlagen sicherer und effizienter betrieben werden. AMD FPGAs und adaptive SoCs verwalten effizient die Datenvorverarbeitung, Inferenz und Nachverarbeitung für KI-gesteuerte und klassische integrierte Systeme, wobei das neueste Angebot, das adaptive AMD Versal™ AI Edge-Serie SoC der 2. Generation, alle Funktionen auf einem einzigen Chip durchführt.

Mit AMD Versal Produkten können Kunden KI in allen Aspekten ihres Geschäfts einbringen und so bestehende Verbraucher- und Industrieumgebungen intelligenter und KI-fähig gestalten.

Mehr erfahren über adaptive AMD Versal™ SoCs.

Die Vorteile von KI sind allgegenwärtig, und sie wird Teil der Struktur der modernen Datenverarbeitung. Unternehmen müssen innovative Technologien wie die von AMD anpassen und übernehmen, wenn sie die Vorteile für sich nutzen möchten.

Unabhängig davon, ob Sie Workloads in der Cloud, vor Ort oder an der Edge optimieren: Das umfassende KI-Portfolio von AMD bietet maßgeschneiderte Lösungen, die auf offenen Standards, Partnerschaften aus dem Technologieumfeld und einer Roadmap basieren, die auf langfristige Innovationen ausgelegt ist. Wenn Sie mehr über die AMD Produkte und deren Unterstützung für das wachsende KI-Ökosystem erfahren möchten, wenden Sie sich an Ihren lokalen Ansprechpartner oder besuchen Sie die Seite mit den KI-Lösungen von AMD.

AMD Arena


Erweitern Sie Ihr AMD Produktwissen durch Schulungen zu AMD Ryzen™ PRO, AMD EPYC™, AMD Instinct™ und weiteren.

Verwandte Artikel

Fußnoten
  1. EPYC-055: Mercury Research Umsatzschätzungen auf Basis von Sell-In-Lieferungen, Q1 2025. Umsatzanteil von 39,4 %, Anteil pro Einheit 27,2 %
  2. EPYC-029D: Vergleich basiert auf Thread-Dichte, Performance, Funktionen, Prozesstechnologie und integrierten Sicherheitsfunktionen der derzeit bereitgestellten Server mit Stand vom 10.10.2024. EPYC 9005-Serie CPUs bieten die höchste Thread-Dichte, sind mit über 500 Weltrekorden branchenführend, einschließlich Weltrekord-Unternehmensführung bei Java® ops/sec-Performance, Top-HPC-Führung mit Gleitkommadurchsatz-Performance, KI-End-to-End-Performance mit TPCx-AI-Performance und höchster Energieeffizienzwerte. Im Vergleich zu Xeon der 5. Generation hat die EPYC-Serie der 5. Generation auch mehr DDR5-Speicherkanäle mit mehr Speicherbandbreite, unterstützt mehr PCIe® Gen5-Lanes für E/A-Durchsatz und hat bis zu 5-mal mehr L3-Cache/Kern für einen schnelleren Datenzugriff. Die EPYC 9005-Serie verwendet die erweiterte Technologie mit 3–4 nm und bietet die Sicherheitsfunktionen für sichere Speicherverschlüsselung, sichere verschlüsselte Virtualisierung​(SVV), SVV Encrypted State und SVV Secure Nested Paging. Weitere Details unter https://www.amd.com/de/legal/claims/epyc.html#q=#029D.
  3. SP5TCO-073A: Mit Stand 18.06.2024: Dieses Szenario fußt auf vielen Annahmen und Schätzungen, und obwohl es auf internen Forschungen und bestmöglichen Näherungswerten von AMD basiert, dient es nur als Beispiel zur Veranschaulichung und sollte nicht anstelle eigener Tests als Entscheidungsgrundlage genommen werden. Die Gesamtkostenschätzung des Tools „Server Refresh & Greenhouse Gas Emissions TCO“ vergleicht die benötigten AMD EPYC™ und Intel® Xeon® CPU-basierten Server für insgesamt 9.020 Einheiten für VMmark3 Matched Pair Performance basierend auf veröffentlichten Wertungen (oder Schätzungen, falls mit Sternchen gekennzeichnet) für Server mit Intel Xeon und AMD EPYC CPUs. Diese Schätzung bezieht sich auf einen Zeitraum von 5 Jahren. Diese Analyse vergleicht einen 2P AMD EPYC_9474F Server (48 Kerne) mit einem VMmark 3.1 Ergebnis von 26,95 bei 26 Tiles, https://www.vmware.com/docs/2024-05-14-supermicro-as-2125hs-tnr mit einem 2P Intel Xeon Platinum_8592+ Server (64 Kerne) und einem VMmark 3.1 Ergebnis von 27,52 bei 28 Tiles, https://www.vmware.com/docs/2024-04-16-fujitsu-primergy-rx2540m7. Ergebnisse generiert durch: AMD EPYC™ Server Refresh & Greenhouse Gas Emission TCO Estimation Tool – Version 1.51 PRO. VMmark ist eine eingetragene Marke von VMware in den USA oder anderen Ländern. Weitere Details unter https://www.amd.com/de/legal/claims/epyc.html#q=%23SP5TCO-073A.
  4. https://www.amd.com/content/dam/amd/en/documents/epyc-business-docs/white-papers/modernize-data-center-virtualization-with-amd-epyc-processors.pdf
  5. MI350-044: Basiert auf internen Tests von AMD mit Stand 09.06.2025. Unter Verwendung der AMD Instinct™ MI355X Plattform mit 8 GPUs zur Messung des Online-Inferenzdurchsatzes von generiertem Text für das Chatmodell Llama 3.1-405B (FP4) im Vergleich zur Performance der AMD Instinct™ MI300X Plattform mit 8 GPUs (FP8). Der Test wurde mit einer Eingabelänge von 32768 Token und einer Ausgabelänge von 1024 Token durchgeführt, wobei die Parallelität auf die bestmögliche Durchsatzrate eingestellt wurde, um auf jeder Plattform 60 ms zu erreichen: 1 für MI300X (35,3 ms) und 64 ms für MI355X Plattformen (50,6 ms). Serverhersteller wählen möglicherweise andere Konfigurationen, was zu anderen Ergebnissen führen kann. Die Performance kann aufgrund neuester Treiber und Optimierungen variieren. MI350-044.
  6. https://youtu.be/vJ8aEO6ggOs?t=3100
  7. GD-203: Basiert auf kleinerer Knotengröße des AMD Prozessors für x86-Plattformen (Stand: September 2023).
  8. PXD-03: Mit Stand Januar 2024 hatte AMD die erste erhältliche dedizierte KI-Engine für Desktop-PC-Prozessoren. „Dedizierte KI-Engine“ ist hierbei als eine KI-Engine definiert, deren einzige Funktion das Verarbeiten von KI-Inferenzmodellen und die Teil des x86-Prozessor-Die ist. Weitere Informationen finden Sie unter: https://www.amd.com/de/products/processors/consumer/ryzen-ai.html.