

AMD CDNA 3
AMD CDNA™ 3 ist die dedizierte Computing-Architektur, die als Grundlage der AMD Instinct™ MI300-Serie Beschleuniger dient. Sie beinhaltet ein fortschrittliches Paket mit Chiplet-Technologien – entwickelt, um den Overhead bei der Datenübertragung zu verringern und die Energieeffizienz zu verbessern.
AMD Instinct MI300A beschleunigte Prozessoreinheit

AMD Instinct MI325X Beschleuniger


Matrix-Core-Technologien
AMD CDNA 3 beinhaltet Matrix-Core-Technologien, die erweiterten Rechendurchsatz mit verbesserter Parallelverarbeitung auf Anweisungsebene bieten. Hierzu gehört die Unterstützung für eine Vielzahl von Genauigkeitsstufen (INT8, FP8, BF16, FP16, TF32, FP32 und FP64) sowie Sparse-Matrix-Daten (d. h. Sparsity).
HBM Speicher, Cache und Kohärenz
AMD Instinct MI300-Serie Beschleuniger bieten branchenführende HBM3e-Kapazität und Speicherbandbreite1,2 sowie einen gemeinsam genutzten Speicher und AMD Infinity Cache™ (gemeinsam genutzter Last-Level-Cache), wodurch Datenkopien entfallen und die Latenzzeit verbessert wird.


Vereinheitlichtes Fabric
Die AMD Infinity Architektur der nächsten Generation zusammen mit der AMD Infinity Fabric™ Technologie ermöglicht eine kohärente, durchsatzstarke Vereinheitlichung der AMD GPU und CPU Chiplet-Technologien mit gestapeltem HBM3 Speicher in einzelnen Geräten und über Plattformen mit mehreren Geräten hinweg. Sie bietet auch erweiterten E/A mit PCIe® 5 Kompatibilität.

AMD CDNA 2
Die AMD CDNA 2 Architektur ist für die anspruchsvollsten wissenschaftlichen Computing-Auslastungen und Anwendungen für maschinelles Lernen konzipiert. Sie basiert auf den AMD Instinct MI200-Serie Beschleunigern.

AMD CDNA
Die AMD CDNA Architektur ist eine dedizierte Architektur für GPU-basiertes Computing, die entwickelt wurde, um die Ära des Exascale-Computings einzuläuten. Sie basiert auf den AMD Instinct MI100-Serie Beschleunigern.

AMD Instinct Beschleuniger
Entdecken, wie AMD Instinct Beschleuniger KI und HPC voranbringen.

AMD ROCm™ Software
Die AMD CDNA Architektur wird durch AMD ROCm™ unterstützt, einen offenen Software-Stack, der zahlreiche Programmiermodelle, Tools, Compiler, Bibliotheken und Laufzeiten für die Entwicklung von KI- und HPC-Lösungen für AMD Instinct Beschleuniger beinhaltet.
Fußnoten
© 2023 Advanced Micro Devices, Inc. Alle Rechte vorbehalten. AMD, das AMD Pfeillogo, AMD Instinct, AMD CDNA, Infinity Fabric, ROCm und deren Kombinationen sind Marken von Advanced Micro Devices, Inc. PCIe ist eine eingetragene Marke der PCI-SIG Corporation. Andere Namen dienen nur zu Informationszwecken und können Marken der jeweiligen Inhaber sein.
- Berechnungen durchgeführt vom AMD Leistungslabor vom 7. November 2023 für den AMD Instinct™ MI300A APU-Beschleuniger 760 W (128 GB HBM3), entwickelt mit AMD CDNA™ 3 5-nm-FinFet-Prozesstechnologie, ergaben 128 GB HBM3-Speicherkapazität und eine Performance von 5,325 TFLOPS theoretischer Speicherbandbreite. Die Speicherbus-Schnittstelle von MI300A ist 8.192 (1.024 Bit x 8 Die) und die Speicherdatenrate beträgt 5,2 GB/s für eine Spitzenspeicherbandbreite von insgesamt 5,325 TB/s (8.192 Bit Speicherbus-Schnittstelle * 5,2 GB/s Speicherdatenrate / 8). Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H200 (141 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 141 GB HBM3e und eine GPU-Speicherbandbreite von 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446 Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H100 (80 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 80 GB HBM3 und eine GPU-Speicherbandbreite von 3,35 TB/s. https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet Serverhersteller können abweichende Konfigurationen anbieten, was zu anderen Ergebnissen führen kann. MI300-12
- MI325-001A – Berechnungen durchgeführt vom AMD Leistungslabor am 26. September 2024 basierend auf aktuellen Spezifikationen und/oder Schätzungen. Der AMD Instinct™ MI325X OAM Beschleuniger wird über eine HBM3E-Speicherkapazität von 256 GB und eine theoretische GPU-Speicherbandbreite von 6 TB/s verfügen. Die tatsächlichen Ergebnisse auf Basis von Chips aus der Produktion können abweichen.
Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H200 (141 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 141 GB HBM3E und eine GPU-Speicherbandbreite von 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Die höchsten veröffentlichten Ergebnisse für den Nvidia Blackwell HGX B100 (192 GB) 700-W-GPU-Beschleuniger ergaben eine HBM3E-Speicherkapazität von 192 GB und eine GPU-Speicherbandbreiten-Performance von 8 TB/s.
Die höchsten veröffentlichten Ergebnisse für den Nvidia Blackwell HGX B200 (192 GB) GPU-Beschleuniger ergaben eine HBM3E-Speicherkapazität von 192 GB und eine GPU-Speicherbandbreiten-Performance von 8 TB/s.
Nvidia Blackwell-Spezifikationen unter https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB
© 2023 Advanced Micro Devices, Inc. Alle Rechte vorbehalten. AMD, das AMD Pfeillogo, AMD Instinct, AMD CDNA, Infinity Fabric, ROCm und deren Kombinationen sind Marken von Advanced Micro Devices, Inc. PCIe ist eine eingetragene Marke der PCI-SIG Corporation. Andere Namen dienen nur zu Informationszwecken und können Marken der jeweiligen Inhaber sein.
- Berechnungen durchgeführt vom AMD Leistungslabor vom 7. November 2023 für den AMD Instinct™ MI300A APU-Beschleuniger 760 W (128 GB HBM3), entwickelt mit AMD CDNA™ 3 5-nm-FinFet-Prozesstechnologie, ergaben 128 GB HBM3-Speicherkapazität und eine Performance von 5,325 TFLOPS theoretischer Speicherbandbreite. Die Speicherbus-Schnittstelle von MI300A ist 8.192 (1.024 Bit x 8 Die) und die Speicherdatenrate beträgt 5,2 GB/s für eine Spitzenspeicherbandbreite von insgesamt 5,325 TB/s (8.192 Bit Speicherbus-Schnittstelle * 5,2 GB/s Speicherdatenrate / 8). Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H200 (141 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 141 GB HBM3e und eine GPU-Speicherbandbreite von 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446 Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H100 (80 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 80 GB HBM3 und eine GPU-Speicherbandbreite von 3,35 TB/s. https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet Serverhersteller können abweichende Konfigurationen anbieten, was zu anderen Ergebnissen führen kann. MI300-12
- MI325-001A – Berechnungen durchgeführt vom AMD Leistungslabor am 26. September 2024 basierend auf aktuellen Spezifikationen und/oder Schätzungen. Der AMD Instinct™ MI325X OAM Beschleuniger wird über eine HBM3E-Speicherkapazität von 256 GB und eine theoretische GPU-Speicherbandbreite von 6 TB/s verfügen. Die tatsächlichen Ergebnisse auf Basis von Chips aus der Produktion können abweichen. Die höchsten veröffentlichten Ergebnisse für den Nvidia Hopper H200 (141 GB) SXM-GPU-Beschleuniger ergaben eine Speicherkapazität von 141 GB HBM3E und eine GPU-Speicherbandbreite von 4,8 TB/s. https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
Die höchsten veröffentlichten Ergebnisse für den Nvidia Blackwell HGX B100 (192 GB) 700-W-GPU-Beschleuniger ergaben eine HBM3E-Speicherkapazität von 192 GB und eine GPU-Speicherbandbreiten-Performance von 8 TB/s.
Die höchsten veröffentlichten Ergebnisse für den Nvidia Blackwell HGX B200 (192 GB) GPU-Beschleuniger ergaben eine HBM3E-Speicherkapazität von 192 GB und eine GPU-Speicherbandbreiten-Performance von 8 TB/s.
Nvidia Blackwell-Spezifikationen unter https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB