

AMD CDNA 3
AMD CDNA™ 3 は、AMD Instinct™ MI300 シリーズ アクセラレータの基盤となる、専用演算アーキテクチャです。データ移動のオーバーヘッドを削減し、電力効率を高めるように設計されたチップレット テクノロジによる、高度なパッケージングを特徴としています。
AMD Instinct MI300A アクセラレーテッド プロセッシング ユニット

AMD Instinct MI325X アクセラレータ


マトリックス コア テクノロジ
AMD CDNA 3 には、幅広い精度 (INT8、FP8、BF16、FP16、TF32、FP32、FP64) およびスパース マトリックス データ (スパース性) のサポートなど、命令レベルの並列性の向上により計算スループットの強化を実現する、マトリックス コア テクノロジが搭載されています。
HBM メモリ、キャッシュ、コヒーレンシ
AMD Instinct MI300 シリーズ アクセラレータは、業界をリードする HBM3e の容量とメモリ帯域幅1、2、共有メモリ、AMD Infinity Cache™ (共有ラストレベル キャッシュ) を提供し、データ コピーを排除してレイテンシを改善します。


ユニファイド ファブリック
次世代 AMD Infinity アーキテクチャは、AMD Infinity Fabric™ テクノロジと共に、AMD GPU および CPU チップレット テクノロジとスタックド HBM3 メモリのコヒーレントで高スループットの統合を、単一デバイスおよびマルチデバイス プラットフォームで実現します。また、PCIe® 5 との互換性により、I/O も強化されています。

AMD CDNA 2
AMD CDNA 2 アーキテクチャは、最も負荷のかかる科学演算ワークロードや機械学習アプリケーションでも、高速化できるように設計されています。AMD Instinct MI200 シリーズ アクセラレータの基盤となっています。

AMD CDNA
AMD CDNA アーキテクチャは、GPU ベースの演算専用アーキテクチャで、エクサスケール級の演算の時代を切り開くために設計されました。AMD Instinct MI100 シリーズ アクセラレータの基盤となっています。

AMD Instinct アクセラレータ
AMD Instinct アクセラレータが AI と HPC をどのように強化するかについてご覧ください。

AMD ROCm™ ソフトウェア
AMD CDNA アーキテクチャは、AMD Instinct アクセラレータをターゲットとする、AI および HPC ソリューション開発のためのプログラミング モデル、ツール、コンパイラ、ライブラリ、ランタイムの幅広いセットを含む、オープン ソフトウェア スタックである AMD ROCm™ によってサポートされています。
脚注
©2023 Advanced Micro Devices, Inc. All rights reserved.AMD、AMD arrow ロゴ、AMD Instinct、AMD CDNA、Infinity Fabric、ROCm、およびその組み合わせは、Advanced Micro Devices, Inc. の商標です。PCIe は、PCI-SIG Corporation の登録商標です。その他の名称は情報提供のみを目的として記載されており、各所有者の商標である可能性があります。
- 2023 年 11 月 7 日、AMD パフォーマンス ラボが次のシステムを使用して計算した結果です。AMD Instinct™ MI300A APU アクセラレータ 760 W (128 GB HBM3) は、AMD CDNA™ 3 5 nm FinFet プロセス テクノロジを使用して設計され、128 GB HBM3 メモリ容量と 5.325 TFLOPS のピーク理論メモリ帯域幅パフォーマンスが得られました。MI300A メモリ バス インターフェイスは 8,192 (1024 ビット x 8 チップ)、メモリ データ レートは 5.2 Gbps、合計ピーク メモリ帯域幅は 5.325 TB/秒 (8,192 ビット メモリ バス インターフェイス * 5.2 Gbps メモリ データ レート/8) です。NVidia Hopper H200 (141 GB) SXM GPU アクセラレータに関して公開されている結果の最高値は、141 GB の HBM3e メモリ容量と 4.8 TB/秒の GPU メモリ帯域幅パフォーマンスです (https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446)。NVidia Hopper H100 (80 GB) SXM GPU アクセラレータに関して公開されている結果の最高値は、80 GB の HBM3 メモリ容量と 3.35 TB/秒の GPU メモリ帯域幅パフォーマンスです (https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet)。サーバー メーカーの構成によって、異なる結果が生じる場合があります。MI300-12
- MI325-001A - 計算は、2024 年 9 月 26 日時点での仕様および/または推定に基づいて AMD パフォーマンス ラボにより実行されたものです。AMD Instinct™ MI325X OAM アクセラレータは、256 GB HBM3E メモリ容量と 6 TB/秒 GPU ピーク理論メモリ帯域幅のパフォーマンスを発揮します。製品版の半導体によって、実際の結果は異なる場合があります。
NVIDIA Hopper H200 (141 GB) SXM GPU アクセラレータの最高の公開結果は、141 GB HBM3E メモリ容量、4.8 TB/秒 GPU メモリ帯域幅パフォーマンスとなっています。 https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
NVIDIA Blackwell HGX B100 (192 GB) 700 W GPU アクセラレータの公開結果で最高の値は以下のようになっています。HBM3E メモリ容量は 192 GB、GPU メモリの帯域幅パフォーマンスは 8 TB/秒。
NVIDIA Blackwell HGX B200 (192 GB) GPU アクセラレータの公開結果で最高の値は以下のようになっています。HBM3E メモリ容量は 192 GB、GPU メモリの帯域幅パフォーマンスは 8 TB/秒。
Nvidia Blackwell の仕様については、https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB をご覧ください。
©2023 Advanced Micro Devices, Inc. All rights reserved.AMD、AMD arrow ロゴ、AMD Instinct、AMD CDNA、Infinity Fabric、ROCm、およびその組み合わせは、Advanced Micro Devices, Inc. の商標です。PCIe は、PCI-SIG Corporation の登録商標です。その他の名称は情報提供のみを目的として記載されており、各所有者の商標である可能性があります。
- 2023 年 11 月 7 日、AMD パフォーマンス ラボが次のシステムを使用して計算した結果です。AMD Instinct™ MI300A APU アクセラレータ 760 W (128 GB HBM3) は、AMD CDNA™ 3 5 nm FinFet プロセス テクノロジを使用して設計され、128 GB HBM3 メモリ容量と 5.325 TFLOPS のピーク理論メモリ帯域幅パフォーマンスが得られました。MI300A メモリ バス インターフェイスは 8,192 (1024 ビット x 8 チップ)、メモリ データ レートは 5.2 Gbps、合計ピーク メモリ帯域幅は 5.325 TB/秒 (8,192 ビット メモリ バス インターフェイス * 5.2 Gbps メモリ データ レート/8) です。NVidia Hopper H200 (141 GB) SXM GPU アクセラレータに関して公開されている結果の最高値は、141 GB の HBM3e メモリ容量と 4.8 TB/秒の GPU メモリ帯域幅パフォーマンスです (https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446)。NVidia Hopper H100 (80 GB) SXM GPU アクセラレータに関して公開されている結果の最高値は、80 GB の HBM3 メモリ容量と 3.35 TB/秒の GPU メモリ帯域幅パフォーマンスです (https://resources.nvidia.com/en-us-tensor-core/nvidia-tensor-core-gpu-datasheet)。サーバー メーカーの構成によって、異なる結果が生じる場合があります。MI300-12
- MI325-001A - 計算は、2024 年 9 月 26 日時点での仕様および/または推定に基づいて AMD パフォーマンス ラボにより実行されたものです。AMD Instinct™ MI325X OAM アクセラレータは、256 GB HBM3E メモリ容量と 6 TB/秒 GPU ピーク理論メモリ帯域幅のパフォーマンスを発揮します。製品版の半導体によって、実際の結果は異なる場合があります。 NVIDIA Hopper H200 (141 GB) SXM GPU アクセラレータの最高の公開結果は、141 GB HBM3E メモリ容量、4.8 TB/秒 GPU メモリ帯域幅パフォーマンスとなっています。 https://nvdam.widen.net/s/nb5zzzsjdf/hpc-datasheet-sc23-h200-datasheet-3002446
NVIDIA Blackwell HGX B100 (192 GB) 700 W GPU アクセラレータの公開結果で最高の値は以下のようになっています。HBM3E メモリ容量は 192 GB、GPU メモリの帯域幅パフォーマンスは 8 TB/秒。
NVIDIA Blackwell HGX B200 (192 GB) GPU アクセラレータの公開結果で最高の値は以下のようになっています。HBM3E メモリ容量は 192 GB、GPU メモリの帯域幅パフォーマンスは 8 TB/秒。
Nvidia Blackwell の仕様については、https://resources.nvidia.com/en-us-blackwell-architecture?_gl=1*1r4pme7*_gcl_aw*R0NMLjE3MTM5NjQ3NTAuQ2p3S0NBancyNkt4QmhCREVpd0F1NktYdDlweXY1dlUtaHNKNmhPdHM4UVdPSlM3dFdQaE40WkI4THZB をご覧ください。