- 
					
製品の基本
- 名前
 AMD Instinct™ MI300X プラットフォーム
- ファミリ
 Instinct
- シリーズ
 Instinct MI300 シリーズ
- フォーム ファクター
 Instinct プラットフォーム (UBB 2.0)
- GPU
 8x Instinct MI300X OAM
- 寸法
 417 mm x 553 mm
- 発売日
 2023 年 12 月 6 日
 
AMD Instinct™ MI300X プラットフォーム
AMD Instinct™ MI300X プラットフォームは、AI および HPC で抜群のパフォーマンスを発揮する設計です。
- 
					
一般的な仕様
- メモリ合計
 1.5TB HBM3
- メモリ帯域幅
 OAM あたり 5.3TB/s
- Infinity アーキテクチャ
 第 4 世代
- バス タイプ
 PCIe® Gen 5 (128 GB/s)
- 双方向 I/O 帯域幅の合計 (ピアツーピア)
 896GB/s
- 保証
 3 年間限定
 
- 
					
AI パフォーマンス
- FP8 の理論上の合計ピーク性能
 20.9 PFLOPs
- 構造スパース性を持つ FP8 の理論上の合計ピーク性能
 41.8 PFLOPS
- TF32 の理論上の合計ピーク性能
 5.2 PFLOPs
- 構造スパース性を持つ TF32 の理論上の合計ピーク性能
 10.5 PFLOPs
- FP16 の理論上の合計ピーク性能
 10.5 PFLOPs
- 構造スパース性を持つ FP16 の理論上の合計ピーク性能
 20.9 PFLOPs
- bfloat16 の理論上の合計ピーク性能
 10.5 PFLOPs
- 構造スパース性を持つ bfloat16 の理論上の合計ピーク性能
 20.9 PFLOPs
- INT8 の理論上の合計ピーク性能
 20.9 POPs
- 構造スパース性を持つ INT8 の理論上の合計ピーク性能
 41.8 POPs
 
- 
					
HPC 性能
- 理論ピーク倍精度マトリックス (FP64) の性能の合計
 1.3 PFLOPs
- 理論上のピーク倍精度 (FP64) 性能の合計
 653.6 TFLOPs
- 理論ピーク単精度マトリックス (FP32) の性能の合計
 1.3 PFLOPs
- 理論ピーク単精度 (FP32) 性能の合計
 1.3 PFLOPs