-
製品の基本
- 名前
AMD Instinct™ MI300X プラットフォーム
- ファミリ
Instinct
- シリーズ
Instinct MI300 シリーズ
- フォーム ファクター
Instinct プラットフォーム (UBB 2.0)
- GPU
8x Instinct MI300X OAM
- 寸法
417 mm x 553 mm
- 発売日
2023 年 12 月 6 日
AMD Instinct™ MI300X プラットフォーム
AMD Instinct™ MI300X プラットフォームは、AI および HPC で抜群のパフォーマンスを発揮する設計です。
-
一般的な仕様
- メモリ合計
1.5TB HBM3
- メモリ帯域幅
OAM あたり 5.3TB/s
- Infinity アーキテクチャ
第 4 世代
- バス タイプ
PCIe® Gen 5 (128 GB/s)
- 双方向 I/O 帯域幅の合計 (ピアツーピア)
896GB/s
- 保証
3 年間限定
-
AI パフォーマンス
- FP8 の理論上の合計ピーク性能
20.9 PFLOPs
- 構造スパース性を持つ FP8 の理論上の合計ピーク性能
41.8 PFLOPS
- TF32 の理論上の合計ピーク性能
5.2 PFLOPs
- 構造スパース性を持つ TF32 の理論上の合計ピーク性能
10.5 PFLOPs
- FP16 の理論上の合計ピーク性能
10.5 PFLOPs
- 構造スパース性を持つ FP16 の理論上の合計ピーク性能
20.9 PFLOPs
- bfloat16 の理論上の合計ピーク性能
10.5 PFLOPs
- 構造スパース性を持つ bfloat16 の理論上の合計ピーク性能
20.9 PFLOPs
- INT8 の理論上の合計ピーク性能
20.9 POPs
- 構造スパース性を持つ INT8 の理論上の合計ピーク性能
41.8 POPs
-
HPC 性能
- 理論ピーク倍精度マトリックス (FP64) の性能の合計
1.3 PFLOPs
- 理論上のピーク倍精度 (FP64) 性能の合計
653.6 TFLOPs
- 理論ピーク単精度マトリックス (FP32) の性能の合計
1.3 PFLOPs
- 理論ピーク単精度 (FP32) 性能の合計
1.3 PFLOPs