高性能、優れた電力効率。低い TCO。
AMD EPYC 9004 サーバー向け CPU は、企業のワークロードを強化し、オンプレミスおよびクラウドネイティブの導入環境全体で、高いパフォーマンス、電力効率、シームレスな x86 互換性を実現します。総所有コスト (TCO) を最小限に抑えながら、さまざまなワークロードで結果を最大化します。
"Zen 4" アーキテクチャ
最大 128 個の「Zen 4」または「Zen 4c」コアと 12 個の DDR5 メモリ チャネルを搭載し、優れたメモリ帯域幅と容量を実現します。第 4 世代 AMD EPYC CPU アーキテクチャは、さまざまなデータセンターに最適化された高性能で電力効率に優れたソリューションを実現します。
AI ワークロードの強化
AMD EPYC 9004 サーバー向け CPU を搭載したプラットフォームは、要求の厳しい AI ワークロードに対応するトップクラスのパフォーマンスと効率性を実現し、企業とクラウド プロバイダーが AI インフラストラクチャを将来にシームレスに拡張できるように支援します。
Cloud Computing Solutions
AMD EPYC 9004 サーバー向け CPU を搭載したクラウド仮想マシン (VM) により、要求の厳しいワークロードにも対応できるトップクラスのパフォーマンスと効率性を実現し、クラウド プロバイダーの将来への拡張を容易にします。
NGINX™ 実行時の毎秒 700 万リクエストの処理性能を、AMD EPYC CPU 搭載の Amazon EC2 M7a.4xl と Intel Xeon 搭載の M7i.4xl で比較。2
エンタープライズ
汎用サーバーを進化させ、電力効率、総所有コスト (TCO)、スペースの節約、パフォーマンス全体で優れた価値を提供します。AMD EPYC 9004 サーバー向け CPU は、すべての企業顧客に対応できるよう設計されています。
モデル仕様
- 9004 シリーズ プロセッサ
- 3D V-Cache™ テクノロジ搭載の 9004 シリーズ
- 97x4 プロセッサ
サポートとリソース
脚注
- SP5-051A: TPCx-AI SF30 デリバティブ ワークロード比較テストは、2024 年 4 月 13 日に複数の VM インスタンスを実行した AMD 社内テストの結果に基づいています。集約エンドツーエンド AI スループット試験は、TPCx-AI ベンチマークから派生したものであるため、公開されている TPCx-AI の結果とは比較できません。エンドツーエンド AI スループット試験結果は TPCx-AI 仕様を順守していないためです。AMD システム構成: プロセッサ: 2 x AMD EPYC 9654、周波数: 2.4 GHz | 3.7 GHz、コア数: ソケットあたり 96 個のコア (ソケットあたり 1 NUMA ドメイン)、L3 キャッシュ: 384 MB/ソケット (合計 768 MB)、メモリ: 1.5 TB (24) デュアルランク DDR5-5600 64 GB DIMM、1DPC (プラットフォームは最大 4800 MHz に対応)、NIC: 2 x 100 GbE Mellanox CX-5 (MT28800)、ストレージ: 3.2 TB Samsung MO003200KYDNC U.3 NVMe、BIOS: 1.56、BIOS 設定: SMT=ON、Determinism=Power、NPS=1、PPL=400W、Turbo Boost=Enabled、OS: Ubuntu® 22.04.3 LTS、試験構成: 6 インスタンス、64 vCPUs/インスタンス、2663 集約 AI ユース ケース/分。比較対象の Intel システム構成: プロセッサ: 2 x Intel® Xeon® Platinum 8592 +、周波数: 1.9 GHz | 3.9 GHz、コア数: ソケットあたり 64 個のコア (ソケットあたり 1 NUMA ドメイン)、L3 キャッシュ: 320 MB/ソケット (合計 640 MB)、メモリ: 1 TB (16) デュアルランク DDR5-5600 64 GB DIMM、1DPC、NIC: 4 x 1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe、ストレージ: 3.84 TB KIOXIA KCMYXRUG3T84 NVMe、BIOS: ESE124B-3.11、BIOS 設定: Hyperthreading=Enabled、Turbo boost=Enabled、SNC=Disabled、OS: Ubuntu® 22.04.3 LTS、試験構成: 4 インスタンス、64 vCPU/インスタンス、1607 集約 AI ユース ケース/分。実際の結果は、システムの構成、ソフトウェアのバージョン、BIOS の設定などの要因によって異なります。 TPC、TPC Benchmark、および TPC-C は、Transaction Processing Performance Council の商標です。
- SP5C-013: 2023 年 9 月 28 日に実施された AMD のテストによると、NGINX WRK テストのスループットにおいて、M7a.4xl は M7i.4xl と比較して 1.62 倍のパフォーマンスを達成しています。インスタンス価格 m7i.4xlarge: $0.8064/時、m7a.4xlarge: $0.92736/時は、2023 年 9 月 28 日付けの米国東部 (オハイオ州) における Amazon EC2 オンデマンド価格に基づいています。(https://calculator.aws/#/createCalculator/ec2-enhancement)
パフォーマンス (NGINX WRK リクエスト/秒 (RPS))
m7i.4xlarge 893621.554
m7a.4xlarge 1448376.598
記載されているクラウド パフォーマンスの結果は、試験を実施した日付の構成に基づいています。基本構成の変更、および VM とそのリソースの配置、クラウド サービス プロバイダーによる最適化、アクセスしたクラウド リージョン、コテナント、システムで同時に実行したほかのワークロードのタイプなどの条件によって、結果は異なります。NGINX は Nginx Software Inc. の商標です。
- SP5-104B: SPECjbb® 2015-MultiJVM Critical-jOPS は、2024 年 1 月 4 日時点で www.spec.org に掲載されたスコアに基づいています。構成: 2P AMD EPYC 9684X (679,119 SPECjbb®2015 MultiJVM critical-jOPS、783,622 SPECjbb®2015 MultiJVM max-jOPS、合計 192 コア (https://spec.org/jbb2015/results/res2023q3/jbb2015-20230906-01166.html)) は、公表されている critical-jOPS パフォーマンスにおいて、2P 64C Intel Xeon Platinum 8592+ (421,207 SPECjbb®2015 MultiJVM critical-jOPS、480,007 SPECjbb®2015 MultiJVM max-jOPS、合計 128 コア (https://spec.org/jbb2015/results/res2024q1/jbb2015-20231224-01210.html)) に対して 1.61 倍のパフォーマンスを達成しています。SPEC® および SPECjbb® は、Standard Performance Evaluation Corporation の登録商標です。詳細については、www.spec.org をご覧ください。
- SP5-051A: TPCx-AI SF30 デリバティブ ワークロード比較テストは、2024 年 4 月 13 日に複数の VM インスタンスを実行した AMD 社内テストの結果に基づいています。集約エンドツーエンド AI スループット試験は、TPCx-AI ベンチマークから派生したものであるため、公開されている TPCx-AI の結果とは比較できません。エンドツーエンド AI スループット試験結果は TPCx-AI 仕様を順守していないためです。AMD システム構成: プロセッサ: 2 x AMD EPYC 9654、周波数: 2.4 GHz | 3.7 GHz、コア数: ソケットあたり 96 個のコア (ソケットあたり 1 NUMA ドメイン)、L3 キャッシュ: 384 MB/ソケット (合計 768 MB)、メモリ: 1.5 TB (24) デュアルランク DDR5-5600 64 GB DIMM、1DPC (プラットフォームは最大 4800 MHz に対応)、NIC: 2 x 100 GbE Mellanox CX-5 (MT28800)、ストレージ: 3.2 TB Samsung MO003200KYDNC U.3 NVMe、BIOS: 1.56、BIOS 設定: SMT=ON、Determinism=Power、NPS=1、PPL=400W、Turbo Boost=Enabled、OS: Ubuntu® 22.04.3 LTS、試験構成: 6 インスタンス、64 vCPUs/インスタンス、2663 集約 AI ユース ケース/分。比較対象の Intel システム構成: プロセッサ: 2 x Intel® Xeon® Platinum 8592 +、周波数: 1.9 GHz | 3.9 GHz、コア数: ソケットあたり 64 個のコア (ソケットあたり 1 NUMA ドメイン)、L3 キャッシュ: 320 MB/ソケット (合計 640 MB)、メモリ: 1 TB (16) デュアルランク DDR5-5600 64 GB DIMM、1DPC、NIC: 4 x 1 GbE Broadcom NetXtreme BCM5719 Gigabit Ethernet PCIe、ストレージ: 3.84 TB KIOXIA KCMYXRUG3T84 NVMe、BIOS: ESE124B-3.11、BIOS 設定: Hyperthreading=Enabled、Turbo boost=Enabled、SNC=Disabled、OS: Ubuntu® 22.04.3 LTS、試験構成: 4 インスタンス、64 vCPU/インスタンス、1607 集約 AI ユース ケース/分。実際の結果は、システムの構成、ソフトウェアのバージョン、BIOS の設定などの要因によって異なります。 TPC、TPC Benchmark、および TPC-C は、Transaction Processing Performance Council の商標です。
- SP5C-013: 2023 年 9 月 28 日に実施された AMD のテストによると、NGINX WRK テストのスループットにおいて、M7a.4xl は M7i.4xl と比較して 1.62 倍のパフォーマンスを達成しています。インスタンス価格 m7i.4xlarge: $0.8064/時、m7a.4xlarge: $0.92736/時は、2023 年 9 月 28 日付けの米国東部 (オハイオ州) における Amazon EC2 オンデマンド価格に基づいています。(https://calculator.aws/#/createCalculator/ec2-enhancement)
パフォーマンス (NGINX WRK リクエスト/秒 (RPS))
m7i.4xlarge 893621.554
m7a.4xlarge 1448376.598
記載されているクラウド パフォーマンスの結果は、試験を実施した日付の構成に基づいています。基本構成の変更、および VM とそのリソースの配置、クラウド サービス プロバイダーによる最適化、アクセスしたクラウド リージョン、コテナント、システムで同時に実行したほかのワークロードのタイプなどの条件によって、結果は異なります。NGINX は Nginx Software Inc. の商標です。 - SP5-104B: SPECjbb® 2015-MultiJVM Critical-jOPS は、2024 年 1 月 4 日時点で www.spec.org に掲載されたスコアに基づいています。構成: 2P AMD EPYC 9684X (679,119 SPECjbb®2015 MultiJVM critical-jOPS、783,622 SPECjbb®2015 MultiJVM max-jOPS、合計 192 コア (https://spec.org/jbb2015/results/res2023q3/jbb2015-20230906-01166.html)) は、公表されている critical-jOPS パフォーマンスにおいて、2P 64C Intel Xeon Platinum 8592+ (421,207 SPECjbb®2015 MultiJVM critical-jOPS、480,007 SPECjbb®2015 MultiJVM max-jOPS、合計 128 コア (https://spec.org/jbb2015/results/res2024q1/jbb2015-20231224-01210.html)) に対して 1.61 倍のパフォーマンスを達成しています。SPEC® および SPECjbb® は、Standard Performance Evaluation Corporation の登録商標です。詳細については、www.spec.org をご覧ください。