適切な AMD EPYC サーバー CPU を見つける

世界最先端のファブで製造された革新的な設計により、現在の AI 主導データセンターに求められる x86 パフォーマンス、電力効率、コスト効率を実現します。AI 向けの高集積 CPU、低レイテンシ ワークロード向けの高周波数 CPU、データベースやシミュレーション ワークロード向けのメモリ最適化 CPU をご用意しています。

AMD EPYC™ 4004 Series

中小企業/ホスト型サービス プロバイダー

中小企業およびホスト型サービス プロバイダー向けに設計されており、小規模サーバー向けに最大 16 個の "Zen 5" コアを搭載しています。

適切な AMD EPYC サーバー CPU を選択するためのツール

AMD EPYC サーバー CPU ツール

AMD EPYC サーバー CPU と Intel Xeon CPU を比較し、想定される温室効果ガス排出量を計算して、総所有コスト (TCO) を見積もることができます。

AMD EPYC サーバー CPU クラウド アドバイザリ ツール

大手クラウド プロバイダーが提供する AMD EPYC サーバー CPU ベースのサービスを対象に、インスタンス タイプやコスト比較、パフォーマンス データに関するアドバイスを取得できます。

競合の追随を許さない AMD EPYC サーバー CPU のパフォーマンス

縮小率
(データセンター)

最大
7x
Intel® Xeon® との比較

AMD EPYC™ 9005 CPU を搭載したサーバー 1 台で、2019 年世代の Intel® Xeon® Platinum サーバー 7 台分を超える処理を実現します。1

AMD EPYC サーバー CPU は Intel® Xeon® プロセッサよりも優れている

データセンターの統合から整数演算性能まで、第 5 世代 AMD EPYC サーバー CPU は Intel® Xeon® プロセッサを上回り、更新や新規構築における最適な選択肢となります。

ハイブリッド クラウドでは、AMD EPYC サーバー CPU インスタンス上で動作する x86 が最適

Arm® プロセッサを搭載したクラウド インスタンスは、スペック上では優れて見えるかもしれませんが、実際のコストやパフォーマンスは期待どおりにならない可能性があります。アプリケーションの移植や複数のコード ベースの管理にかかるコストに加え、実環境でのパフォーマンスが期待を下回ることから、クラウドに Arm を導入するのはリスクの高い選択と言えます。 

最大
75%

1 ドルあたりの性能向上率2

Arm ベースの AWS Graviton との比較

AMD EPYC サーバー CPU を搭載した構成では、Arm ベースの AWS Graviton と比べて、1 ドルあたりの性能が最大 75% 向上します。2

AMD EPYC サーバー CPU はエンタープライズ AI に最適3

クラウドでもオンプレミスでも、大規模でも小規模でも、AMD EPYC サーバー CPU は AI 活用に向けたあらゆる段階で、競争力が高くコスト効率に優れた柔軟なソリューションを提供します。第 6 世代 Intel Xeon 6980P と比較して、第 5 世代 AMD EPYC 9965 は大幅に高い処理能力を実現します。

最大
1.33X
言語モデルのスループットの向上率

第 5 世代 AMD EPYC 9965 は、Llama 3.1-8B 翻訳ユース ケースにおいて、第 6 世代 Intel Xeon 6980P と比較して最大 1.33 倍の推論スループットを実現します4

最大
1.93X
機械学習ワークロードの処理能力の向上率

第 5 世代 AMD EPYC 9965 は、XGBoost 上の第 6 世代 Intel Xeon 6980P と比較して最大 1.93 倍のスループットを実現します5

最大
1.7X
エンドツーエンドの AI ベンチマークのスループット向上率

第 5 世代 AMD EPYC 9965 は、第 6 世代 Intel Xeon 6980P と比較して最大 1.7 倍の汎用 AI (TPCx-AI) スループットを実現します6

AMD EPYC サーバー CPU に関する FAQ

はい。第 5 世代 AMD EPYC サーバー CPU では、現在、x86 サーバー プロセッサの中で最も多いコア数を利用できます。192 コアを搭載した AMD EPYC 9965 サーバー CPU は、1 コアあたり 1 vCPU 構成で、Intel® Xeon® 6E "Sierra Forest" 144 コア プロセッサと比較して、仮想 CPU (vCPU) を 33% 多くサポートします。

第 5 世代 AMD EPYC サーバー CPU と Intel Xeon 6 CPU を比較した場合、AMD EPYC サーバー CPU は、より優れた汎用コンピューティング、エンドツーエンドの AI パフォーマンス、電力効率を提供します。汎用コンピューティングでは、AMD EPYC サーバー CPU は Xeon を最大 35% 上回ります。7 消費電力については、AMD EPYC サーバー CPU は Xeon よりも電力効率が最大 66% 高くなっています。8 エンドツーエンドの AI パフォーマンスでは、AMD EPYC サーバー CPU は Xeon を最大 70% 上回ります。9

いいえ、Intel から AMD への移行は困難ではありません。AMD EPYC サーバー CPU も Intel Xeon CPU も、x86 アーキテクチャ上に構築されています。これにより、アプリケーション レベルでの移行が容易です。仮想マシン (VM) を移行するために、AMD はプロセスの自動化に役立つ VMware Architecture Migration Tool を提供しています。 

はい。AMD EPYC サーバー CPU は、仮想マシン (VM)、データベース、およびその他のエンタープライズ アプリケーションに優れたパフォーマンスを提供します。第 5 世代 AMD EPYC サーバー CPU は、クラウド ワークロード向けの高いコア密度と高いパフォーマンスにより、VM に最適です。AMD EPYC サーバー CPU は、データベース ワークロードを高速化し、エージェント型 AI と分析をサポートします。さらに、汎用コンピューティングにおける高いパフォーマンスや x86 の互換性により、エンタープライズ アプリケーションは EPYC 上で優れたパフォーマンスを発揮します。

AMD EPCY サーバー CPU の選択は、パフォーマンス、電力効率、および価格に対するニーズによります。最新の EPYC ファミリには、8 ~ 192 コア、155 W ~ 500 W の範囲にわたる幅広い選択肢があります。AMD EPYC サーバー CPU ツールを使用して、ご自身のニーズに最適な CPU を見つけてください。

Cisco、Dell、HPE、Lenovo、Oracle、Supermicro など、世界をリードするデータセンター ハードウェア メーカーが AMD EPYC サーバー CPU を搭載したシステムを構築しています。AMD は OEM パートナー、ソフトウェア ベンダー、販売者、およびオープンソース コミュニティと密接に協力して、最先端のソリューションを提供しています。

AWS、Microsoft Azure、Google Cloud、Oracle Cloud などのお好みのクラウド プロバイダーで、AMD EPYC サーバー CPU に基づくクラウド インスタンスを選択できます。AMD はクラウド プロバイダーと協力して、AMD EYPC サーバー CPU ベースの仮想マシン (VM) が優れたパフォーマンスとコスト効率を実現できるようにしています。

コア データセンター ワークロード向け AMD EPYC ソリューション

主要産業向け AMD EPYC サーバー CPU ソリューション

AMD EPYC サーバー CPU の使用事例

AMD EPYC の導入オプション

Close-up of a server

オンプレミス環境を支える広範なエコシステム 

OEM パートナーが提供する最先端のエンタープライズ ハードウェアをご確認ください。汎用 CPU、AI 向けの主要な GPU ライン、相互運用可能なネットワーク ソリューションなど、シームレスに統合できる完成度の高い完全なハードウェアおよびソフトウェアをご利用ください。

Mother Board CPU

クラウドの価値を最大化

AMD ベースの仮想マシン (VM) を選択して、お好みのクラウドでパフォーマンスと運用コストの利点を実現しましょう。

リソース

AMD とつながる

サインアップして、今後のイベントやウェビナーなど、AMD のニュースや最新情報を受け取りましょう。

AMD EPYC サーバー CPU 販売担当者からの連絡をご希望の場合は、次のリンクからお問い合わせください。

脚注
  1. このシナリオには多くの仮定と推定が含まれており、AMD の内部調査と最良近似に基づいています。このシナリオ中に示される数値は、情報提供のみを目的とした例であり、実際のテストに対する意思決定の基礎としては使用しないでください。AMD サーバーおよび温室効果ガス排出量総所有コスト (TCO) 評価ツール (バージョン 1.3) では、2024 年 11 月 21 日時点において、SPECrate®2017_int_base で 391000 ユニットの TOTAL_PERFORMANCE を実現するために必要となる、AMD EPYC™ および Intel® Xeon® CPU ベースのサーバー ソリューションを比較しています。この推定値は、スコア 391 のレガシ 2P Intel Xeon 28 コア Platinum_8280 ベースのサーバー (https://spec.org/cpu2017/results/res2020q3/cpu2017-20200915-23984.pdf) と、スコア 3100 の 2P EPYC 9965 (192 コア) 搭載サーバー (https://spec.org/cpu2017/results/res2024q4/cpu2017-20241004-44979.pdf) からのアップグレードを比較しています。環境負荷の推定は、このデータを基に、「Country Specific Electricity Factors - 2024」における国/地域別の電力係数と、米国環境保護庁 (EPA) の Greenhouse Gas Equivalencies Calculator を使用して実施しました。その他の詳細については、https://www.amd.com/en/legal/claims/epyc.html#q=9xx5TCO-005 をご覧ください。 (9xx5TCO-005)
  2.  Phoronix、『AWS Graviton4 Benchmarks Prove to Deliver the Best ARM Cloud Server Performance』、7 ページ、2024 年 7 月 12 日。コスト パフォーマンスは、幾何平均パフォーマンスを、ワークロードを完了するまでの総コストで割って算出しています。表示されているオンデマンド価格は、米国東部における汎用クラウド演算インスタンス向けで、2024 年 7 月以降のレートおよび 2025 年 6 月に最終確認されたレートに基づいています。この期間中に変更は認められませんでした。価格はいつでも変更される可能性があります。
  3. 比較は、2024 年 10 月 10 日時点で現在出荷されているサーバーのスレッド密度、パフォーマンス、機能、プロセス テクノロジ、および統合されたセキュリティ機能に基づいています。EPYC 9005 シリーズ CPU は、最高のスレッド密度を備え、500 を超えるパフォーマンス世界記録を樹立。エンタープライズ リーダーシップ Java® オペレーション/秒パフォーマンスで世界記録を達成し、浮動小数点スループット性能で HPC 分野のリーダーシップを確立、TPCx-AI 性能による AI のエンドツーエンド パフォーマンス、および最高クラスの電力効率スコアを実現しています。第 5 世代 Xeon と比較して、第 5 世代 EPYC シリーズは DDR5 メモリ チャネルをさらに多く搭載し、メモリ帯域幅を拡大。I/O スループットが大きい PCIe® Gen5 レーン数のサポートも拡充し、最大 5 倍の L3 キャッシュ/コアにより、データ アクセスをさらに高速化します。EPYC 9005 シリーズは、先進の 3 ~ 4 nm テクノロジを採用、Secure Memory Encryption + Secure Encrypted Virtualization (SEV) + SEV Encrypted State + SEV-Secure Nested Paging のセキュリティ機能を提供します。(EPYC-029D)
  4. 9xx5-156: Llama3.1-8B のスループットは、2025 年 4 月 8 日時点の AMD 社内テストに基づきます。Llama3.1-8B の構成: BF16、バッチ サイズ 32、32C インスタンス。ユース ケースの入力/出力トークン構成: [要約 = 1024/128、チャットボット = 128/128、翻訳 = 1024/1024、エッセイ = 128/1024]2P AMD EPYC 9965 (合計コア数 384)、1.5 TB 24x64 GB DDR5-6400、1.0 Gbps NIC、3.84 TB Samsung MZWLO3T8HCLS-00A07、Ubuntu® 22.04.5 LTS、Linux 6.9.0-060900-generic、BIOS RVOT1004A、(SMT=Off、mitigations=On、Determinism=Power)、NPS = 1、ZenDNN 5.0.1。2P AMD EPYC 9755 (合計コア数 256)、1.5 TB 24x64 GB DDR5-6400、1.0 Gbps NIC、3.84 TB Samsung MZWLO3T8HCLS-00A07、Ubuntu® 22.04.4 LTS、Linux 6.8.0-52-generic、BIOS RVOT1004A、(SMT=Off、mitigations=On、Determinism=Power)、NPS=1、ZenDNN 5.0.1。2P Xeon 6980P (合計コア数 256)、AMX On、1.5 TB 24x64 GB DDR5-8800 MRDIMM、1.0 Gbps イーサネット コントローラー X710 for 10GBASE-T、Micron 7450 MTFDKBG1T9TFR 2 TB、Ubuntu 22.04.1 LTS、Linux 6.8.0-52-generic、BIOS 1.0 (SMT=Off、mitigations=On、Performance Bias)、IPEX 2.6.0。結果: CPU: 6980P/9755/9965、要約: 1/ n/a /1.093。翻訳: 1/1.062/1.334、エッセイ: 1/ n/a /1.14。実際の結果は、システム構成、ソフトウェアのバージョン、BIOS 設定などの要因により異なる場合があります。
  5. 9xx5-162: XGBoost (実行/時) のスループットは、2025 年 4 月 8 日時点の AMD 社内テストに基づきます。XGBoost 構成: バージョン 1.7.2、Higgs データ セット、32 コア インスタンス、FP32。2P AMD EPYC 9965 (合計 384 コア、1.5 TB 24x64 GB DDR5-6400 (6000 MT/s 時)、1.0 Gbps NIC、3.84 TB Samsung MZWLO3T8HCLS-00A07、Ubuntu® 22.04.5 LTS、Linux 5.15 カーネル、BIOS RVOT1004A、SMT=Off、Mitigations=On、Determinism=Power、NPS=1)。2P AMD EPYC 9755 (合計 256 コア、1.5 TB 24x64 GB DDR5-6400 (6000 MT/s 時)、1.0 Gbps NIC、3.84 TB Samsung MZWLO3T8HCLS-00A07、Ubuntu® 22.04.4 LTS、Linux 5.15 カーネル、BIOS RVOT1004A、SMT=Off、Mitigations=On、Determinism=Power、NPS=1)。2P Intel Xeon 6980P (合計 256 コア、1.5 TB 24x64 GB DDR5-8800 MRDIMM、1.0 Gbps イーサネット コントローラー X710 for 10GBASE-T、Micron_7450_MTFDKBG1T9TFR 2 TB、Ubuntu 22.04.1 LTS、Linux 6.8.0-52-generic、BIOS 1.0、SMT=Off、Mitigations=On、Performance Bias)。結果: CPU Throughput Relative: 2P 6980P – 400 (1.0)/2P 9755 – 436 (1.090)/2P 9965 – 771 (1.928)。実際の結果は、システム構成、ソフトウェアのバージョン、BIOS 設定などの要因によって異なります。
  6.  9xx5-151: TPCxAI @SF30 マルチインスタンス 32 コア インスタンス サイズのスループット結果は、複数の VM インスタンスを実行した場合の 2025 年 4 月 1 日時点の AMD 社内テストに基づくものです。集約エンドツーエンド AI スループット試験は、TPCx-AI ベンチマークから派生したものであるため、公開されている TPCx-AI の結果とは比較できません。エンドツーエンド AI スループット試験結果は TPCx-AI 仕様を順守していないためです。2P AMD EPYC 9965 (合計 6067.53 AIUCpm、合計 384 コア、500W TDP、AMD リファレンス システム、1.5 TB 24x64 GB DDR5-6400、2x40 GbE Mellanox CX-7 (MT2910)、3.84 TB Samsung MZWLO3T8HCLS-00A07 NVMe、Ubuntu® 24.04 LTS カーネル 6.13、SMT=ON、Determinism=Power、Mitigations=On)。2P AMD EPYC 9755 (合計 4073.42 AIUCpm、合計 256 コア、500W TDP、AMD リファレンス システム、1.5 TB 24x64 GB DDR5-6400、2x40 GbE Mellanox CX-7 (MT2910)、3.84 TB Samsung MZWLO3T8HCLS-00A07 NVMe、Ubuntu 24.04 LTS カーネル 6.13、SMT=ON、Determinism=Power、Mitigations=On)。2P Intel Xeon 6980P (合計 3550.50 AIUCpm、合計 256 コア、500W TDP、プロダクション システム、1.5 TB 24x64 GB DDR5-6400、4x1 GbE Broadcom NetXtreme BCM5719 ギガビット イーサネット PCIe、3.84 TB SAMSUNG MZWLO3T8HCLS-00A07 NVMe、Ubuntu 24.04 LTS カーネル 6.13、SMT=ON、Performance Bias、Mitigations=On)。実際の結果は、システム構成、ソフトウェア バージョン、BIOS 設定などの要因によって異なる場合があります。TPC、TPC Benchmark、および TPC-H は、Transaction Processing Performance Council の商標です。
  7. 9xx5-129: 2025 年 4 月 1 日時点の AMD 社内テストに基づく、GCC13 を使用した SPECrate®2017_int_base での比較です。2P AMD EPYC 9965 (推定値 2160 SPECrate®2017_int_base、合計 384 コア、500W TDP、AMD リファレンス システム、1.5 TB 24x64 GB DDR5-6400、2x40 GbE Mellanox CX-7 (MT2910)、3.84 TB Samsung MZWLO3T8HCLS-00A07 NVMe、Ubuntu® 22.04.3 LTS | 5.15.0-105-generic、SMT=ON、Determinism=Power、Mitigations=on)。2P AMD EPYC 9755 (推定値 1850 SPECrate®2017_int_base、合計 256 コア、500W TDP、AMD リファレンス システム、1.5 TB 24x64 GB DDR5-6400、2x40 GbE Mellanox CX-7 (MT2910)、3.84 TB Samsung MZWLO3T8HCLS-00A07 NVMe、Ubuntu 22.04.3 LTS | 5.15.0-105-generic、SMT=ON、Determinism=Power、Mitigations=on)。2P Intel Xeon 6980P (推定値 1600 SPECrate®2017_int_base、合計 256 コア、500W TDP、プロダクション システム、1.5 TB 24x64 GB DDR5-6400、4x1 GbE Broadcom NetXtreme BCM5719 ギガビット イーサネット PCIe、3.84 TB SAMSUNG MZWLO3T8HCLS-00A07 NVMe、SUSE Linux Enterprise Server 15 SP6 カーネル 6.4.0-150600.23.33-default、SMT=ON、Performance Bias、Mitigations=on)。同じ Intel Xeon 6980P (1.5 TB 24x64 GB MRDIMM 8800 MT/s 搭載) では、1650 SPECrate®2017_int_base。SPEC®、SPEC CPU®、および SPECrate® は、Standard Performance Evaluation Corporation の登録商標です。詳細については、www.spec.org をご覧ください。Intel CPU の TDP は、2025 年 4 月 17 日時点で https://ark.intel.com/ に掲載されています。
  8. 9xx5-134: SPECpower_ssj® 2008 の比較は、www.spec.org に掲載された 2025 年 4 月 30 日時点のスコアに基づいています。2P AMD EPYC 9965 (35920 ssj_ops/watt、合計 384 コア、https://spec.org/power_ssj2008/results/res2024q4/power_ssj2008-20241007-01464.html)。2P AMD EPYC 9755 (29950 ssj_ops/watt、合計 256 コア、https://spec.org/power_ssj2008/results/res2024q4/power_ssj2008-20240924-01460.html)。2P Intel Xeon 6980P (21679 ssj_ops/watt、合計 256 コア、https://spec.org/power_ssj2008/results/res2025q2/power_ssj2008-20250324-01511.html)。SPEC®、SPEC CPU®、および SPECpower® は、Standard Performance Evaluation Corporation の登録商標です。詳細については、www.spec.org をご覧ください。
  9. 9xx5-151: TPCxAI @SF30 マルチインスタンス 32 コア インスタンス サイズのスループット結果は、複数の VM インスタンスを実行した場合の 2025 年 4 月 1 日時点の AMD 社内テストに基づくものです。集約エンドツーエンド AI スループット試験は、TPCx-AI ベンチマークから派生したものであるため、公開されている TPCx-AI の結果とは比較できません。エンドツーエンド AI スループット試験結果は TPCx-AI 仕様を順守していないためです。2P AMD EPYC 9965 (合計 6067.53 AIUCpm、合計 384 コア、500W TDP、AMD リファレンス システム、1.5 TB 24x64 GB DDR5-6400、2x40 GbE Mellanox CX-7 (MT2910)、3.84 TB Samsung MZWLO3T8HCLS-00A07 NVMe、Ubuntu® 24.04 LTS カーネル 6.13、SMT=ON、Determinism=Power、Mitigations=On)。2P AMD EPYC 9755 (合計 4073.42 AIUCpm、合計 256 コア、500W TDP、AMD リファレンス システム、1.5 TB 24x64 GB DDR5-6400、2x40 GbE Mellanox CX-7 (MT2910)、3.84 TB Samsung MZWLO3T8HCLS-00A07 NVMe、Ubuntu 24.04 LTS カーネル 6.13、SMT=ON、Determinism=Power、Mitigations=On)。2P Intel Xeon 6980P (合計 3550.50 AIUCpm、合計 256 コア、500W TDP、プロダクション システム、1.5 TB 24x64 GB DDR5-6400、4x1 GbE Broadcom NetXtreme BCM5719 ギガビット イーサネット PCIe、3.84 TB SAMSUNG MZWLO3T8HCLS-00A07 NVMe、Ubuntu 24.04 LTS カーネル 6.13、SMT=ON、Performance Bias、Mitigations=On)。実際の結果は、システム構成、ソフトウェアのバージョン、BIOS 設定などの要因によって異なる場合があります。TPC、TPC Benchmark、および TPC-H は、Transaction Processing Performance Council の商標です。