AMD ハードウェアを AI のニーズに合わせる
AI 向けの AMD ポートフォリオの概要を把握します。まず AMD EPYC サーバー向け CPU から始め、次に AI ワークフロー全体に対してどのようにさまざまなタイプのハードウェアを使用するのかを検討します。
AI 展開の規模にかかわらず、AMD EPYC サーバー向け CPU は、企業の AI ワークロードや汎用ワークロード向けの高性能で電力効率に優れた基盤となります。
AI 対応のデータセンターを構築するには、セキュリティ要件を満たすよう設計された汎用演算の基盤が必要です。また、この基盤は、必要があればパフォーマンスとワークロードに適合するよう GPU で強化します。AI 対応のマルチタスク処理能力を備えた組織として、次のデータセンターを最適化する方法をご紹介します。
データセンターのスペースと電力には限りがあります。古いサーバーを新しい高密度 CPU に置き換えれば、サーバーを統合して台数を減らし、それに伴う消費電力を削減し、AI のためのスペースを確保できます。
2020 年に登場した Intel® "Cascade Lake" サーバーから第 5 世代 AMD EPYC CPU 搭載サーバーに移行します。
AMD EPYC 9965 CPU 搭載サーバーが 14 台あれば、100 台分の旧式の Intel Xeon Platinum 8280 CPU 搭載サーバーと同じ整数演算性能を発揮します。
第 5 世代 AMD EPYC 9965 CPU は、"パフォーマンス コア" を搭載した最新の Intel Xeon 6 6980P CPU よりも優れています。
多くの推論ワークロードは CPU 上で実行され、特別なアクセラレータ ハードウェアを必要としません。小規模または中規模のモデルを実行する場合、または AI タスクの実行頻度が低い場合は、高コア数の第 5 世代 EPYC サーバー向け CPU でパフォーマンス要件を満たせる可能性があります。
TPCxAI でテストしたときに AMD EPYC 9965 CPU の方が Intel Xeon 6 6980P CPU よりも性能が優れています。
トレーニング、大規模モデルに基づく推論、大規模な展開、または低レイテンシが求められるユース ケースには、専用の AI アクセラレーションが必要になる場合があります。高周波数 AMD EPYC 9005 サーバー向け CPU をホスト CPU として使用することで、高コア周波数と大容量メモリを活用できます。PCIe フォーム ファクターには AMD Instinct™ アクセラレータのような GPU を追加できます。
データ保護は、AI 展開を実施するごとに考慮する必要があります。AMD EPYC サーバー向け CPU は、多くの高度な攻撃に対する耐性を高めるために、セキュリティを念頭に置いて設計されています。シリコン レベルで組み込まれている AMD Infinity Guard7 により、内外の脅威に対抗してデータを安全に保つことができます。
オンプレミスとクラウドのリソースを適切に組み合わせた柔軟な AI インフラストラクチャであれば、迅速に拡張できます。数百ものハードウェア オプションと 1,000 以上のパブリック クラウド インスタンスに AMD EPYC サーバー向け CPU が採用されています。
AI ハードウェアに投資する前に、データセンター設計者は AI ワークロードとパフォーマンス要件を評価する必要があります。場合によっては、GPU がなくても、汎用的な AMD EPYC サーバー向け CPU が推論に必要な性能を十分に発揮することがあります。
一般的に、AMD EPYC サーバー向け CPU は、最大 200 億のパラメーターを持つモデルに十分なパフォーマンスを提供します。これに該当するものは、多くの一般的な大規模言語モデル (LLM) やその他の生成 AI アプリケーションです。
AMD EPYC サーバー向け CPU は多くの推論ユース ケースに最適です。これに該当するのは、古い機械学習、コンピューター ビジョン、メモリ負荷の高いグラフ解析、レコメンデーション システム、自然言語処理、LLM のような中小規模の生成 AI モデルです。また、AI エージェントの専門的なチューニングや、拡張世代 (RAG) モデルの取得でよく使用されるプロンプトベースのコラボレーティブな前処理にも最適です。
第 5 世代 AMD EPYC サーバー向け CPU は、Intel Xeon 6 に比べてエンドツーエンドの AI パフォーマンスが 70% 高くなっています。4 また、DeepSeek におけるチャットボットのパフォーマンスを Intel Xeon 6980P8 と比較すると、AMD EPYC 9965 の方が最大 89% 高く、LLM のパフォーマンスも優れています。
データの局所性またはプライバシーの要件を遵守する必要がある場合、あるいは低レイテンシに関して厳密な要件がある場合は、オンプレミスで AI を実行することを検討します。迅速な拡大縮小に対応可能な柔軟性が必要な場合、クラウドはオンデマンド リソースに最適です。
AMD EPYC サーバー向け CPU のコア数、周波数、メモリ、電源の選択肢は幅広く、その中から選択できます。最も頻繁に実行する AI ワークロードに合った CPU を選ぶことで、最適な結果を得ることができます。
実際の AI や機械学習の用途では、AMD EPYC 9965 は Intel Xeon 6980P よりも優れたパフォーマンスを発揮します。
数十億パラメーター規模までの LLM に対応できる性能で、チャットボット、インテリジェント検索エージェント、その他の生成 AI アプリケーションを安心して展開できます。AMD EPYC 9965 は Intel Xeon 6980P よりも優れたパフォーマンスを発揮します。
インフラストラクチャのニーズを AI の目標に合わせます。AMD は、業界をリードするパフォーマンスの高さに裏打ちされた幅広い AI ポートフォリオ、オープン スタンダード準拠のプラットフォーム、強力なエコシステムを提供しています。
AMD ZenDNN および AMD ROCm™ ソフトウェアを使用すると、開発者はフレームワークを選択し、アプリケーションのパフォーマンスを最適化できます。