AI: AMD がエンドポイントからエッジ、クラウドまでの AI 展開をサポート

生成 AI が企業のお客様の業務のやり方を大きく変えつつあります。AI は、カスタマー サービスからデータ分析まで、ほぼすべてのビジネス プロセスをサポートする一部となりつつあります。そして、この統合の深化はさらに進んでいきます。とはいえ、AI は比較的新しいワークロードであり、既存のインフラストラクチャに追加されることで、現在のハードウェア構成に負荷がかかります。

シームレスな AI 体験と生産性向上を今すぐ、そして長期的に活用することを検討しているなら、IT インフラストラクチャを進化させることが必要です。そこで AMD のテクノロジが役立ちます。AMD のテクノロジは、AI によってもたらされる新たな可能性と同時に、既存のワークフローを運用するためのパフォーマンスと効率性を企業に提供します。 

AMD EPYC™ プロセッサで AI の世界への扉を開く

AMD EPYC™ プロセッサは、信頼性が認められ、世界のサーバーの 3 分の 1 で採用されています。1 企業のお客様に最高水準のデータセンター CPU を提供する汎用 AMD EPYC プロセッサは、最大 96 コアのオプションを提供し、競合製品と比較して CPU ワットあたり最大 1.75 倍のパフォーマンス、SPECrate® 2017_int_base で 1.8 倍のパフォーマンスを実現します。2

AMD の高性能 CPU は、レコメンデーション システム、機械学習ソリューション、生成 AI のその他のユース ケースなど、AI ワークロードを展開する企業にとって有力なオプションとなります。 

実績のある標準インフラストラクチャを活用し、強力な AMD EPYC プロセッサにアップグレードすることで、サーバーの設置面積、消費電力、初期費用にかかるコストを低く抑えることができます。また、サーバーのパフォーマンスと集積度を高めることもでき、より多くのユース ケースを実現し、ROI を向上させることができます。

AMD EPYC™ プロセッサの詳細をご覧ください。

AMD Instinct™ アクセラレータで AI を高速化

AMD EPYC CPU 単体でできることよりも多くの機能が必要とされる AI ワークロードやユース ケースは数多くあります。大規模言語モデルは、数百億、さらには数千億のパラメーターにまで成長し続けています。

その点、AMD は最も要求の厳しい AI タスクにも対応できる幅広いワークロード エンジンを提供しています。AMD EPYC プロセッサで効果的に管理できる AI ワークロードのセットを拡張するものとして、AMD Instinct™ アクセラレータによる GPU アクセラレーションのパワーが加わりました。AMD サーバー CPU が小規模から中規模のモデルと混合ワークロードの推論展開を管理する一方で、AMD アクセラレータは、大容量のリアルタイム AI トレーニング、専用 AI 展開、中規模から大規模のモデル、大規模なリアルタイム推論を可能にします。これにより、新しいテクノロジを最大限活用しようとする企業は、AI の成果を加速できます。

AMD は、さまざまなパフォーマンス レベルとフォーム ファクターに対応する幅広い GPU ソリューションを提供しています。AMD ROCm™ ソフトウェア スタックを搭載した主力製品である AMD Instinct™ MI300X アクセラレータは、Llama2-70b チャットを実行する NVIDIA H100 製品と比較すると約 2.1 倍優れたレイテンシを達成し、Llama2-70b 総合レイテンシについては前世代製品と比較して約 8 倍向上しています。3、4

また、エンタープライズ対応のオープンソース ソフトウェアである AMD ROCm™ が AMD アクセラレーションを支えており、約 40 万個の Hugging Face モデルのサポートおよび PyTorch や OpenAI などの AI リーダーたちとの緊密な連携により、企業は AI ワークロードを迅速に立ち上げることができます。

AMD Instinct™ アクセラレータの詳細をご覧ください。

AMD Alveo™ アクセラレータで汎用性を提供

適応性を考慮して設計された AMD Alveo™ アクセラレータは、さまざまなユース ケースに対応し、データセンターでリアルタイムのパフォーマンスを発揮します。お客様は必要なワークロードに合わせてプラットフォームを最適化し、必要に応じて、進化するアルゴリズムやアプリケーション要件に適応させることができます。

リアルタイム アプリケーション向けの低レイテンシ、高いスループットと効率性を備えた AMD Alveo アクセラレータは、データ分析、HPC、メディア、インフラストラクチャ アクセラレーションなどに必要なものを確実に備えておくのに最適です。

AMD Alveo™ アクセラレータの詳細をご覧ください。

AMD Ryzen™ プロセッサでローカル マシンに AI を導入

AI は今やサーバー内だけのものではありません。エンドユーザー デバイス上にも搭載され、人々の働き方を拡張し、従来のプロセスを向上させることで、作業をより迅速かつ容易にしています。これにより、チームはより大きな目標に集中できるようになります。

AMD Ryzen™ PRO プロセッサは、世界で最も先進的な、ビジネス デスクトップ用の超省電力プロセッサ5 であり、x86 プロセッサでは初の統合 AI エンジンを提供します。6 サーバーからクライアント デバイスに至るまで、このレベルの AI を実現することで、従来は不可能だった驚異的な機能が実現します。

AMD Ryzen™ PRO プロセッサの詳細をご覧ください。

エッジ AI 向け AMD Versal™ アダプティブ SoC で全体が完成

今や AI は、PC やサーバーだけのものではありません。エッジ デバイスに搭載されたローカル AI 処理によってパフォーマンスと安全性に大きな影響を受けるアプリケーションが数多くあります。

オートモーティブでは、エッジでの AI によって安全性を高めることができます。つまり、センサー データをローカルで処理して、リアルタイムで意思決定できるようになります。事故を回避するために自律走行車がブレーキをかけるべきかどうかを判断する際、クラウドでデータが処理されるのを待たなければならないようでは困ります。

ヘルスケアの分野では、エッジでの AI が画像診断機器を強化し、診断を迅速化したり、手術を支援するためのリアルタイムの視覚化を提供したりできます。また、データをクラウド経由で送信する必要がないため、患者のプライバシー保護にも役立ちます。

産業分野では、エッジでの AI により、工場の設備をより安全かつ効率的に稼働させることができます。AMD の FPGA およびアダプティブ SoC は、AI 駆動型および従来型エンベデッド システムのデータの前処理、推論、後処理を効率的に管理します。AMD の最新製品である AMD Versal™ AI エッジ シリーズ Gen 2 アダプティブ SoC なら、これらの機能のすべてを 1 チップで処理します。

AMD Versal 製品を使用することで、お客様はビジネスのあらゆる側面に AI を導入し、AI によって既存の消費者環境および産業環境をよりスマートで有効なものにできます。

AMD Versal™ アダプティブ SoC の詳細をご覧ください。

AI のメリットは広く浸透しており、現代のコンピューティング ファブリックの一部となりつつあります。ビジネスがそのメリットを享受するには、AMD が提供する製品のような革新的なテクノロジを採用し、適応する必要があります。

AMD 製品および拡大する AI エコシステム向けのサポートについて詳しくお知りになりたい場合は、最寄りの担当者にお問い合わせいただくか、AMD の AI ソリューションをご覧ください。

AMD アリーナ


AMD Ryzen™ PRO、AMD EPYC™、AMD Instinct™ などに関するトレーニングで、AMD 製品の知識を深めることができます。

脚注
  1. 出典: Mercury Research 『Sell-in Revenue Shipment Estimates』 (2023 Q4)
  2. SP5-013D: SPECrate®2017_int_base の比較は、www.spec.org に掲載された 2023 年 6 月 2 日時点のスコアに基づいています。公開されている 2P AMD EPYC 9654 (1800 SPECrate®2017_int_base、合計 720 TDP W、合計 $23,610 1Ku、合計 192 コア、ワットあたりのパフォーマンス 2.500、CPU コスト パフォーマンス 0.076、http://spec.org/cpu2017/results/res2023q2/cpu2017-20230424-36017.html) は、公開されている 2P Intel Xeon Platinum 8490H (1000 SPECrate®2017_int_base、合計 700 TDP W、合計 $34,000 1Ku、合計 120 コア、ワット パフォーマンス 1.429、CPU コスト パフォーマンス 0.029、http://spec.org/cpu2017/results/res2023q1/cpu2017-20230310-34562.html) と比較すると 1.80 倍のパフォーマンスです [1.75 倍のワット パフォーマンス] [2.59 倍の CPU コスト パフォーマンス]。参考として、公開されている 2P AMD EPYC 7763 (861 SPECrate®2017_int_base、合計 560 TDP W、合計 $15,780 1Ku、合計 128 コア、ワット パフォーマンス 1.538、CPU コスト パフォーマンス 0.055、http://spec.org/cpu2017/results/res2021q4/cpu2017-20211121-30148.html) は 0.86 倍のパフォーマンスです [1.08 倍のワット パフォーマンス] [1.86 倍の CPU コスト パフォーマンス]。2023 年 6 月 1 日時点の AMD の 1Ku 価格とインテルの ARK.intel.com に掲載されている仕様と価格に基づいています。SPEC®、SPEC CPU®、および SPECrate® は、Standard Performance Evaluation Corporation の登録商標です。詳細については、www.spec.org をご覧ください。
  3. MI300-38A: vLLM を使用する Llama2-70b チャット モデルによるテキスト生成の全体的なレイテンシを、各システムでカスタム Docker コンテナーを使用して、2023 年 12 月 14 日の AMD 社内テストに基づき比較しました。シーケンスの長さは、入力トークンが 2048、出力トークンが 128 です。vLLM テストでは、https://github.com/vllm-project/vllm のベンチマーク ディレクトリにある benchmarks_latency.py スクリプトの拡張版を使用しました。  特定の長さの入力プロンプトを使用できるように拡張機能が追加されました。MI300X で使用された vLLM バージョンには、AMD 社外ではまだ一般的に利用できない修正が含まれています。構成: 2P Intel Xeon Platinum 8480C CPU サーバー + 8x AMD Instinct™ MI300X (192 GB、750 W) GPU、ROCm® 6.1.0 プレリリース、PyTorch 2.2.0、vLLM for ROCm、Ubuntu® 22.04.2。比較対象: NVIDIA DGX H100 + 2x Intel Xeon Platinum 8480CL プロセッサ + 8x NVIDIA H100 (80 GB、700 W) GPU、CUDA 12.1、PyTorch 2.1.0、vLLM v.02.2.2 (最新)、Ubuntu 22.04。サーバー メーカーの構成によって、異なる結果が生じる場合があります。最新ドライバーと最適化の有無によって、パフォーマンスが異なる可能性があります。
  4. MI300-33: 2023 年 11 月 17 日の AMD 社内テストに基づき、入力シーケンス長 4096 の Llama2-70b チャットを使用してテキストを生成し、各システムでカスタム Docker コンテナーを使用して 32 出力トークンを比較しました。構成: 2P Intel Xeon Platinum CPU サーバー + 4x AMD Instinct™ MI300X (192 GB、750 W) GPU、ROCm® 6.0 プレリリース、PyTorch 2.2.0、vLLM for ROCm、Ubuntu® 22.04.2。比較対象は、2P AMD EPYC 7763 CPU サーバー + 4x AMD Instinct™ MI250 (128 GB HBM2e、560 W) GPU、ROCm® 5.4.3、PyTorch 2.0.0、HuggingFace Transformers 4.35.0、Ubuntu 22.04.6。このテストでは各システムに GPU が 4 個使用されていました。サーバー メーカーの構成によって、異なる結果が生じる場合があります。最新ドライバーと最適化の有無によって、パフォーマンスが異なる可能性があります。
  5. 2023 年 9 月時点の x86 プラットフォームにおける AMD プロセッサの小型ノード サイズに基づいています。GD-203。
  6. 2024 年 1 月現在、AMD は、デスクトップ PC 用プロセッサで動作する初の専用 AI エンジンを提供しています。"専用 AI エンジン" とは、AI 推論モデルの処理以外の機能を持たない AI エンジンを指し、x86 プロセッサ ダイの一部です。詳細については、https://www.amd.com/ja/products/processors/consumer/ryzen-ai.html をご覧ください。 PXD-03