エンドポイントからクラウドまで: AMD はあらゆる領域に対応 

生成 AI が企業のお客様の業務のやり方を大きく変えつつあります。AI は、カスタマー サービスからデータ分析に至るまで、ほぼすべてのビジネス プロセスの一部となりつつあり、その統合は今後さらに飛躍的に拡大していくと予想されています。こうした状況の中では、企業にとって AI による変革が不可欠であり、AI の導入は企業に新たな時代をもたらしています。それは、ワークロードやプロセスを再定義し、既存インフラに新しい要件を加えることを意味し、その結果、多くの場合、現在のハードウェア コンフィギュレーションに負荷を与えることになります。 

生産性向上を伴うシームレスな AI エクスペリエンスを即座に、そして長期的に実現することを望むのであれば、IT インフラストラクチャを進化させるための支援が必要です。そこで AMD のテクノロジが役立ちます。AMD のテクノロジは、AI によってもたらされる新たな可能性と同時に、既存のワークフローを運用するためのパフォーマンスと効率性を企業に提供します。 

AMD EPYC™ プロセッサで AI と仮想化の世界を切り拓く

AMD EPYC™ プロセッサは、世界のサーバーのおよそ 3 分の 1 を支えており、その信頼には確かな理由があります。1 大企業のお客様に世界最高クラスのデータセンター向け CPU を提供する第 5 世代 AMD EPYC プロセッサは、最大 192 コアを搭載し、業界をリードする AI テクノロジを実現することで、最も要求の厳しいエンタープライズ アプリケーションを力強く支えます。2

AMD の高性能 CPU は、レコメンデーション システム、機械学習ソリューション、生成 AI のその他のユース ケースなど、AI ワークロードを展開する企業にとって有力なオプションとなります。 

実績のある標準インフラストラクチャを活用し、強力な AMD EPYC プロセッサへアップグレードすることで、サーバー フットプリント、消費電力、初期費用を低く抑えられます。さらに、サーバーの性能と密度を高めることで ROI を向上させ、AI に必要な処理能力をより現実的な形で確保できます。

AMD EPYC プロセッサは、AI ワークロードに対応するだけでなく、仮想化ニーズの面でも、物理的なサーバー フットプリントの統合や削減に貢献します。あるケースではハードウェア コストを最大 33%3 削減し、また別のケースではライセンス コストを最大 42%4 削減しています。さらに、高性能と高いコア密度を提供することで、増大する仮想マシン (VM) のコア単位ライセンス コストを抑えることができます。複数の旧式コアで少数の VM を稼働させるのではなく、最新の AMD EPYC CPU の単一コアで多数の VM を問題なく稼働できます。

DBS 銀行Emirates NBD などのお客様は、既に AMD サーバー プロセッサの利点を活用しています。 

AMD EPYC™ プロセッサの詳細をご覧ください。

AMD Instinct™ アクセラレータで AI を高速化

大規模な AI ワークロードやユース ケースでは、AMD EPYC™ CPU 単体の能力を超えるものが求められる場合があります。大規模言語モデルは数千億、さらには数兆のパラメーターへと拡大し続けています。

AMD は、最も要求の厳しい AI タスクにも対応できる幅広いワークロード エンジンを提供しています。AMD EPYC プロセッサによる効果的な AI ワークロード管理をさらに拡張し、AMD Instinct™ アクセラレータによって新たなレベルの GPU アクセラレーションが可能になります。AMD サーバー向け CPU は、小規模から中規模のモデルや複合ワークロードの推論展開を処理する際に、高い効率を発揮します。一方、AMD アクセラレータは、大規模かつリアルタイムの AI トレーニング、専用の導入環境、大規模なリアルタイム推論専用に設計されており、エンタープライズにおける AI の成果を加速します。

AMD は、さまざまなパフォーマンス レベルとフォーム ファクターに対応する GPU ソリューションを提供しており、その中心となるのが AMD ROCm™ ソフトウェア スタックを基盤とする AMD Instinct™ MI350X および MI355X アクセラレータです。AMD ROCm™ 6 ソフトウェアにより AI 推論演算性能が約 330% 向上し、AMD アクセラレータは大規模企業における AI ワークロードの活用方法を変革する力を備えています。5

AMD Instinct™ アクセラレータは既に、世界で最も要求の厳しい AI プラットフォームの一部を支えており、その一例が Meta の Llama 3.1 405B モデルです。ローンチ時にはライブ トラフィックすべてが AMD GPU 上で稼働しました。6

大規模企業対応のオープンソース ソフトウェアである AMD ROCm™ が AMD アクセラレーションを支えており、企業は AI ワークロードを迅速に立ち上げることができます。AMD ROCm は約 200 万の Hugging Face モデルをサポートし、PyTorch や OpenAI などの AI リーダーとの緊密な連携も実現しています。

AMD Instinct™ アクセラレータの詳細をご覧ください。

AMD Ryzen™ プロセッサでローカル マシンに AI を導入

AI はもはや、データセンターだけのものではありません。エンドユーザー デバイスでも稼働し、人々の働き方を進化させ、従来のプロセスを向上させることで、作業をより迅速かつ容易にします。これにより、チームはより大局的な見方に集中できるようになります。

台湾の Advanced Semiconductor Engineering Inc. (ASE) は、半導体パッケージのテストと組立で世界をリードする企業であり、AI パフォーマンスと効率性を評価して AMD Ryzen™ CPU を採用しました。同社の最近のアップグレードにより、最も負荷の高いワークロードでデータ変換とグラフィックス レンダリングの処理速度が向上し、クライアント PC の生産性も最大で 30% 向上しました。

AMD Ryzen™ PRO プロセッサは、世界で最も先進的なビジネス デスクトップ用の超省電力プロセッサ7 であり、x86 プロセッサとして初めて統合 AI エンジンを搭載しました。8 サーバーからクライアント デバイスに至るまで、このレベルの AI を実現することで、従来は不可能だった驚異的な能力を発揮します。

AMD Ryzen™ PRO プロセッサの詳細をご覧ください。

AMD Versal™ アダプティブ SoC でエッジ AI の全体像が完成

今や AI は、PC やサーバーだけのものではありません。エッジ デバイスに搭載されたローカル AI 処理によってパフォーマンスと安全性に大きな影響を受けるアプリケーションが数多くあります。 

オートモーティブでは、エッジでの AI によって安全性を高めることができます。つまり、センサー データをローカルで処理して、リアルタイムで意思決定できるようになります。事故を回避するために自律走行車がブレーキをかけるべきかどうかを判断する際、クラウドでデータが処理されるのを待たなければならないようでは困ります。 

ヘルスケアの分野では、エッジでの AI が画像診断機器を強化し、診断を迅速化したり、手術を支援するためのリアルタイムの視覚化を提供したりできます。また、データをクラウド経由で送信する必要がないため、患者のプライバシー保護にも役立ちます。 

産業分野では、エッジでの AI により、工場の設備をより安全かつ効率的に稼働させることができます。AMD の FPGA およびアダプティブ SoC は、AI 駆動型および従来型のエンベデッド システムにおけるデータの前処理、推論、後処理を効率的に管理します。最新製品の AMD Versal™ AI エッジ シリーズ Gen 2 アダプティブ SoC は、これらすべての機能をシングル チップで処理します。

AMD Versal 製品を使用することで、お客様はビジネスのあらゆる側面に AI を導入し、AI によって既存の消費者環境および産業環境をよりスマートで有効なものにできます。

AMD Versal™ アダプティブ SoC の詳細をご覧ください。

AI のメリットは広く浸透しており、現代のコンピューティング ファブリックの一部となりつつあります。ビジネスがそのメリットを享受するには、AMD が提供する製品のような革新的なテクノロジを採用し、適応する必要があります。

クラウド、オンプレミス、エッジのどれでワークロードを最適化する場合でも、AMD の包括的な AI ポートフォリオは、オープン スタンダード、エコシステム パートナーシップ、そして長期的なイノベーションを見据えたロードマップに支えられた、最適なソリューションを提供します。AMD 製品および拡大する AI エコシステム向けのサポートについて詳しくお知りになりたい場合は、最寄りの担当者にお問い合わせいただくか、AMD AI ソリューションをご覧ください

AMD アリーナ


AMD Ryzen™ PRO、AMD EPYC™、AMD Instinct™ などに関するトレーニングで、AMD 製品の知識を深めることができます。

脚注
  1. EPYC-055: Mercury Research 『Sell-In Revenue Shipment Estimates』 (2025 Q1)収益シェア 39.4%、出荷台数シェア 27.2%
  2. EPYC-029D: 比較は、2024 年 10 月 10 日時点で現在出荷されているサーバーのスレッド密度、パフォーマンス、機能、プロセス テクノロジ、および統合されたセキュリティ機能に基づいています。EPYC 9005 シリーズ CPU は、最高のスレッド密度を提供し、パフォーマンス世界記録、エンタープライズ リーダーシップ Java® オペレーション/秒パフォーマンスなど 500 以上のパフォーマンス世界記録で業界をリード、浮動小数点スループット性能でトップの HPC リーダーシップ、TPCx-AI 性能で AI のエンドツーエンドの性能、最高の電力効率スコアを達成しています。第 5 世代 Xeon と比較すると、第 5 世代 EPYC シリーズでは、DDR5 メモリ チャネル数が増加、メモリ帯域幅が拡大、I/O スループット用の PCIe® Gen5 レーン数のサポートが増加し、最大 5 倍の L3 キャッシュ/コアにより、データ アクセスが高速化されています。EPYC 9005 シリーズは、先進の 3-4 nm テクノロジを採用、Secure Memory Encryption + Secure Encrypted Virtualization (SEV) + SEV Encrypted State + SEV-Secure Nested Paging のセキュリティ機能を提供します。その他の詳細については、https://www.amd.com/ja/legal/claims/epyc.html#q=#029D をご覧ください。
  3. SP5TCO-073A: 2024 年 6 月 18 日現在、このシナリオには多くの仮定と推定が含まれており、AMD の内部調査と最良近似に基づいています。このシナリオ中に示される数値は、情報提供のみを目的とした例であり、実際のテストに対する意思決定の基礎としては使用しないでください。サーバー更新 & 温室効果ガス排出量総所有コスト (TCO) 評価ツールでは、Intel Xeon と AMD EPYC CPU ベースのサーバーの公開スコア (または、アスタリスクが付いている場合は推定値) に基づき、約 9020 ユニットの VMmark3 マッチ ペア性能の TOTAL_PERFORMANCE を実現するために必要な特定の AMD EPYC™ CPU ベース サーバー ソリューションと Intel® Xeon® CPU ベース サーバー ソリューションを比較しています。この推定値には 5 年間の時間経過が反映されています。この分析では、2P 構成の 48 コア AMD EPYC_9474F 搭載サーバーで記録された VMmark 3.1 スコア 26.95 @ 26 タイル (https://www.vmware.com/docs/2024-05-14-supermicro-as-2125hs-tnr) と、2P 構成の 64 コア Intel Xeon Platinum_8592+ 搭載サーバーで記録された VMmark 3.1 スコア 27.52 @ 28 タイル (https://www.vmware.com/docs/2024-04-16-fujitsu-primergy-rx2540m7) を比較しています。結果に使用したもの: AMD EPYC™ サーバー更新 & 温室効果ガス排出量 TCO 評価ツール - バージョン 1.51 PRO。VMmark は、米国またはそのほかの国における VMware の登録商標です。その他の詳細については、https://www.amd.com/ja/legal/claims/epyc.html#q=%23SP5TCO-073A をご覧ください。
  4. https://www.amd.com/content/dam/amd/en/documents/epyc-business-docs/white-papers/modernize-data-center-virtualization-with-amd-epyc-processors.pdf
  5. MI350-044: 2025 年 6 月 9 日時点の AMD 社内テストに基づいています。Llama 3.1-405B チャット モデル (FP4) によるオンライン推論サービスのテキスト生成スループットを測定するために、GPU 8 基構成の AMD Instinct™ MI355X プラットフォームと、GPU 8 基構成の AMD Instinct™ MI300X プラットフォームの性能を FP8 精度で比較しました。テスト実施の条件として、入力長 32768 トークン、出力長 1024 トークンとしました。また、60 ミリ秒達成時に最大スループットを発揮できるようプラットフォームごとにコンカレンシーを設定し、MI300X プラットフォーム (35.3 ミリ秒) には 1 を、MI355X プラットフォーム (50.6 ミリ秒) には 64 を設定しました。サーバー メーカーの構成によって、異なる結果が生じる場合があります。最新ドライバーと最適化の有無によって、パフォーマンスが異なる可能性があります。MI350-044
  6. https://youtu.be/vJ8aEO6ggOs?t=3100
  7. GD-203: 2023 年 9 月時点の x86 プラットフォームにおける AMD プロセッサの小型ノード サイズに基づいています。
  8. PXD-03: 2024 年 1 月現在、AMD は、デスクトップ PC 用プロセッサで動作する初の専用 AI エンジンを提供しています。"専用 AI エンジン" とは、AI 推論モデルの処理以外の機能を持たない AI エンジンを指し、x86 プロセッサ ダイの一部です。詳細については、https://www.amd.com/ja/products/processors/consumer/ryzen-ai.html をご覧ください。