AMD Ryzen AI Software banner

概要

AMD Ryzen™ AI ソフトウェアには、AMD Ryzen AI 搭載の PC で AI 推論を最適化して運用するためのツールとランタイム ライブラリが含まれています。1Ryzen AI ソフトウェアを使用することで、AMD XDNA™ アーキテクチャに組み込まれた NPU (neural processing unit) でアプリケーションを実行できます。この NPU は、Windows x86 プロセッサに搭載された初めての専用 AI 処理用シリコンであり2、iGPU (integrated GPU) にも対応しています。

画像を拡大
Ryzen developer flow diagram

開発フロー

Ryzen AI 向け AI アプリケーションの開発は、次の 3 つのステップで簡単に説明できます。

学習済みモデルを使用して開始
まず、PyTorch や TensorFlow で事前に学習させたモデルを使用して開発を始めます。その後、モデルを Ryzen AI ワークフローと互換性のある ONNX 形式に変換します。

量子化
モデルのパラメーターを浮動小数点から低精度 (16 ビットまたは 8 ビット整数など) に変換してモデルを量子化します。このために、ONNX 用の Vitis™ AI Quantizer が使いやすい PTQ (Post Training Quantization) フローを提供しています。

モデルのデプロイ
量子化の後、モデルはハードウェアにデプロイする準備が整います。ONNX Runtime と C++ または Python API を利用して AI モデルをデプロイします。ONNX ランタイムに含まれる Vitis AI Execution Provider によって、ワークロードが最適化され、最適なパフォーマンスと低消費電力が達成されます。

Ryzen AI ソフトウェアを使用開始

開発を開始

Ryzen AI ビデオ

Ryzen AI 300 シリーズ PC が NPU と統合 GPU の両方を使用して大規模な言語モデルのワークロードを高速化する方法に焦点を当てたビデオ チュートリアルをご覧ください。

最新情報 

1.7 リリースのハイライト

  • 新しいアーキテクチャ: Mixture of Experts (MoE) GPT‑OSS および VLM (Gemma‑3 4B) の初回リリース
  • Stable Diffusion をメインの Ryzen AI インストーラーに統合し、統一環境を実現
  • NPU 上での LLM による最大 16K コンテキスト長サポート
  • RAI 1.6 比で約 2 倍の低レイテンシを実現する BF16 パイプライン

1.6 リリースのハイライト

  • パフォーマンスの向上と BF16 コンパイラのコンパイル時間の短縮
  • 一般的な非対称量子化をサポートする新しい整数コンパイラ (A8W8、A16W8)
  • 最適化されたパフォーマンスを備えた、NPU だけで動作するモデルの拡張セット (KRK および GPT でのトークン数/秒が増加)
  • コンテキストの長さがすべての LLM で最大 4K まで増加
  • 新しい LLM アーキテクチャのサポートの追加: Phi-4 および Qwen-3
  • SD 3.0/3.5 の動的解像度をサポートし、新たに追加された SD2.1-v 768×768 text2image、SDXL-base 1024×1024 text2image を含め、ほかの SD モデル全体でもパフォーマンスが向上

1.5 リリースのハイライト

  • 新機能
    • Stable Diffusion パイプライン (SD 1.5、2.1、SDXL、3.0) を使用した画像生成
    • 音声読み上げ機能を Zipformer および Whisper ベース モデルのサポートと統合
    • 優先順位の高いタスクにコンピューティング リソースを動的に割り当てるプリエンプションにより、システムの応答性を最適化

1.4 リリースのハイライト

  • 新機能
    • LLM と汎用モデル フロー (INT8、BF16) の両方を備えた統合インストーラー。単一のリリース パッケージですべてのモデル タイプをサポートし、シームレスなエクスペリエンスを提供
    • BF16 モデルのコンパイルと CNN および NLP ワークロードの量子化のための、Windows サポートの最初のリリース
    • LLM OGA フローのサポートにより、LLM の効率的な導入が簡素化
  • 新しい LLM モデルのサポート
    • DeepSeek-R1 Distill シリーズ: Llama-8B、Qwen-1.5B、Qwen-7B 
    • Qwen2 シリーズ: Qwen2-1.5B、Qwen2-7B 
    • Gemma2-2B 
    • AMD-OLMO-1B-SFT-DPO  
    • Codellama-7B、Mistral-7B、その他

1.3 リリースのハイライト

  • 新機能 
    • AMD の統合クオンタイザー "Quark" の早期サポート
    • 複合精度データ型と Copilot+ アプリケーションのサポート
    • CNN プロファイリング ツールを更新 
  • ONNX-GenAI (OGA) フローの新しいモデルのサポート 
    • Llama2-7B-Chat/Meta-Llama-3.1-8B
    • Phi-3-Mini-4K-Instruct/Phi-3.5-Mini-Instruct
    • Mistral-7B-Instruct-v0.3

1.2 リリースのハイライト

  • 新しいアーキテクチャのサポート 
    • Strix (STX) のサポート: AMD Ryzen™ AI 9 HX370、Ryzen AI 9 365 NPU 
    • Ryzen AI ソフトウェアを使用して、iGPU (integrated GPU) と NPU の両方に対応
  • 新しいアーリー アクセスのツール、モデル、機能 
    • NPU で実行されるモデルの分析、プロファイリング、可視化ツール (AI Analyzer)
    • 新しいプラットフォーム/NPU の検査および管理ツール (xrt-smi)
    • PyTorch および ONNX フローで複数の LLM フローをサポート

1.1 リリースのハイライト

  • 新しいモデルのサポート:
    • Llama 2 7B with w4abf16 (3 ビットおよび 4 ビット) 量子化 (ベータ)
    • Whisper base (アーリー アクセス)
  • 新しい EoU ツールと機能:
    • RyzenAI-SW Rep における CNN ベンチマーク ツール
    • プラットフォーム/NPU の検査および管理ツール

1.0 リリースのハイライト

  • サポートされるモデル
    • 1,000 以上の検証済み CNN モデル
    • PyTorch および ONNX フローを使用した NPU での OPT-1.3B
  • EoU ツールと機能
    • ONNX PTQ (Post Training Quantization)、PyTorch PTQ、QAT (Quantization Aware Training) をサポート
    • C++ および Python API を使用した ONNX Runtime Vitis AI Execution Provider をサポート
    • NPU 上で最大 8 つの同時推論セッションの自動スケジューリング

オープンソース プロジェクト

開発者がさまざまなハードウェアで AI モデルを効率的に分析、最適化、展開するのに役立つ AMD のオープンソース ツールをご覧ください。

Digest AI

Digest は強力なモデル分析ツールです。機械学習モデルから貴重なインサイトを抽出し、最適化と直接の変更が可能になります。 

GAIA

GAIA は生成 AI アプリケーションであり、CPU、GPU、NPU ハードウェア上でプライベートおよびローカル LLM を実行するマルチエージェント RAG パイプラインの能力を実証します。

TurnkeyML および Lemonade

TurnkeyML は、ノーコード CLI とローコード API を提供することで、ONNX エコシステム内でのツールの使用を簡素化します。Turnkey を使用すると、CNN および Transformer 用の ONNX モデルをエクスポートおよび最適化できます。Lemonade を使用すると、CPU、GPU、および NPU で LLM を処理およびベンチマークできます。

Ryzen AI 最新情報の配信登録

最新の製品リリース、ニュース、ヒントなどをお届けします。

脚注
  1. Ryzen™ AI テクノロジは、すべての AMD Ryzen™ 7040 シリーズ プロセッサ (ただし、Ryzen™ 5 7540U と Ryzen™ 3 7440U を除く) と互換性があります。OEM による有効化が必要です。ご購入前に、機能が利用できるかどうかシステム メーカーにお問い合わせください。GD-220。
  2. 2023 年 5 月時点で、AMD は、x86 Windows プロセッサで動作する初の専用 AI エンジンを実現しています。ここで "専用 AI エンジン" とは、AI 推論モデルの処理以外の機能を持たない AI エンジンを指し、x86 プロセッサ ダイの一部です。詳細については、https://www.amd.com/ja/technologies/xdna.html をご覧ください。PHX-3a
  3. 2023 年 6 月 5 日に AMD が実施したテストに基づいています。バッテリ ライフは、9 人の参加者による Microsoft Teams ビデオ会議のシミュレーションにおいて、Ryzen™ AI 搭載の Ryzen™ 7940HS プロセッサおよび Windows Studio Effects 搭載の内蔵 Radeon グラフィックスで使用した場合と、NVIDIA GeForce RTX 4070 ディスクリート グラフィックスで AI を活用した背景のぼかしと視線補正の機能を NVIDIA Broadcast で使用した場合を比較して評価した結果です。AMD/NVIDIA のシステムは、電力レベル 100% ~ 5% 未満 @ 150 ニットの明るさで実行し、電力モードを「電力効率」に設定しています。システム構成: Ryzen™ AI 搭載 AMD Ryzen™ 9 7940HS プロセッサ、統合 AMD Radeon グラフィックス (22.40.03.24 ドライバー)、16 GB (8 GB x 2) LPDDR5、NVME SSD ストレージを搭載し、Windows 11 Home 22H、NVIDIA GeForce RTX 4070 グラフィックス (528.92 ドライバー)、NVIDIA Broadcast が動作する Razer Blade 14" ノート PC。   システム メーカーの構成によって、異なる結果が生じる場合があります。実際の結果と異なる場合があります。PHX-51