AMD Ryzen AI Software banner

Présentation

Le software AMD Ryzen™ AI inclut les outils et bibliothèques d'exécution pour l'optimisation et le déploiement de l'inférence d'IA sur les PC avec AMD Ryzen AI1. Le software Ryzen AI permet aux applications de fonctionner sur l'unité de traitement neuronal (NPU) intégrée dans l'architecture AMD XDNA™, la première puce de silicium dédiée au traitement de l'intelligence artificielle sur un processeur Windows x862, et prend en charge une unité de traitement graphique intégrée (iGPU).

Zoom sur l'image
Ryzen developer flow diagram

Flux de développement

Le développement d'applications d'IA pour Ryzen AI peut être résumé en 3 étapes simples :

Premiers pas avec un modèle pré-entraîné
Utilisez un modèle pré-entraîné dans PyTorch ou TensorFlow comme point de départ. Convertissez ensuite votre modèle au format ONNX, compatible avec le workflow Ryzen AI.

Quantification
Quantifiez votre modèle en remplaçant ses paramètres de représentations en virgule flottante par des représentations de précision inférieure, comme les entiers 16 bits ou 8 bits. Le Vitis™ AI Quantizer pour ONNX offre une solution facile à utiliser pour la quantification après entraînement (PTQ) à cette fin.

Déploiement du modèle
Après la quantification, votre modèle est prêt à être déployé sur le hardware. Utilisez ONNX Runtime avec les API C++ ou Python pour déployer le modèle d'IA. Le fournisseur d'exécution Vitis AI inclus dans ONNX Runtime optimise les charges de travail, garantissant des performances optimales et une consommation d'énergie réduite.

Commencer à utiliser le software Ryzen AI

Démarrer

Vidéos Ryzen AI

Découvrez des tutoriels vidéo qui expliquent comment les PC Ryzen AI série 300 utilisent à la fois des NPU et des GPU intégrés pour accélérer les charges de travail de modèles linguistiques volumineux.

Nouveautés 

Points forts de la version 1.7

  • Nouvelles architectures : premières versions des MoE (mélanges d'experts) GPT-OSS et VLM (Gemma-3 4B)
  • Stable Diffusion intégré au programme d'installation principal de Ryzen AI pour un environnement unifié
  • Les LLM prennent désormais en charge des longueurs de contexte jusqu'à 16K sur la NPU
  • Le pipeline BF16 offre une latence environ 2 fois inférieure à celle de RAI 1.6

Points forts de la version 1.6

  • Performances améliorées et temps de compilation réduit pour le compilateur BF16
  • Nouveau compilateur d'entiers avec prise en charge de la quantification asymétrique générale (A8W8, A16W8)
  • Ensemble étendu de modèles NPU uniquement avec des performances optimisées (plus de jetons/s sur KRK et GPT)
  • La longueur du contexte a augmenté jusqu'à 4K pour tous les LLM
  • Ajout de la prise en charge des nouvelles architectures LLM : Phi-4 et Qwen-3
  • Prise en charge de la résolution dynamique pour SD 3.0/3.5, avec des gains de performances sur d'autres modèles SD, y compris de nouveaux ajouts (SD2.1-v 768×768 text2image, base SDXL 1024×1024 text2image)

Points forts de la version 1.5

  • Nouvelles fonctionnalités
    • Générez des images à l'aide de pipelines de diffusion stable (SD 1.5, 2.1, SDXL et 3.0).
    • Intégrez des fonctionnalités de transcription audio avec la prise en charge des modèles basés sur Zipformer et Whisper.
    • Optimisez la réactivité du système grâce à la préemption, qui alloue dynamiquement les ressources de traitement aux tâches prioritaires.

Points forts de la version 1.4

  • Nouvelles fonctionnalités
    • Unified Installer avec LLM et General Model Flow (INT8, BF16) : une expérience fluide compatible avec tous les types de modèles dans un package unique.
    • Première version compatible avec Windows pour la compilation et la quantification de modèles BF16 pour les charges de travail CNN et NLP.
    • Compatibilité avec le flux LLM OGA, ce qui facilite le déploiement efficace des LLM.
  • Nouveaux modèles LLM pris en charge
    • Série DeepSeek-R1 Distill : Llama-8B, Qwen-1.5B, Qwen-7B 
    • Série Qwen2 : Qwen2-1.5B, Qwen2-7B 
    • Gemma2-2B 
    • AMD-OLMO-1B-SFT-DPO  
    • Codellama-7B, Mistral-7B, etc.

Points forts de la version 1.3

  • Nouvelles fonctionnalités 
    • Prise en charge anticipée du quantificateur unifié AMD « Quark »
    • Prise en charge des types de données de précision mixtes et des applications CoPilot+
    • Mise à jour de l'outil de profilage CNN 
  • Prise en charge de nouveaux modèles pour le flux ONNX-GenAI (OGA) 
    • Llama2-7B-Chat / Meta-Llama-3.1-8B
    • Phi-3-Mini-4K-Instruct / Phi-3.5-Mini-Instruct
    • Mistral-7B-Instruct-v0.3

Points forts de la version 1.2

  • Nouvelle prise en charge architecturale 
    • Prise en charge de Strix (STX) : NPU AMD Ryzen™ AI 9 HX370 et Ryzen AI 9 365. 
    • Prise en charge unifiée du processeur graphique intégré (iGPU) et de la NPU via le software Ryzen AI
  • Nouveaux outils, modèles et fonctionnalités en accès anticipé 
    • Nouvel outil d'analyse, de profilage et de visualisation de modèles pour les modèles en cours d'exécution sur la NPU (AI Analyzer)
    • Nouvel outil d'inspection et de gestion de plateforme/NPU (xrt-smi)
    • Prise en charge de flux LLM dans les flux PyTorch et ONNX

Points forts de la version 1.1

  • Prise en charge de nouveaux modèles :
    • Lama 2 7B avec quantification w4abf16 (3 bits et 4 bits) (Beta)
    • Base Whisper (accès anticipé)
  • Nouveaux outils et fonctionnalités EoU :
    • Outil de benchmarking CNN sur RyzenAI-SW Rep
    • Outil d'inspection et de gestion de plateforme/NPU

Points forts de la version 1.0

  • Prise en charge des modèles
    • Plus de 1 000 modèles CNN validés
    • OPT-1.3B sur NPU avec flux PyTorch et ONNX
  • Outils et fonctionnalités EoU
    • Prise en charge d'ONNX PTQ (Post Training Quantization), PyTorch PTQ et QAT (Quantization Aware Training)
    • Prise en charge du fournisseur d'exécution Vitis AI d'ONNX Runtime avec les API C++ et Python
    • Planification automatique d'un maximum de 8 sessions d'inférence simultanées sur la NPU

Projets Open Source

Découvrez les outils open source d'AMD qui permettent aux développeurs d'analyser, d'optimiser et de déployer efficacement des modèles d'IA sur divers hardware.

Digest AI

Digest est un outil d'analyse de modèle puissant conçu pour vous aider à extraire des informations précieuses de vos modèles de machine learning, permettant ainsi l'optimisation et la modification directe. 

GAIA

GAIA est une application d'IA générative qui inclut un pipeline RAG multi-agent exécutant des LLM privés et locaux sur des CPU, des GPU et des NPU.

TurnkeyML et Lemonade

TurnkeyML simplifie l'utilisation des outils au sein de l'écosystème ONNX en offrant des interfaces CLI sans code et des API à faible code. Avec Turnkey, vous pouvez exporter et optimiser les modèles ONNX pour les CNN et les transformateurs. Avec Lemonade, vous pouvez distribuer et évaluer les LLM sur le CPU, le GPU et le NPU.

S'abonner aux actualités de Ryzen AI

Tenez-vous au courant des sorties de produits, des actualités et des derniers conseils en date.

Notes de bas de page
  1. La technologie Ryzen™ AI est compatible avec tous les processeurs AMD Ryzen™ Série 7040, à l'exception des modèles Ryzen™ 5 7540U et Ryzen™ 3 7440U. Une activation OEM est requise. Vérifiez la disponibilité auprès du fabricant de votre système avant l'achat. GD-220.
  2. Depuis mai 2023, AMD possède le premier moteur d'IA dédié disponible sur un processeur Windows x86, où « moteur d'IA dédié » est défini comme un moteur d'IA qui n'a aucune fonction autre que le traitement des modèles d'inférence d'IA et qui fait partie du die du processeur x86. Pour plus d'informations, rendez-vous à l'adresse : https://www.amd.com/fr/technologies/xdna.html. PHX-3a
  3. D'après les tests réalisés par AMD le 05/06/2023. Les résultats relatifs à l'autonomie de la batterie ont été évalués par la simulation d'une conférence vidéo via Microsoft Teams réunissant neuf participants avec un processeur Ryzen™ 7940HS équipé de Ryzen™ AI et de cœurs graphiques Radeon intégrés avec Windows Studio Effects, par rapport à NVIDIA Broadcast pour les fonctionnalités de flou d'arrière-plan et de correction du regard améliorées par l'IA avec des cœurs graphiques dédiés NVIDIA GeForce RTX 4070. Les systèmes AMD/NVIDIA fonctionnent à partir d'un niveau de puissance de 100 % > 5 % à une luminosité de 150 nits et un mode de puissance défini sur « efficacité énergétique ». Configurations du système : PC portable Razer Blade 14 pouces, processeur AMD Ryzen™ 9 7940HS avec Ryzen™ AI, cœurs graphiques AMD Radeon intégrés (pilote 22.40.03.24), 16 Go (2 x 8 Go) de mémoire LPDDR5, stockage SSD NVME, Windows 11 Famille 22H, cœurs graphiques NVIDIA GeForce RTX 4070 (pilote 528.92) avec NVIDIA Broadcast.   Les résultats peuvent varier en fonction des configurations créées par les fabricants de systèmes. Les résultats peuvent varier. PHX-51