AMD Ryzen AI Software banner

Descripción general

AMD Ryzen™ AI incluye las herramientas y las bibliotecas de tiempo de ejecución para optimizar e implementar la inferencia de IA en las PC con tecnología AMD Ryzen AI1. El software de Ryzen AI permite que las aplicaciones se ejecuten en la unidad de procesamiento neuronal (NPU) integrada en la arquitectura AMD XDNA™, el primer chip de procesamiento de IA dedicado en un procesador Windows x862, y admite una GPU integrada (iGPU).

Zoom de imagen
Ryzen developer flow diagram

Flujo de desarrollo

El desarrollo de aplicaciones de IA para Ryzen AI se puede resumir en tres sencillos pasos:

Comienza con un modelo entrenado previamente
Utiliza un modelo entrenado previamente en PyTorch o TensorFlow como punto de partida. Luego, convierte tu modelo al formato ONNX, que es compatible con el flujo de trabajo de Ryzen AI.

Cuantificación
Cuantifica el modelo convirtiendo sus parámetros de punto flotante en representaciones de menor precisión, como enteros de 16 bits u 8 bits. El cuantificador Vitis™ AI para ONNX brinda un flujo fácil de usar de cuantificación posterior a la capacitación (PTQ) para este propósito.

Implementa el modelo
Después de la cuantificación, tu modelo está listo para ser implementado en el hardware. Utiliza ONNX Runtime con C++ o API de Python para implementar el modelo de IA. El proveedor de ejecución Vitis AI incluido en ONNX Runtime optimiza las cargas de trabajo, garantizando un rendimiento óptimo y un menor consumo energético.

Comenzar a usar el software de Ryzen AI

Comenzar

Lo nuevo 

Aspectos destacados de la versión 1.7

  • Nuevas arquitecturas: primeras versiones de GPT‑OSS de Mezcla de Expertos (MoE) y VLM (Gemma‑3 4B)
  • Stable Diffusion integrado en el instalador principal de Ryzen AI para un entorno unificado
  • Los LLM ahora admiten hasta 16 000 longitudes de contexto en la NPU
  • El flujo BF16 ofrece una latencia aproximadamente dos veces más baja en comparación con RAI 1.6

Aspectos destacados de la versión 1.6

  • Rendimiento mejorado y tiempo de compilación reducido para el compilador BF16
  • Nuevo compilador de números enteros con soporte para la cuantificación general asimétrica (A8W8, A16W8)
  • Conjunto ampliado de modelos solo NPU con rendimiento optimizado (tokens/seg más altos en KRK y GPT)
  • La longitud del contexto aumentó hasta 4K para todos los LLM
  • Se agregó soporte para nuevas arquitecturas LLM: Phi-4 y Qwen-3
  • Soporte de resolución dinámica para SD 3.0/3.5, con mejoras de rendimiento en otros modelos SD, incluidas nuevas adiciones (SD2.1-v 768 x 768 text2image, SDXL-base 1024 x 1024 text2image)

Aspectos destacados de la versión 1.5

  • Nuevas funciones
    • Genera imágenes utilizando canalizaciones de Stable Diffusion (SD 1.5, 2.1, SDXL y 3.0).
    • Integra capacidades de voz a texto con soporte para modelos Zipformer y Whisper-base.
    • Optimiza la capacidad de respuesta del sistema con Pre-emption, que asigna dinámicamente recursos de procesamiento a tareas de alta prioridad.

Aspectos destacados de la versión 1.4

  • Nuevas funciones
    • Instalador unificado con LLM y General Model Flow (INT8, BF16): una experiencia fluida con soporte para todos los tipos de modelos en un solo paquete de liberación.
    • Primera versión del soporte de Windows para la compilación y cuantificación del modelo BF16 para cargas de trabajo CNN y NLP.
    • Soporte para LLM OGA Flow, lo que facilita la implementación de LLM de manera eficiente.
  • Nuevo soporte para el modelo LLM
    • Serie de destilación DeepSeek-R1: Llama-8B, Qwen-1.5B, Qwen-7B 
    • Serie Qwen2: Qwen2-1.5B, Qwen2-7B 
    • Gemma2-2B 
    • AMD-OLMO-1B-SFT-DPO  
    • Codellama-7B, Mistral-7B y más

Aspectos destacados de la versión 1.3

  • Nuevas funciones 
    • Soporte temprano para el cuantificador unificado AMD llamado Quark
    • Soporte para tipos de datos de precisión mixta y aplicaciones Copilot+
    • Herramienta de perfiles CNN actualizada 
  • Nuevo modelo de soporte para el flujo ONNX-GenAI (OGA) 
    • Llama2-7B-Chat / Meta-Llama-3.1-8B
    • Phi-3-Mini-4K-Instruct / Phi-3.5-Mini-Instruct
    • Mistral-7B-Instruct-v0.3

Aspectos destacados de la versión 1.2

  • Nuevo soporte de arquitectura 
    • Soporte para Strix (STX): NPU AMD Ryzen™ AI 9 HX370 y Ryzen AI 9 365 
    • Soporte unificado para GPU integrada (iGPU) y NPU a través del software Ryzen AI
  • Herramientas, modelos y funciones nuevas de acceso temprano 
    • Herramienta nueva para el análisis, la generación de perfiles y la visualización de modelos para diseños que se ejecutan en la NPU (AI Analyzer)
    • Nueva plataforma/herramienta de inspección y gestión de NPU (xrt-smi)
    • Soporte de flujo de LLM para múltiples, tanto en flujo de PyTorch como de ONNX

Aspectos destacados de la versión 1.1

  • Nuevo modelo de soporte:
    • Llama 2 7B con cuantificación w4abf16 (3 bits y 4 bits) (Beta)
    • Base de Whisper (acceso temprano)
  • Nuevas herramientas y funciones de EoU:
    • herramienta de evaluación comparativa de CNN en Ryzen AI-SW Rep
    • Plataforma/herramienta de inspección y gestión de NPU

Aspectos destacados de la versión 1.0

  • Soporte de modelo
    • Más de 1000 modelos de CNN validados
    • OPT-1.3B en NPU utilizando flujo de PyTorch y ONNX
  • Herramientas y funciones de EoU:
    • Soporta la PTQ (Post Training Quantization, cuantificación posentrenamiento) de ONNX, la PTQ de PyTorch y QAT (Quantization Aware Training, entrenamiento consciente de cuantificación)
    • Soporta Vitis AI Execution Provider de ONNX Runtime, tanto con C++ como con API de Python
    • Programación automática de hasta ocho sesiones de inferencia simultáneas en NPU

Proyectos de código abierto

Explora las herramientas de código abierto de AMD que permiten a los desarrolladores analizar, optimizar e implementar modelos de IA de manera eficiente en diversos hardware.

Digest AI

Digest es una poderosa herramienta de análisis de modelos diseñada para ayudarte a extraer información valiosa de tus modelos de aprendizaje automático, lo que permite la optimización y modificación directa. 

GAIA

GAIA es una aplicación de IA generativa que demuestra una canalización RAG multiagente que ejecuta LLM privadas y locales en CPU, GPU y hardware NPU.

TurnkeyML y Lemonade

TurnkeyML simplifica el uso de herramientas dentro del ecosistema ONNX al ofrecer CLI sin código y API de código bajo. Con llave en mano, puedes exportar y optimizar los modelos ONNX para CNNs y Transformers. Con Lemonade, puedes servir y realizar una evaluación comparativa de LLM en CPU, GPU y NPU.

Registrarse para recibir las novedades de Ryzen AI

Mantente actualizado sobre los lanzamientos de productos, las novedades y los consejos más recientes.

Notas al pie
  1. La tecnología Ryzen™ AI es compatible con todos los procesadores AMD Ryzen™ Serie 7040, excepto Ryzen™ 5 7540U y Ryzen™ 3 7440U. Se requiere habilitación del OEM. Consulta la disponibilidad de funciones con el fabricante de tu sistema antes de realizar la compra. GD-220.
  2. Al mes de mayo del 2023, AMD tiene el primer motor de IA dedicado disponible en un procesador x86 Windows, en el que “motor de IA dedicado” se define como un motor de IA que no tiene ninguna otra función aparte de procesar modelos de inferencia de IA y es parte del chip del procesador x86. Para obtener información detallada, visita: https://www.amd.com/en/technologies/xdna.html. PHX-3a
  3. Basado en pruebas realizadas por AMD al 5/6/2023. Los resultados de la duración de la batería se evaluaron mediante la realización de una videoconferencia de nueve participantes en Microsoft Teams utilizando un procesador Ryzen™ 7940HS con Ryzen™ AI y una tarjeta gráfica integrada Radeon con efectos de Windows Studio en comparación con NVIDIA Broadcast para las funciones de corrección de la mirada y desenfoque de fondo mejoradas con IA con una tarjeta gráfica independiente NVIDIA GeForce RTX 4070. Los sistemas AMD/NVIDIA funcionan con un nivel de potencia del 100 % a >5 % a 150 nits de brillo y el modo de energía establecido en “ahorro de energía”. Configuración del sistema: Laptop Razer Blade de 14", procesador AMD Ryzen™ 9 7940HS con Ryzen™ AI, tarjeta gráfica AMD Radeon integrada (controlador 22.40.03.24), 16 GB de memoria LPDDR5 (dos de 8 GB), almacenamiento SSD NVMe, Windows 11 Home 22H, tarjeta gráfica NVIDIA GeForce RTX 4070 (controlador 528.92) con NVIDIA Broadcast.   Los fabricantes de sistemas pueden variar las configuraciones, lo que arroja resultados diferentes. Los resultados pueden variar. PHX-51