AMD Ryzen AI 软件 1.7

Jan 27, 2026

Ryzen AI 软件 1.7 引入了多项更新,旨在提高模型覆盖范围、降低本地开发工作流程的复杂度,并让 AMD 应用处理单元 (NPU + iGPU) 实现更稳定的性能。该版本增加了对新架构的支持,扩展了 LLM 的上下文长度,将 Stable Diffusion 集成到统一的 Ryzen AI 安装程序中,并降低了 BF16 推理延迟。

新架构:GPT‑OSS (MoE) 和 Gemma‑3 4B VLM

Ryzen AI 软件 1.7 增加了对混合专家 (Moe) GPTOSS 模型和 Gemma3 4B 视觉语言模型 (VLM) 的支持,为开发者提供更多 NPU 可执行架构选择。

  • MoE 效率:MoE 模型将 token 分配至不同专家网络进行处理,使开发者能够运行更高性能的模型,而无需承担密集架构的全部计算成本。这可以转化为更高的吞吐量和更快速的本地 LLM 流水线。
  • VLM 能力:加入 VLM 后,可支持多模态任务,例如基于图像的推理、图像描述、轻量级视觉搜索或多模态智能体组件。
  • 更广泛的实验:开发者现在可以在相同的 NPU 约束下对密集、MoE 和 VLM 架构进行基准测试和比较,从而更轻松地为生产环境选择合适的模型。

Stable Diffusion 已集成至 Ryzen AI 主安装程序

Stable Diffusion 现已直接内置到 Ryzen AI 主安装程序中,无需在单独环境中运行。

  • 可预测的环境设置:开发者不再需要管理 SD 特定的 Python 环境、依赖项或构建步骤。
  • 统一工具链:LLM、VLM 和 SD 工作流程现在位于同一环境中,简化了构建混合模态应用的开发流程。
  • 更快的迭代:更快的设置意味着开发者可以快速为文本到图像、图像到图像或混合工作流程创建原型,而无需担心环境碎片化问题。

LLM 在混合模式下支持高达 16K 上下文长度

现在,在 Ryzen AI 软件 1.7 中,大多数 LLM 在 iGPU 和 NPU(混合)模式下运行,可支持高达 16K token 的上下文。

  • 长文本推理:借助长文本推理能力,开发者可以构建能够处理长篇文档、多轮超长对话或需要持久记忆的工作流程的应用。
  • 本地 RAG 堆栈:更长的上下文可直接提升设备端检索增强生成的有效性,从而减少截断并增强模型对事实依据的把握。

与 RAI 1.6 相比,BF16 流水线的延迟降低了约一半

在 Ryzen AI 软件 1.7 中,BF16 流水线延迟显著降低,与 Ryzen AI 软件 1.6 相比,吞吐量提升约一倍。

  • 更快的交互式 LLM:降低 token 延迟可提升用户感知的响应速度,尤其是对于聊天类应用或智能体循环。
  • 为微调模型提供更可靠的基准:BF16 的优化改进使预训练模型和自定义微调模型均能受益,缩短了首个 token 生成时间和整体推理时长。

Ryzen AI 软件 1.7 专注于优化日常开发体验:更多模型选择 (MoE + VLM)、集成 Stable Diffusion 的统一安装程序、在 NPU 上支持更长的 LLM 上下文窗口,以及显著降低的 BF16 延迟。其结果是:设置过程更顺畅、测试改动时的反馈循环更快速、以及更强大的本地堆栈(助力交付 LLM/VLM 功能)。

有关 1.7 软件版本中新功能和增强功能的详细概述,请参阅官方版本说明。 

订阅接收 Ryzen AI 软件更新通知,并获取最新工具和资源,以尽情探索 AI PC 的可能性边界。

其他资源

如需详细了解支持的架构、设置说明以及如何开始使用 Ryzen AI 软件 1.7 进行构建,请查看 Ryzen AI 文档

Share:

Article By


Related Blogs