开发者会议内容摘要

与 Lisa Su 的炉边谈话

Andrew Ng

Andrew Ng
Founder, DeepLearning.AI
Executive Chairman, Landing AI

Andrew Ng 博士

Andrew Ng 博士是全球公认的人工智能(AI)领域的领袖。他是DeepLearning.AI 创始人、LandingAI 执行董事长、AI Fund 普通合伙人、Coursera 董事长兼联合创始人,以及斯坦福大学计算机科学系兼职教授。

2011 年,他领导开发了斯坦福大学的主要 MOOC(大规模开放在线课程)平台,并教授了一门在线机器学习课程,该课程面向超过 100,000 名学生,并促成了 Coursera 的创立,他目前担任该公司的董事长兼联合创始人。

此前,他曾担任百度首席科学家,领导公司约 1300 人的 AI 团队,负责推动公司全球 AI 战略和基础设施建设。他也是谷歌大脑团队的创始人和负责人。

作为机器学习和在线教育领域的先驱,Andrew Ng 博士通过其在人工智能领域的研究改变了无数人的生活,并在机器学习、机器人技术及相关领域撰写或合作发表了 200 多篇研究论文。2023 年,他入选《时代》杂志“全球最具影响力的人工智能人物 100 强”。他拥有卡内基梅隆大学、麻省理工学院和加州大学伯克利分校的学位。

炉边谈话

Ashish Vaswani

Ashish Vaswani
Founder and CEO, Essential AI

Ashish Vaswani 博士

Ashish Vaswani 博士是一位计算机科学家,同时也是 Essential.ai 的联合创始人兼首席执行官。在他十多年的科研生涯中,他为深度学习和人工智能做出了多项重要贡献。在开创性的论文《Attention is all you need》中,他与他人共同发明了 Transformer 模型,这是现代人工智能系统的重要组成部分。他在 2013 年提出的语言模型研究成果是深度学习在语言处理领域首批取得成功的成果之一。他的研究成果涵盖语言学、生物学等多个领域,已被引用超过 20 万次。他拥有南加州大学计算机科学博士学位。在学术界和谷歌大脑工作 7 年后,他与他人共同创立了 Adept AI Labs,这是第一家将人工智能工具普及化的公司。在 Essential,Vaswani 博士秉持开放科学理念,致力于开拓人工智能模型的新领域。

训练和强化学习的未来

Daniel Han

Daniel Han
CEO, Unsloth AI

训练和强化学习的未来

探索加速训练的最新趋势及其对内核、强化学习和量化的影响。此外,探索如何为强化学习塑造的后训练时代做好准备。探索 GRPO 背后的技术基础、DeepSeek-R1 背后的算法,并释放奖励函数的强大力量。

Daniel Han 是 Unsloth AI 的首席执行官。Unsloth AI 是一家开源 AI 初创公司,致力于让 AI 人人可用且精准。Unsloth 发展迅速,已获得超过 38,000 个 GitHub 星标,并在 Hugging Face 平台上的月下载量超过 1000 万次。该团队为 LLaMA、Phi、Gemma 和 Mistral 等主流模型贡献了关键错误修复。在创立 Unsloth 之前,Daniel 曾在 NVIDIA 工作,实现了 t-SNE 可视化速度提升 2000 倍。

AMD Instinct MI300X GPU 大规模训练的挑战与机遇

Joe Chau
Peng Cheng

Joe Chau
VP of Engineering, HPC & AI, Microsoft Azure

Peng Cheng
Senior Principal Research Manager, Microsoft Research Asia

AMD Instinct MI300X GPU 大规模训练的挑战与机遇

Joe Chau
VP of Engineering, HPC & AI, Microsoft Azure

Peng Cheng
Senior Principal Research Manager, Microsoft Research Asia

探讨扩展基于 GPU 的现代 AI 模型训练的技术复杂性,包括资源优化、分布式计算瓶颈和能源效率。会议重点介绍 Azure 基础设施和研究领域的创新解决方案和进展,并深入探讨 AI 开发高性能计算的未来发展方向。

Joe Chau 是微软工程副总裁,领导 Azure 高性能计算 (HPC) 和人工智能 (AI) 基础架构团队。他负责构建和运营支持微软最先进 AI 工作负载的大型系统。Joe 的工作涵盖云基础设施、系统工程和软硬件协同设计,助力部署尖端 GPU 集群和下一代计算平台。他通过与内部团队和行业合作伙伴的协作,在扩展微软 AI 能力方面发挥了关键作用。Joe 以其技术深度和战略清晰度而闻名,帮助 Azure 保持 AI 基础设施领域的全球领先地位。

Peng Cheng 是微软亚洲研究院(温哥华)的高级首席研究经理,专注于系统、网络和人工智能研究。他近期的工作重点是人工智能基础设施和人工智能系统协同演化的开创性进展。Peng Cheng 在先进系统、网络和人工智能相关会议上发表了 30 多篇论文,他的研究在增强 Azure、Microsoft Teams 和 Bing 等微软产品方面发挥了关键作用。

提供服务任何人的简单、快速且经济高效的大语言模型

Simon Mo

Simon Mo
vLLM Project Co-Lead, vLLM

为任何人提供简单、快速且经济高效的大语言模型

探索使用 vLLM 克服 LLM 推理障碍,它提供了高效使用内存的方法,并支持跨行业实时应用的快速、可扩展的 AI 部署。

Simon Mo 是伯克利天空计算实验室的博士生。他是 vLLM 项目的联合负责人,该项目致力于在用户自有基础设施上构建端到端的 LLM 推理栈。该项目旨在将主流 LLM 的吞吐量提升 2-4 倍,同时保持与其他系统相同的延迟水平。

使用 Mojo 进行高性能 AMD GPU 编程

Chris Lattner

Chris Lattner
CEO, Modular Inc
Co-Founder, LLVM

使用 Mojo 进行高性能 AMD GPU 编程

探索使用 Mojo 编程和语言以及 MAX 框架来释放 AMD GPU 的强大功能,以实现尖端的生成式 AI 应用程序。

Chris Lattner 是 Modular 的联合创始人兼首席执行官,该公司正在为人工智能和异构计算构建一个创新的全新开发者平台。Modular 开发了 MAX,这是一个加速 GenAI 推理的人工智能部署系统,以及 Mojo 语言——一个用于 GPU 编程和高性能的 Pythonic 系统。他共同创立了 LLVM 编译器基础设施项目、Clang C++ 编译器、Swift 编程语言、MLIR 编译器基础设施和 CIRCT 项目,并为苹果、特斯拉、谷歌和 SiFive 的许多其他商业和开源项目做出了贡献。

使用 SGLang 进行高效的 LLM 推理

Lianmin Zheng

Lianmin Zheng
Member of Technical Staff, xAI
SGLang Project Lead

使用 SGLang 进行高效的 LLM 推理

探索 SGLang,一款高效的大型语言模型和视觉语言模型服务引擎。Lianmin 将介绍核心推理优化和最新进展,例如预填充解码分解、大规模专家并行、零开销调度器和推测解码。SGLang 已被业界广泛采用,用于服务 Grok3 和 DeepSeek V3/R1 等前沿模型。

Lianmin Zheng 是 xAI 的一名技术人员。他共同领导了 SGLang 项目的开源开发以及 xAI 的推理优化工作。