关于ZAKER 合作
量子位 12小时前

超大模型推理加速 2.18 倍!SGLang 联合美团技术团队开源投机采样训练框架

专门适用超大模型、带来 2.18 倍推理加速,最新投机采样训练框架开源!

SGLang 团队联合美团搜推平台、Cloudsway.AI 开源 SpecForge。

SGLang,当前趋势下最受青睐的推理框架之一,为 DeepSeek 提供了专属优化,也深受英伟达、AMD、xAI 等厂商喜爱。

这一次开源,主要是针对当下超大模型趋势。

随着 Kimi K2、Qwen Coder 的开源,越来越多的超大型模型进入大家的视野。这些模型具有强劲的性能,但受制于模型尺寸导致推理效率较低。对于超大尺寸的模型,除了进一步优化算子之外。还有像投机采样这样的技术能加速它们的推理。

投机采样(Speculative Sampling)通过引入轻量级的辅助模型来提升推理效率,同时确保结果的质量和正确性。

目前性能强劲的投机采样技术分别有MTPEagle3,但 MTP 其需要在预训练阶段与基础模型一起训练,限制了 MTP 在业界的广泛应用。而 Eagle3 作为一种训练后而集成的技术,很适合在已开源的超大尺寸模型上继续训练,而进一步提升推理效率。

SpecForge 正是基于 Eagle3,它不仅是首个支持超大模型投机采样训练并开箱即用的框架,还与 SGLang 推理引擎深度集成。一键打通投机采样训练推理全流程。

为何推出新的 Spec 训练框架?

投机采样(speculative decoding)已成为大语言模型(LLM)推理加速的共识方案,但其端到端训练工具的缺失仍是明显短板。目前开源社区中,尚无能够支持超大尺寸模型训练且与 SGLang 深度结合的框架,而这些工具层面的不足,直接导致此类模型的部署面临巨大挑战。

SpecForge为此而来,一个专为投机采样训练而生、并与 SGLang 原生集成的生态系统,其核心功能包括:

原生支持最新开源架构:SpecForge 支持主流模型,包括复杂的 MoE 层和 Transformer 变体。

可扩展的分布式训练:SpecForge 集成了 FSDP ( Fully Sharded Data Parallel ) 和 TP ( Tensor Parallelism ) 等并行策略,可在 GPU 集群上实现高效扩展。

内存高效训练优化:显著降低了大规模模型训练时的内存开销;即使是万亿参数的基础模型,训练 Eagle3 也同样高效。

SpecForge 核心特性 Eagle3 集成

Eagle 是一种最先进的投机采样方法,旨在加速大型语言模型推理。它通过训练一个专门的轻量级草稿模型来准确预测较大目标模型的 token 分布,从而实现高接受率和显著的性能提升。下图展示了 Eagle3 的端到端训练流程:

训练时测试(TTT)支持

EAGLE3 的高性能提升主要来源于其创新的训练时测试 ( Training-Time Test ) 架构,该架构通过模拟多步生成来增强草稿模型的健壮性。尽管 TTT 性能强大,但其实现却极具有挑战性,因为它依赖于复杂的专用注意力掩码(specialized attention masks)和递归式数据循环(recursive data loops)。

SpecForge 将这一复杂过程完全封装,提供了内置且经过验证的 TTT 支持。实现严格参照了官方 Eagle3 的核心逻辑,以确保其计算的正确性与性能,从而免除底层实现负担。

双重训练模式:在线与离线

SpecForge 通过提供两种训练模式:在线 ( Online ) 和离线 ( Offline ) 来简化隐藏状态的收集,隐藏层的收集是 Eagle 类模型的特点。它通过主模型的隐藏层训练草稿模型,让草稿模型整体分布和主模型对齐。

该框架的双模式设计能让用户能找到高效的训练模式,关于在线和离线训练的优缺点如下文所示。

选择在线或离线模式,可以根据您的具体需求和资源调整训练过程。

在线模式:可实现最大速度和灵活性。它非常适合快速实验和存储有限的场景,因为它能动态生成数据,无需大量磁盘空间。

离线模式:适用于可复现性和数据复用至关重要的场景。通过预先计算和存储隐藏状态,此模式可保证实验之间的一致性,在存储空间充足时效率很高。

扩展性优先

SpecForge 在设计时高度重视可扩展性,以满足工程生产需求。该框架使用模块化接口实现了新草稿模型和主模型的直接实现和注册。

为了实现可扩展性,团队实现了多种训练时并行策略。包括 FSDP ( Fully Sharded Data Parallel ) 和 TP 并行实现,确保超大型模型的高效训练。

实验

为验证 SpecForge 的有效性,团队利用它在包含 320K 样本的 ShareGPT 和 UltraChat 数据集上,为 LLaMA 4 训练了 Scout 和 Maverick 草稿模型。

这些模型在 MT-Bench 等行业标准基准上表现出色,充分证明了其模型质量以及与 Eagle3 架构的兼容性。特别值得一提的是,团队为 Llama 4 Maverick 训练的草稿模型在 MT-Bench 上实现了 2.18 倍的推理加速。

详细的实验结果与性能指标总结如下。

在下图所示的所有测试中,x 轴代表投机采样步长,对应于 SGLang 中的 speculative-num-steps。同时,将 SGLang 的 speculative-eagle-topk 固定为 8,将 speculative-num-draft-tokens 固定为 10,这样可以使用 tree attention 达到更高的接受率。为了找到最优的投机采样参数,可以使用 SGLang 代码库中的 bench_speculative 脚本。该脚本会在不同配置下运行吞吐量基准测试,针对硬件调优出最佳性能。

最后,可以在 GitHub 上查看源代码,并在 Hugging Face 上试用已训练的模型。

GitHub 仓库: 训练框架的完整源代码,包括 TTT 和数据处理的实现细节。https://github.com/sgl-project/SpecForge

SpecForge 的 Roadmap 如下:

支持更多模型架构,包括 Kimi K2 和 Qwen-3 MoE。

将视觉 - 语言模型 ( VLM ) 集成到 SpecForge 中。

通过更好的并行策略和 kernel 优化来支持更高效的训练。

Blog 地址:https://lmsys.org/blog/2025-07-25-spec-forge/

团队成员

SGLang 核心团队:Shenggui Li、Shuai Shi、Fan Yin、Yikai Zhu、Yi Zhang、Yingyi Huang、Yineng Zhang 及其他成员。

美团搜推平台:Chao Wang

SafeAILab 团队:Yuhui Li、Hongyang Zhang 及其成员

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

点亮星标

科技前沿进展每日见

相关标签