众所周知,国庆不止是一个节日,还是 Q4 的开始。
Anthropic 发了 Claude4.5、DeepSeek 发了 V3.2;OpenAI 发了 Sora2、入股 AMD,举办了 Dev Day,要搞 AI 操作系统。
而蚂蚁的节奏更紧凑:9 月 30 日,开源全球首个万亿参数推理大模型 Ring-1T-preview;10 月 9 日,再甩出 Ling 2.0 旗舰非思考模型——万亿参数开源大模型 Ling-1T。10 天之间,国内万亿参数俱乐部从两位成员(Kimi K2、Qwen3-Max)直接扩容到三位。
Ling-1T 和 Ring-1T-preview 都采用蚂蚁自研的 Ling 2.0 的架构,蚂蚁团队将模型扩展到了万亿的参数规模,都用了超过 20T 的高质量语料库。
从官方披露的榜单数据来看,Ling-1T 与 DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905、GPT-5-main、Gemini-2.5-Pro 这些国内外最具代表的模型做了横评。其中,在代码生成、软件开发、竞赛数学、专业数学、逻辑推理等推理基准测试上,在绝大部分的项目上都取得了领先。
在与同类大模型的多项横评中,Ring-1T 以纯自然语言推理的能力,逼近了 GPT-5 with thinking ( no tools ) 的水平。其中在竞赛级代码生成任务CodeForces 中,Ring-1T-preview 拿下了最高分。
百灵大模型与它的 " 非共识 "
本次的两个超大模型的发布,其实很早就在蚂蚁内部的部署之中。
在今年 5 月 27 日的蚂蚁技术日上,百灵团队就表示内部在训练一个 Max 级别的模型,要等到性能 " 比肩 DeepSeek" 的时候就会发布。
蚂蚁百灵大模型负责人周俊在回答记者问题的时候表示,虽然大家都认为 Scaling Law 遇到瓶颈了,但他们团队持有一种 " 非共识 ",即 Scaling 这件事情还没有终结。
四个月后,Ring-1T-preview 和 Ling-1T 的发布,印证了百灵大模型团队此前的观点:Scaling is all you need.
百灵团队提出了一个专有的技术概念:Ling Scaling Law。它可以自动计算最优参数配置,支持精准外推预测,从而帮助团队进行架构选型,保证即便在巨大计算量下依然保持可扩展的架构效率。此外,蚂蚁还自研了 WSM 调度器(Warmup-Stable-Merge)替代了传统的 WSD(warmup-stable-decay)
Ring-1T 和 Ling-1T 的超大参数能力便得益于此。
新的策略在多个任务表现上都获得了比传统策略更好的结果。
由于架构相近,无论是 Ling-1T 还是 Ring-1T,二者都保持了很好的稀疏性。
以此次发布的 Ling-1T 为例,每个 token 大概只激活 51B 参数。结合通过 " 中训练 + 后训练 " 的演进式思维链(Evo-CoT),极大提升了模型的高效推理能力。
蚂蚁将大参数储备和小参数激活结合起来,根据任务的难度不同,智能调度大模型中的专家网络。一个 token 只激活 51B 的参数规模,相当于将日常困扰开发者的能耗问题降低到了百亿级参数。
毕竟连 Lecun 这样的 transformer 和 LLM 长期批评者,都在社区里给 Ring-1T-preview 点了赞。
人们发现,不知不觉间,蚂蚁今天已经成为了,大模型家族体系最全面的 AI 公司之一了。
Ling 是基础的大语言模型;Ring 是推理模型,类似 GPT 的 O 系列;Ming 系列,代表多模态模型,下分视频、音频等不同的子系列。
在模型的规模和性能方面,除了今天看到的 1T 版本外,还有 mini、flash、lite,覆盖了从 10B 到 1T 的不同尺寸,以服务不同的场景需求。
比如蚂蚁前段时间发了一个 16B 的高性能推理模型,Ring-mini-2.0,就是以 Ling-mini-2.0-base 为基础训练的。在蚂蚁的 MoE 架构支持下,激活 1.4B 参数,即可达到 10B 级别以下 dense 模型的综合推理能力。
而像 Ming-lite-omni,则是社区少有的全模态大模型,在 2.8B 激活参数下,多模态能力可以比肩 gpt-4o。
在 HuggingFace 上,蚂蚁的 Inclusion AI 有 14 个 collection 以及数十个跟模型相关的产品和工具,涵盖了 Ling、Ring、Ming、世界模型和具身等多个技术领域。
这意味着百灵家族形成了一个大模型构建的能力金字塔,可以为蚂蚁集团乃至整个开源生态,构建支撑不同场景的能力与梯度化部署。
迈向 AGI 全景
蚂蚁很早就提出了三大战略,AI First、支付宝双飞轮、加速全球化。
不过蚂蚁 CEO 韩歆毅曾对媒体表示,蚂蚁的最终目标是做 AI 的落地应用," 如果聚焦 AI 应用,还要不要做基础大模型?" 但管理层在思考以后答案是," 一定要。"
他说," 因为如果基于 AI 做服务和应用,就像训练一个人去做事。追求智能上限,会让这个人更加聪明,能够做更多、更好的服务。我们很坚定去探索 AGI、探索智能上限。"
但我们从这个表态可以理解,蚂蚁大模型的路径:
蚂蚁想要追求智能上限,推动 AI 能力的收敛。所以它几乎所有的发布模型都是开源的,而且是高开放性、没有任何等待期的 " 真开源 "。
拥抱开源的好处是显而易见的,它拒绝重复造轮子,不断探索人类大模型的技术边缘。在某种意义上,开源可以推动更多的 " 范式级 " 的进一步探索,比如刚才我们提到的"Ling Scaling Law"。
换言之,蚂蚁想要追求的是一个丰富的 AI 智能生态,希望这个生态能够快速繁荣。在这个基础上,蚂蚁可以收获更多的技术经验,然后重注更多的 AI 场景。
围绕上述逻辑的第二个蚂蚁特色的路径是:蚂蚁的 Agent 产品和大模型是同步推进的。
蚂蚁在此前推出了三大 AI 管家,作为目前的 Agent 系列产品,分别是 AI 健康管家 AQ、AI 理财管家蚂小财、AI 生活管家。
与 "AI+" 不完全相同,蚂蚁尽可能地推出的是 AI 原生属性的 Agent。
其中,AQ 有自己独立的 APP,蚂小财在蚂蚁财富 APP 有入口。其实在此之前,支付宝内也有大量本地入口 +chatbot 窗口实践,但蚂蚁选择了对这几个业务设立独立 app 作为试验田。
从这个角度来说,蚂蚁将 Agent 作为全新的场景形态来看待。它随着智能的发展和产品形态的演进,未来会变成区别于今天产品形态的 " 新物种 "。
在生态侧,蚂蚁也有智能体开发平台 " 百宝箱 "。百宝箱尝试将不同的 agent 智能体聚合、调度,进行做多智能体的协同尝试。此外,蚂蚁还推出了原生的 AI 社区 InclusionAI。
今天很多人说 AI 进入下半场,其实讲的是两件事情:智能增长放缓 + 场景落地爆发的前期。
蚂蚁所做的事情,与 AGI 的发展的诉求也是刚好一致的:
深耕智能涌现的超大参数模型、拥抱开源社区、构建智能体平台和 AI 社区、招募 AI 原生人才,目的是推动智能上限的进一步增长。
多智能体联动、三大 Agent 战略布局,目的是探索场景落地的产品范式,跑通原生 AI 交付的产品能力。
Ling2.0 系列的万亿超参模型落地,可以被视作是蚂蚁对 AGI 业务布局理解的某种延伸:
它既实现了开源社区智能上限潜力的进一步挖掘,高效 MoE 架构和模型的梯度化部署能力,又给应用层生态更丰富的工具的选择。
而不仅对于蚂蚁的 AI 战略如此。对于整个 AGI 生态来说,这也是模型发展的意义所在。