关于ZAKER 合作
硅星人 31分钟前

蚂蚁十天连发两个万亿参数大模型,获 LeCun 点赞

众所周知,国庆不止是一个节日,还是 Q4 的开始。

Anthropic 发了 Claude4.5、DeepSeek 发了 V3.2;OpenAI 发了 Sora2、入股 AMD,举办了 Dev Day,要搞 AI 操作系统。

而蚂蚁的节奏更紧凑:9 月 30 日,开源全球首个万亿参数推理大模型 Ring-1T-preview;10 月 9 日,再甩出 Ling 2.0 旗舰非思考模型——万亿参数开源大模型 Ling-1T。10 天之间,国内万亿参数俱乐部从两位成员(Kimi K2、Qwen3-Max)直接扩容到三位。

Ling-1T 和 Ring-1T-preview 都采用蚂蚁自研的 Ling 2.0 的架构,蚂蚁团队将模型扩展到了万亿的参数规模,都用了超过 20T 的高质量语料库。

从官方披露的榜单数据来看,Ling-1T 与 DeepSeek-V3.1-Terminus、Kimi-K2-Instruct-0905、GPT-5-main、Gemini-2.5-Pro 这些国内外最具代表的模型做了横评。其中,在代码生成、软件开发、竞赛数学、专业数学、逻辑推理等推理基准测试上,在绝大部分的项目上都取得了领先。

而作为 1T 语言基座的思考模型版本,Ring-1T-preview在大规模强化学习训练的早期,就已经表现出强大的自然语言推理思考能力

在与同类大模型的多项横评中,Ring-1T 以纯自然语言推理的能力,逼近了 GPT-5 with thinking ( no tools ) 的水平。其中在竞赛级代码生成任务CodeForces 中,Ring-1T-preview 拿下了最高分。

蚂蚁百灵官方公众号说,他们还在持续开展更多高难度推理任务的测试验证,包括 ICPC、CCPC 等编程竞赛,以进一步挖掘这个万亿思考模型的潜能。

百灵大模型与它的 " 非共识 "

本次的两个超大模型的发布,其实很早就在蚂蚁内部的部署之中。

在今年 5 月 27 日的蚂蚁技术日上,百灵团队就表示内部在训练一个 Max 级别的模型,要等到性能 " 比肩 DeepSeek" 的时候就会发布。

蚂蚁百灵大模型负责人周俊在回答记者问题的时候表示,虽然大家都认为 Scaling Law 遇到瓶颈了,团队持有一种 " 非共识 ",即 Scaling 这件事情还没有终结。

四个月后,Ring-1T-preview 和 Ling-1T 的发布,印证了百灵大模型团队此前的观点:Scaling is all you need.

百灵团队提出了一个专有的技术概念:Ling Scaling Law。它可以自动计算最优参数配置,支持精准外推预测,从而帮助团队进行架构选型,保证即便在巨大计算量下依然保持可扩展的架构效率。此外,蚂蚁还自研了 WSM 调度器(Warmup-Stable-Merge)替代了传统的 WSD(warmup-stable-decay)

Ring-1T 和 Ling-1T 的超大参数能力便得益于此。

新的策略在多个任务表现上都获得了比传统策略更好的结果。

当然,仅仅实现 " 超大参数 " 是不够的。

由于架构相近,无论是 Ling-1T 还是 Ring-1T,二者都保持了很好的稀疏性。

以此次发布的 Ling-1T 为例,每个 token 大概只激活 51B 参数。结合通过 " 中训练 + 后训练 " 的演进式思维链(Evo-CoT),极大提升了模型的高效推理能力。

蚂蚁将大参数储备和小参数激活结合起来,根据任务的难度不同,智能调度大模型中的专家网络。一个 token 只激活 51B 的参数规模,相当于将日常困扰开发者的能耗问题降低到了百亿级参数。

大参数带来的能力突破,确实能让更多人(尤其是海外开发者)了解这个来自中国的模型。

毕竟连 Lecun 这样的 transformer 和 LLM 长期批评者,都在社区里给 Ring-1T-preview 点了赞。

但比起被看见,Ling-1T 发布的意义或许在于:

人们发现,不知不觉间,蚂蚁今天已经成为了,大模型家族体系最全面的 AI 公司之一了。

蚂蚁百灵大模型家族有一套自己的命名规则:

Ling 是基础的大语言模型;Ring 是推理模型,类似 GPT 的 O 系列;Ming 系列,代表多模态模型,下分视频、音频等不同的子系列。

在模型的规模和性能方面,除了今天看到的 1T 版本外,还有 mini、flash、lite,覆盖了从 10B 到 1T 的不同尺寸,以服务不同的场景需求。

比如蚂蚁前段时间发了一个 16B 的高性能推理模型,Ring-mini-2.0,就是以 Ling-mini-2.0-base 为基础训练的。在蚂蚁的 MoE 架构支持下,激活 1.4B 参数,即可达到 10B 级别以下 dense 模型的综合推理能力。

而像 Ming-lite-omni,则是社区少有的全模态大模型,在 2.8B 激活参数下,多模态能力可以比肩 gpt-4o。

在 HuggingFace 上,蚂蚁的 Inclusion AI 有 14 个 collection 以及数十个跟模型相关的产品和工具,涵盖了 Ling、Ring、Ming、世界模型和具身等多个技术领域。

这意味着百灵家族形成了一个大模型构建的能力金字塔,可以为蚂蚁集团乃至整个开源生态,构建支撑不同场景的能力与梯度化部署。

迈向 AGI 全景

蚂蚁很早就提出了三大战略,AI First、支付宝双飞轮、加速全球化。

不过蚂蚁 CEO 韩歆毅曾对媒体表示,蚂蚁的最终目标是做 AI 的落地应用," 如果聚焦 AI 应用,还要不要做基础大模型?" 但管理层在思考以后答案是," 一定要。"

他说," 因为如果基于 AI 做服务和应用,就像训练一个人去做事。追求智能上限,会让这个人更加聪明,能够做更多、更好的服务。我们很坚定去探索 AGI、探索智能上限。"

但我们从这个表态可以理解,蚂蚁大模型的路径:

蚂蚁想要追求智能上限,推动 AI 能力的收敛。所以它几乎所有的发布模型都是开源的,而且是高开放性、没有任何等待期的 " 真开源 "。

拥抱开源的好处是显而易见的,它拒绝重复造轮子,不断探索人类大模型的技术边缘。在某种意义上,开源可以推动更多的 " 范式级 " 的进一步探索,比如刚才我们提到的"Ling Scaling Law"。

换言之,蚂蚁想要追求的是一个丰富的 AI 智能生态,希望这个生态能够快速繁荣。在这个基础上,蚂蚁可以收获更多的技术经验,然后重注更多的 AI 场景。

围绕上述逻辑的第二个蚂蚁特色的路径是:蚂蚁的 Agent 产品和大模型是同步推进的。

蚂蚁在此前推出了三大 AI 管家,作为目前的 Agent 系列产品,分别是 AI 健康管家 AQ、AI 理财管家蚂小财、AI 生活管家。

与 "AI+" 不完全相同,蚂蚁尽可能地推出的是 AI 原生属性的 Agent。

其中,AQ 有自己独立的 APP,蚂小财在蚂蚁财富 APP 有入口。其实在此之前,支付宝内也有大量本地入口 +chatbot 窗口实践,但蚂蚁选择了对这几个业务设立独立 app 作为试验田。

从这个角度来说,蚂蚁将 Agent 作为全新的场景形态来看待。它随着智能的发展和产品形态的演进,未来会变成区别于今天产品形态的 " 新物种 "。

在生态侧,蚂蚁也有智能体开发平台 " 百宝箱 "。百宝箱尝试将不同的 agent 智能体聚合、调度,进行做多智能体的协同尝试。此外,蚂蚁还推出了原生的 AI 社区 InclusionAI。

今天很多人说 AI 进入下半场,其实讲的是两件事情:智能增长放缓 + 场景落地爆发的前期。

蚂蚁所做的事情,与 AGI 的发展的诉求也是刚好一致的:

深耕智能涌现的超大参数模型、拥抱开源社区、构建智能体平台和 AI 社区、招募 AI 原生人才,目的是推动智能上限的进一步增长。

多智能体联动、三大 Agent 战略布局,目的是探索场景落地的产品范式,跑通原生 AI 交付的产品能力。

Ling2.0 系列的万亿超参模型落地,可以被视作是蚂蚁对 AGI 业务布局理解的某种延伸:

它既实现了开源社区智能上限潜力的进一步挖掘,高效 MoE 架构和模型的梯度化部署能力,又给应用层生态更丰富的工具的选择。

而不仅对于蚂蚁的 AI 战略如此。对于整个 AGI 生态来说,这也是模型发展的意义所在。

相关标签
ai
硅星人

硅星人

硅是创造未来的基础,欢迎登陆硅星球。

订阅

觉得文章不错,微信扫描分享好友

扫码分享