作者 | 王涵
编辑 | 漠影
智东西 9 月 30 日消息,今天,蚂蚁百灵大模型宣布开源其思考模型 Ring-1T 的预览版—— Ring-1T-preview,参数量达 1000B(1 万亿)!
Hugging Face:https://huggingface.co/inclusionAI/Ring-1T-preview
魔搭社区:
https://modelscope.cn/models?page=1&tabKey=task
该模型延续 Ling 2.0 的 MoE 架构,在 20T 高质量语料上完成预训练,结合此前公开的棒冰(icepop)方法,在自研开源高效强化学习系统 ASystem 上进行了针对推理能力的 RLVR 训练。
在 AIME 2025(美国数学邀请赛),Ring-1T 通过纯自然语言推理即可取得 92.6 的高分,进一步逼近 GPT-5 with thinking(no tools)的 94.6 水平。
此外,在哈佛 - 麻省理工数学竞赛 HMMT 2025,竞赛级代码生成任务 LiveCodeBench v6、CodeForces 上,以及抽象推理基准 ARC-AGI-1 等任务中,Ring-1T 均超越 Gemini-2.5-pro 和
DeepSeek-V3.1-Terminus-Thinking。
此前,Ring-flash-2.0 在允许三次推理尝试的设定下,直到第三次才勉强解出第 3 题。相比之下,Ring-1T 在本次测试中仅用一次推理就解出了第 3 题,并且在第 1、2、4、5 题上也能一次性给出部分正确答案。
从今年 3 月到现在,蚂蚁一直在对百灵大模型进行迭代优化。3 月,蚂蚁开源了两款 MoE(混合专家)大语言模型 Ling-Lite 和 Ling-Plus,并在 4 月发布了 Ling-Lite 的更新版本 Ling-lite-0415。4 月初,轻量级推理模型 Ring-lite-distill-preview 和混合线性长推理模型 Ring-lite-linear-preview 开源。
5 月,蚂蚁发布了 MoE 架构的全模态大模型 Ming-lite-omni-preview 和 Ming-lite-uni,并开源了统一多模态大模型 Ming-lite-omni 和 Ling-lite-1.5。
6 月,在 Ling-lite-1.5 的基础上,蚂蚁发布了轻量级推理模型 Ring-lite。7 月,其发布了 Ming-lite-omni v1.5、Ring-lite-2507 和 Ling-lite-1.5-2507。
9 月,蚂蚁开源语言模型 Ling-mini-2.0,在此基础上推出了推理模型 Ring-mini-2.0 和轻量版 Ling-flash-2.0 以及思考模型 Ring-flash-2.0。
上周五,蚂蚁也才刚刚开源两款思考模型—— Ring-flash-linear-2.0 与 Ring-mini-linear-2.0,还同步发布两大自研融合算子,即 FP8 融合算子和线性 Attention 推理融合算子。
结语:百灵大模型在复杂逻辑推理能力上下 " 狠功夫 "
百灵大模型团队此次开源,是想要通过开放早期成果,汇聚社区智慧,对于 Ring-1T 进行 " 查漏补缺 "。
从 AIME 到 IMO 国际顶级数学竞赛的初步测试表现来看,Ring-1T 在复杂逻辑推理能力上进一步提升,正式版本的性能值得期待。