关于ZAKER 合作
智东西 41分钟前

蚂蚁首个万亿参数推理大模型,开源!

智东西

作者 | 王涵

编辑 | 漠影

智东西 9 月 30 日消息,今天,蚂蚁百灵大模型宣布开源其思考模型 Ring-1T 的预览版—— Ring-1T-preview,参数量达 1000B(1 万亿)!

开源链接:

Hugging Face:https://huggingface.co/inclusionAI/Ring-1T-preview

魔搭社区:

https://modelscope.cn/models?page=1&tabKey=task

该模型延续 Ling 2.0 的 MoE 架构,在 20T 高质量语料上完成预训练,结合此前公开的棒冰(icepop)方法,在自研开源高效强化学习系统 ASystem 上进行了针对推理能力的 RLVR 训练。

在 AIME 2025(美国数学邀请赛),Ring-1T 通过纯自然语言推理即可取得 92.6 的高分,进一步逼近 GPT-5 with thinking(no tools)的 94.6 水平。

此外,在哈佛 - 麻省理工数学竞赛 HMMT 2025,竞赛级代码生成任务 LiveCodeBench v6、CodeForces 上,以及抽象推理基准 ARC-AGI-1 等任务中,Ring-1T 均超越 Gemini-2.5-pro 和

DeepSeek-V3.1-Terminus-Thinking。

为了进一步探索 Ring-1T 早期版本的推理上限,研究团队将其接入多智能体框架 AWorld,并在 IMO 2025(国际数学奥林匹克竞赛)上进行了纯自然语言推理测试。

此前,Ring-flash-2.0 在允许三次推理尝试的设定下,直到第三次才勉强解出第 3 题。相比之下,Ring-1T 在本次测试中仅用一次推理就解出了第 3 题,并且在第 1、2、4、5 题上也能一次性给出部分正确答案。

百灵团队称 Ring-1T 仍在持续训练中,此次发布的预览版仍存在语种混杂、推理重复、身份认知错误等问题,希望通过开源社区的反馈,进一步完善 Ring-1T 的功能。

从今年 3 月到现在,蚂蚁一直在对百灵大模型进行迭代优化。3 月,蚂蚁开源了两款 MoE(混合专家)大语言模型 Ling-Lite 和 Ling-Plus,并在 4 月发布了 Ling-Lite 的更新版本 Ling-lite-0415。4 月初,轻量级推理模型 Ring-lite-distill-preview 和混合线性长推理模型 Ring-lite-linear-preview 开源。

5 月,蚂蚁发布了 MoE 架构的全模态大模型 Ming-lite-omni-preview 和 Ming-lite-uni,并开源了统一多模态大模型 Ming-lite-omni 和 Ling-lite-1.5。

6 月,在 Ling-lite-1.5 的基础上,蚂蚁发布了轻量级推理模型 Ring-lite。7 月,其发布了 Ming-lite-omni v1.5、Ring-lite-2507 和 Ling-lite-1.5-2507。

9 月,蚂蚁开源语言模型 Ling-mini-2.0,在此基础上推出了推理模型 Ring-mini-2.0 和轻量版 Ling-flash-2.0 以及思考模型 Ring-flash-2.0。

上周五,蚂蚁也才刚刚开源两款思考模型—— Ring-flash-linear-2.0 与 Ring-mini-linear-2.0,还同步发布两大自研融合算子,即 FP8 融合算子和线性 Attention 推理融合算子。

结语:百灵大模型在复杂逻辑推理能力上下 " 狠功夫 "

百灵大模型团队此次开源,是想要通过开放早期成果,汇聚社区智慧,对于 Ring-1T 进行 " 查漏补缺 "。

从 AIME 到 IMO 国际顶级数学竞赛的初步测试表现来看,Ring-1T 在复杂逻辑推理能力上进一步提升,正式版本的性能值得期待。

相关标签

最新评论

没有更多评论了