蚂蚁集团旗下的百灵大模型今日宣布,正式开源其最新成员 Ling-2.6-flash。该模型同步推出了 BF16、FP8、INT4 等多个量化版本,旨在为全球开发者提供更灵活的硬件适配选择,进一步降低 AI 部署的门槛。
作为一款高性能模型,Ling-2.6-flash 的总参数量达 104B,其中激活参数为 7.4B。此前,该模型曾以匿名身份在国际主流评测平台崭露头角,并根据开发者反馈完成了多轮针对中英文切换与代码适配的深度优化。

除了速度优势,该模型在智效比上表现惊人。评测数据显示,在完成同等复杂程度的任务时,Ling-2.6-flash 消耗的 Token 数量仅为同级别模型的十分之一,有效降低了企业的长期运营成本。
定向增强智能体场景
针对当前火热的 Agent 应用,蚂蚁集团对模型进行了定向能力增强。无论是在复杂的工具调用,还是在长路径的任务规划中,Ling-2.6-flash 都展现出了极强的逻辑执行力与任务成功率。
目前,该模型已在 Hugging Face 和 ModelScope 等主流开源社区同步上线。通过此次深度开源,蚂蚁集团希望能够赋能更多垂直领域的开发者,在保障数据隐私的同时,共同探索大模型应用的新边界。