在近日举行的 FORCE LINK AI 创新巡展 · 武汉站相关活动中,火山引擎方面发布了升级版和新版的豆包大模型,其中包括升级豆包大模型 1.6,以及新的豆包大模型 1.6 lite、豆包语音合成模型 2.0、豆包声音复刻模型 2.0。
其中,升级后豆包大模型 1.6 成为国内首个原生支持 " 分档调节思考长度 " 的模型,可提供 Minimal、Low、Medium、High 4 种思考长度,以平衡企业在不同场景对模型效果、时延、成本的不同需求。以低思考长度为例,相比模型升级之前的单一思考模式,升级后的豆包 1.6 模型总输出 Tokens 下降 77.5%、思考时间下降 84.6%,模型效果保持不变。
值得一提的是,为助力企业更精细地平衡模型效果与成本,日前火山引擎方面还正式发布国内首个针对模型智能选择的解决方案 " 智能模型路由 "(Smart Model Router)。
据了解,火山引擎 " 智能模型路由 " 支持 " 平衡模式 "、" 效果优先模式 " 和 " 成本优先模式 "3 种方案,可针对任务请求自动选择最合适的模型,达到效果与成本的最优解。目前火山引擎 " 智能模型路由 " 已支持豆包、DeepSeek、Qwen、Kimi 等多种主流模型。以 DeepSeek 为例,经过实测,在效果优先模式、智能路由后,模型效果相比直接使用 DeepSeek-V3.1 提升 14%;在成本优先模式、实现 DeepSeek-V3.1 相似效果的条件下,模型的综合成本最高下降超过 70%。
此外在这次的活动中火山引擎方面透露,随着 AI 产业落地持续加速,截至 9 月底豆包大模型日均 Tokens 调用量已突破 30 万亿,相比今年 5 月底增长超 80%。IDC 发布的相关报告则显示,今年上半年中国公有云大模型服务市场中,火山引擎以 49.2% 的份额占比位居中国第一。
对此火山引擎 CEO 谭待表示,在过去 4 年火山引擎每年营收目标都超预期完成,今年也是如此," 我们应该更早意识到 AI 变化意味着什么,我们做好布局。把这件事情做好,结果就水到渠成。对我们来说,AI 大幅降低企业和开发者使用的门槛 "。
【本文图片来自网络】