关于ZAKER Skills 合作
格隆汇 45分钟前

对话范式智能戴文渊:Token 调用量季度猛增 400%,不做“淘金者”,做 Token 时代最好的“卖铲人”

2026 年春,AI 产业迎来关键转折点。3 月 GTC 大会上,黄仁勋正式宣告 AI 全面进入 Token 时代,数据中心加速向 Token 工厂迭代;4 月底,国产大模型 DeepSeek V4 携百万 Token 上下文、MoE 架构与国产算力原生适配能力登场,进一步推动低成本、高并发 Token 调用的普及。价格屠夫之态引发市场讨论。

浪潮之下,玩家分化加剧。模型厂商卷能力,云厂商拼算力,而范式智能走出了第三条路,以中立平台的角色承接 Token 经济爆发的核心红利。2025 年实现首次全年盈利、2026 年 Q1 Token 收入超去年全年,这家曾深耕企业级 AI 的公司,似乎正成为 Token 时代的重要底座。

" 我们很早就意识到,当所有人都在讨论如何炼出最好的‘黄金’(模型)时,产业更缺的是能把金子高效运出来的‘铲子’和‘路’。" 范式智能创始人兼 CEO 戴文渊在接受专访向格隆汇表示。在 AI 从模型竞赛转向规模应用的关键节点,这位技术出身的 CEO,向我们阐释了范式智能在 Token 浪潮中的战略定位、技术壁垒与产业野望。

一、Token 时代为何是范式的时代?

1. 今年被称为 Token 元年,Token 经济全面到来。范式智能似乎很早就调转了船头,并提前布局,这也是公司在 2025 年率先实现全年盈利、提前 " 挖到了金子 " 的核心原因之一。

您可否用一句话定义,范式在这场浪潮里,到底站在什么位置?

答:范式是 Token 时代的中立基础设施平台和生态连接器。我们专注于让海量 Token 能够被低成本、高效且安全地规模化调用,为整个 Token 经济提供底层支撑。

2、你们是什么时候、基于什么判断,把 API/Token 作为重要发展引擎,而不是选择卖模型,或者卖项目这一传统企业端服务模式。和同行(如大模型厂商、云厂商)相比,你们的战略定位是否很不一样?

答:我们从 2024 年底就明确将 API/Token 业务作为核心增长引擎。因为我们判断,随着大模型性能逐步趋同,未来的竞争关键在于谁能让企业更低成本、更高效、更安全地使用这些模型。 与大模型厂商和传统云厂商相比,我们的定位差异明显——我们选择做中立的全栈云服务平台,既不绑定单一模型,也不单纯出售算力,而是提供从算力虚拟化、模型适配、智能路由到安全合规的一站式服务,帮助企业真正解决多模型落地中的成本和效率痛点。

3、此次 15.6 亿港元配售,80% 资金投入异构算力建设,是否为范式 Token 业务的规模化扩张提供了核心支撑?结合当前 Token 业务的爆发节奏,这笔算力投入预计将如何快速转化为营收增长和竞争优势?

答:是的,这笔资金中 80% 将用于异构算力建设,直接支撑 Token 业务的规模化扩张。

我们 2026 年一季度的客户 token 调用量与 2025 年四季度相比增长过 400%。而且、一季度内每月的客户 token 调用量比上一个月都是成倍数的增长。今年 4 月 21 号通过增发新股融到的资金会用于购买异构算力资源、以确保客户 token 调用量的持续增长。

我们的 vGPU 技术和大模型适配的经验可以让我们的 token 调用效率比行业平均水平高很多。

4、公司与曦望合作推出 " 百万 Token 一分钱 " 计划。可否具体谈谈这个计划的进度?这是否构成了 Token 业务的重要底座?

答:我们与曦望的合作推进顺利。成本优势主要源于 HAMi vGPU 虚拟化技术带来的更高算力利用率、PhanRouter 的智能调度优化,共同实现了更好的性价比。

二、范式如何卡位 AI 产业中枢?

1、从 " 第四范式 " 升级为 " 范式集团 ",从企业级 AI 平台向全栈 AI 生态跨越,这一战略升级背后的逻辑是什么?公司确立 " 三驾马车 " 业务架构(AI Platform、API 业务、Agentic AI),这种分类调整反映了怎样的战略思考?

答:升级的核心是从单一企业级 AI 平台向全栈 AI 生态跨越。" 三驾马车 "(AI Platform、API 业务、Agentic AI)的架构调整,正是这一战略思考的体现:AI Platform 筑牢底座,API 业务贡献流量和现金流,Agentic AI 聚焦高价值场景落地,三者形成相互支撑的闭环。

2、行业目前形成 " 垂直一体化 " 与 " 中立平台 " 两大发展路径,范式坚持中立平台定位,为什么呢?未来范式将如何进一步强化这种中立平台的价值,实现多方共赢?

答:中立才能服务最广泛的客户和生态。我们不生产模型,而是帮助客户用好所有优秀模型,成为产业生态的连接器。未来我们将继续通过开放合作,实现模型厂商、算力厂商与企业用户的多方共赢。

3、DeepSeek V4 完全拥抱国产算力,优先昇腾、寒武纪,甚至不向英伟达开放早期访问权限。范式有领先的 HAMi vGPU 虚拟化技术, ModelHub XC 还是国产算力适配最广的模型社区。V4 的成功是否会极大加速国产算力生态的成熟,从而让公司前期构筑的适配壁垒价值倍增?

答:是的,DeepSeek V4 的成功对整个国产算力生态是重大利好,也会显著放大我们前期在国产算力适配上的布局价值。

我们最核心的技术优势之一就是 HAMi vGPU。它能够实现异构算力的统一虚拟化和高效调度,在昇腾、寒武纪等国产芯片上大幅提升算力利用率,远高于行业平均水平。这让范式不仅能 " 适配 " 国产算力,更能真正 " 用好 " 国产算力。结合 ModelHub XC 目前最广泛的国产模型适配能力,我们为客户提供了从算力层到模型层的完整国产化解决方案。

我们与 DeepSeek 等优秀模型团队是生态互补关系——他们提供越来越强的模型,我们则提供最好的 " 用模型 " 基础设施。V4 的发布进一步验证了这一路径的正确性,也让我们对未来国产算力时代的竞争力更有信心。

三、范式的长期确定性从何而来?

1、2025 年范式实现首次全年盈利,在手订单超 89 亿。在 DeepSeek V4 推动行业降本增效、市场需求扩容的背景下,您认为 2026 年 Token 业务的毛利率能否持续保持优势?公司整体盈利水平是否会实现进一步突破、持续兑现增长价值?

答:2025 年我们实现了首次全年盈利,这对公司而言是一个重要的里程碑。在手订单超过 89 亿,也为 2026 年的增长提供了坚实的基础。

在 DeepSeek V4 等优秀模型带动行业整体降本增效和市场需求扩容的背景下,我们对 2026 年充满信心。Token 业务方面,我们有信心继续保持毛利率的优势。主要得益于 HAMi vGPU 带来的高算力利用率、PhanRouter 的智能调度优化,以及规模化效应带来的成本摊薄。

2、范式 2026 年计划加速出海。

您认为,范式在海外市场的核心竞争力体现在哪里?公司与国产大模型出海是否能形成协同,共同扩大中国 AI Token 服务的全球影响力?

答:范式在海外市场的核心竞争力在于性价比极高的中立云平台。我们不绑定特定模型,能帮助海外客户低成本、灵活地调用多种优质模型,同时提供稳定的安全合规能力,这在海外市场非常有吸引力。

我们与国产大模型出海可以形成很好的协同——模型出海提供能力,我们的 Token 基础设施提供落地通道,二者结合能共同提升中国 AI Token 服务的全球影响力。

结语

访谈结束时,戴文渊再次提到了 " 确定性 " 这个词。

在他看来,AI 产业的终极图景并不是几个寡头模型统治一切,而应该是一个由多元模型、海量应用和复杂场景构成的 Token 经济生态。在这个生态里,连接与调度的价值将无限放大。

" 我们不做预言家,我们只是坚信连接的价值。" 戴文渊说。当潮水方向已然明晰,范式智能无意争做那最高的浪花,而是扎根产业底层,扮演产业高效流转的赋能者。这条深耕基础设施的赛道,最终能抵达怎样的远方,时间自会验证。

相关阅读

最新评论

没有更多评论了

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容