关于ZAKER Skills 合作
虎嗅APP 22小时前

大模型创业公司,为什么越来越多在往“小”做?

题图来自:AI 生成

把一台主流安卓手机切到飞行模式,然后问屏幕上的 AI:" 帮我总结一下昨天的会议,挑三个待办事项。"

它会答出来。答得不算惊艳,但靠谱。

从 2022 年 11 月 OpenAI 正式发布 ChatGPT 以来,几乎所有人对 AI 的认知都建立在一个朴素的逻辑上:你提的问题,会跑去一个遥远的数据中心,由几万张 GPU 算出答案,再传回你的屏幕。这个过程贵、慢、依赖网络,但所有人都默认那就是 AI 应该有的样子。

然而仅仅三年时间,这种印象被一台断网的手机轻飘飘地推翻了。

特别是最近半年,和大模型行业的人聊天时,会发现一个词的频率越来越高——端侧。

云端之上,并没有 " 钱 "

大模型上半场的逻辑非常清晰:参数大就是好。

GPT-4 出来之后那一年,国内拿到融资的公司,PPT 第一页几乎都在堆数据——多少 B 参数、多少万亿 token、多少张 H100。投资人也吃这一套。先把规模拉满,故事就成立了。

但资金烧到当下,账就逐渐算清楚了。

2025 年 OpenAI 的估值虽然推到了五千亿美元量级,但预计税前亏损也达到了惊人的 212 亿美元。Anthropic 的情况看上去好一些:毛利率从 2024 年的 -94% 改善到 2025 年的 40% 出头,但同期 EBITDA(息税折旧及摊销前利润)亏损仍有 52 亿美元。Cohere 和 Mistral 则反复传出寻求被收购的消息。

这一行业里所有靠卖 API 调用为生的公司,最后都站在同一条曲线的不同位置上,营收在涨,亏损也在涨,用户越多,亏得越多。毛利率好转的速度赶不上算力消耗扩张的速度。

这是反互联网常识的。过去二十年,规模意味着壁垒,规模也意味着利润。但大模型这门生意,规模意味着持续的算力消耗,因为每一次用户和 AI 的对话,背后都是真实的电费和 GPU 折旧。

更尴尬的是,这条曲线没有明显的下行点。模型再大、能力再强,单次推理的边际成本依然摆在那里。

云端之外,暗流已动

把视线移到云端之外。

2023 年,在手机发布会上听到 "NPU" 这个词,多半会觉得有点尴尬。芯片厂商讲了好几年,但市面上几乎没有什么模型真的用得上,它像一个反复被写进 PPT 又被现实辜负的未来能力。

到了 2025 年,这种能力开始兑现。

芯片厂商开始主动找模型公司谈适配,因为客户在问。手机用户也开始问:为什么我的 AI 助手离线就用不了?为什么我换个网络环境,它的反应慢了一截?这些问题意味着 AI 已经被人当成水电一样的存在了。它需要随时可用,不能挑网络。

模型这一侧也终于跟上了。

过去几年,量化、蒸馏、稀疏注意力这些工程方法被一批团队反复打磨,一个几 B 参数的模型,经过精心设计,在多模态、长文本、OCR 这些原本被认为只有大模型才能干的活上,已经能做到让人挑不出毛病的水平。

最直接的体现,是它真的能装进设备里。手机芯片那点显存,苹果 A 系列大概八九 GB,骁龙旗舰差不多。以前看是天花板,现在反过来成了一种刚刚够用的约束,逼着模型公司把每一层结构都抠到极致。

由此可见,端侧 AI 这两年的真正拐点不是某一项技术突然成熟,而是模型、芯片、终端三方在同一个时间窗口里,互相找到了对方。

谁在押这条路

把端侧作为主线在押的玩家,已经分成了几拨。

第一拨是终端厂商,自己下场做模型。

苹果的 Apple Intelligence 是其中最有代表性的——大约 30 亿参数级别,主打 " 端侧优先、云端兜底 "。它的存在意味着苹果决定不再把 AI 能力外包给 OpenAI,即使前者声称是 " 合作 "。Google 走得更激进,把 Gemma Nano 直接预装到 Pixel 系列,并且在 Android 14 之后开始向手机厂商开放底层 API。

终端厂商下场的逻辑很清楚,AI 一旦成为系统级功能,它就不该是别人收过路费的地方。

第二拨是大公司开源出来的小模型。

微软的 Phi 系列是这条路上的标志性产品。Phi-3 用 3.8B 参数做出了能对标 70B 模型的部分能力,证明了 " 小模型 + 精选数据 " 路线的可行性。Meta 的 Llama 3.2 在 2024 年下半年推出 1B / 3B 版本,明确标注 " 为端侧设计 "。Google 的 Gemma 系列走类似路线,开源出来供整个生态用。

这一拨的共同特点是:它们没指望靠这些小模型直接挣钱。它们是在为生态铺路。 路铺好了,再回头收硬件、云端、其他业务的钱。

第三拨是真的把 " 小尺寸 " 当成核心战略的创业公司。

Mistral 是其中最早的。7B 起家,在欧洲拿下了一批政企客户。但因为太依赖单一开源故事,2024 年微软入股之后处境变得复杂。

国内这边,阿里的 Qwen 系列推出了从 0.5B 到 7B 的小尺寸版本,覆盖端侧多个段位,但因为同时还在做大尺寸 API 业务,端侧不是主线。智谱 GLM 也有端侧版本,但商业重心仍在云端。把端侧当成绝对主线在做的,国内最有代表性的是面壁智能,MiniCPM 系列做到了 GPT-4o 同级水平。这种说法一年前几乎所有人都觉得是夸口,但它发生了。

把这几拨玩家放在一起看,端侧 AI 已经不是 " 小公司的避风港 ",它正在成为整个行业重新组织自己的方式。

端侧不是免费午餐

写到这里,也得说句实话。端侧 AI 前景虽然无限,但不是完美故事。

把模型塞进设备这件事,工程上的麻烦比想象中碎。安卓机型上千种,芯片各家 API 不一样,系统定制层每个厂商各有讲究。一个端侧模型想在这片土壤里跑顺,光适配就够小公司喝一壶——这件事没有捷径,只有一行行的代码、一台台机器的实测,一次次跑通之后被下一代芯片打破,再重新跑通。这种活算法工程师不爱干,但端侧这条路就是由这些不性感的活铺出来的。

模型公司还得面对一个更隐性的处境:手机厂、芯片厂、车厂本身就是产业链里强势的一方。被预装、被集成看上去是 " 赢了 ",但同时也意味着随时要面对被替换、被压价、被边缘化。Mistral 这两年在欧洲的处境多少能说明问题——它既要满足法国政府对 " 主权 AI" 的期待,又要应付微软入股之后被主导话语权的尴尬,左右都难做。

端侧换来了商业化更扎实的路径,但也意味着融入合作生态,成为产业链里若干环节中的一环。

大模型上半场比的是谁能把山攀得最高。下半场比的,是谁愿意走下山,走进具体的设备里、具体的场景里、具体的人面前。

去年那台跑在飞行模式下的安卓手机,今年我又见过一次。

在朋友的车上,离线导航和语音都跑在本地。

云在很远的地方。

但 AI 已经到了。

相关标签
虎嗅APP

虎嗅APP

有视角的商业资讯与交流平台

订阅

觉得文章不错,微信扫描分享好友

扫码分享

企业资讯

查看更多内容