文 | 深流研究所,作者 | 路路
过去一个月,全球最大模型聚合平台 OpenRouter 上,开发者调用量最高的五个模型里,有四个来自中国公司。对很多海外创业团队和独立开发者来说,中国模型已经不只是 " 可选项 ",而是更便宜、也足够好用的默认选项。
诸如 OpenRouter 这样的平台让模型服务变得更标准化,也让价格差异变得更直接。当模型能力逐步接近之后,谁能把推理服务做得更便宜,就更容易进入开发者的默认选择清单。
问题也因此变得更具体:中国模型为什么更容易在全球 API 市场上报出低价?
表面上看,这是模型能力和价格的胜利;再往下拆,会发现真正拉开差距的,不只是算法和工程,而是更底层的变量——电。
更准确地说,是电价、电网,以及围绕数据中心形成的整套基础设施。
一度电只差几美分,一年能差出 1600 万美元
过去两年,大模型竞争最受关注的是训练:谁拿到更多芯片,谁投入更多资本开支,谁就更有机会训练出更强的模型。
随着模型能力逐步接近、调用量迅速增长,商业竞争的重心正在从训练转向推理。
训练更像一次性投入,模型练完之后,这部分成本基本沉没。
推理不同,每一次对话、代码补全和 API 调用,都会实时消耗算力、占用机房、吃掉电力。调用量越大,持续性的运营支出就越重要。
IEA 及多家研究机构测算,全球数据中心用电将从 2024 年的约 415 TWh 增长到 2030 年的 945 TWh。五年时间,几乎翻倍,达到相当于日本当前全部电力消费的水平。

美国的数据同样醒目。2024 年,美国数据中心用电约 183 TWh。到 2030 年,这个数字预计会升到 426 TWh。
增长最快的不是普通服务器,而是 AI 服务器。IEA 提到,AI 目前约占数据中心电力消耗的 5% 到 15%,到 2030 年可能升至 35% 到 50%。Gartner 的预测更直接:AI 优化服务器的耗电将从 2025 年的 93 TWh 增至 2030 年的 432 TWh,占数据中心总耗电的比重从 21% 升到 44%。
这组数字说明,电不再只是数据中心的背景条件,而正在进入 AI 服务的成本表。
训练决定模型上限,推理决定模型能不能卖出去、卖得起量、卖得持久;而电力,正成为推理业务里最容易被规模放大的差异项。
这种差异已经能在公开电价中看到。按 2025 年第三季度的公开口径,中国工业用电价格约为每千瓦时 0.115 美元,美国约 0.154 美元,德国约 0.276 美元。这个口径并不完全等同于数据中心最终到手电价,但足以说明方向:中国仍处在主要经济体的低位区间。

如果假设一个大型推理集群年用电量为 100 GWh,仅电力一项,中国的年成本约 1150 万美元,美国约 1540 万美元,德国约 2760 万美元。这还没算冷却系统和其他基础设施能耗。对一个高负载、靠海量调用摊薄成本的 API 业务来说,这种价差最终会传导到报价能力上。
当然,电价差不直接等于 Token 价差。
芯片成本、集群利用率、模型架构、工程优化和渠道策略,都会共同决定最终价格。更稳妥的判断是:在推理时代,电力已经从背景条件,变成 AI 服务定价里的关键变量之一。
中国煤电占比从 72% 降到 55%,更便宜的电从哪来
如果继续追问,中国为什么能提供相对更低的推理电力成本,答案就不能只停留在 " 工业电价更便宜 " 这一层。
更深一层的原因,是中国电力体系过去十多年形成的一种组合能力:一边用大规模、稳定的电源支撑工业体系,一边用快速扩张的新能源拉低系统边际成本。
煤电仍然是这套系统里不能绕开的部分。它的意义不只是便宜,更在于稳定、可预测,能够为全年 7 × 24 小时运行的数据中心提供基荷能力。
真正改变成本方向的,则是风电和光伏过去十年的快速扩张。
2015 年,煤电仍占中国发电量的约 72%。到 2025 年,这一比例降至约 55%。
与此同时,包括水电、风电、光伏和核电在内的低碳电力占比提升到 42% 以上。国家能源局数据还显示,2025 年可再生能源装机约占全国总装机的 60%,风电和太阳能装机合计达到 18.4 亿千瓦。

这组变化的意义,不只是 " 更清洁 "。更重要的是,更多低边际成本的电力开始进入系统。对需要持续供电、且电力成本会随着调用量线性放大的 AI 推理业务来说,这意味着整个供电体系能够在稳定性之外,提供越来越有竞争力的成本条件。
IEA 在《2025 年世界能源投资》报告中预计,2025 年全球太阳能光伏投资将达到 4500 亿美元。它已经超过石油生产,成为全球能源投资最大的单一类别。

中国在风光装机和相关制造链条上的提前投入,也在从产业优势转化为一种更具体的成本环境。决定推理成本的,不是某一种电源。决定它的,是一个能够长期提供相对低价、稳定、且绿电占比持续提升的系统。
也因此,中国模型的价格优势并不只是一次价格战。它背后更像是一种长期条件:模型公司既能在电价更低的市场里部署推理业务,也能在一个供给扩张更快、稳定性更强的电力系统里做长期投入。
八大枢纽、45 条特高压,低价电才变成低价 Token
前两层回答的是 " 中国为什么能发出更便宜的电 ",接下来更关键的一层问题是:这些电如何真正进入算力成本?
中国的能源资源和算力需求并不分布在同一地理空间。风电和光伏资源更多集中在新疆、甘肃、内蒙古等西北地区。而数据需求、产业客户和互联网公司,则更集中在长三角、珠三角和京津冀。
对 AI 数据中心来说,仅有低价电并不够。关键还在于,能不能把这些电稳定送到需要算力的地方,或者干脆把算力组织到更靠近能源的一侧。
这也是特高压输电网络和 " 东数西算 " 更值得关注的地方。
到 2025 年底,中国已建成 45 条特高压输电线路;" 十四五 " 期间,特高压直流线路总长度从 2.8 万公里增长到超过 4 万公里,西电东送能力达到 3.4 亿千瓦以上。
它的意义不只是工程规模大,而是让低成本电力能够跨区域配置,而不是被锁定在发电地。
2022 年启动的 "东数西算 " 工程,则是在全国布局八个国家算力枢纽节点和十个国家数据中心集群。它把东部的数据和算力需求,引导到西部能源更充沛、土地和电力成本更低的区域承接。它提供的也不是简单的 " 机房西迁 ",而是一套把能源、网络、数据中心和时延要求放进同一调度框架的组织能力。

对于高频、标准化、低毛利的推理 API 场景来说,真正稀缺的,不只是低价电,而是把低价电稳定变成可用算力的能力。也不是所有模型公司都能把这种优势兑现成价格。真正更容易吃到这部分红利的,往往是那些同时具备大规模调用量、较高集群利用率、较强工程优化能力,以及全球分发渠道的公司。
这也解释了为什么中国模型会在 OpenRouter 这样的全球 API 平台上更容易形成价格优势。
海外开发者看到的是更低的 Token 价格;支撑这份价格的,除了模型架构和工程优化,还包括一套更不显眼、但越来越重要的底层条件:更低的电价、更强的跨区输电能力,以及把算力向能源富集区重新组织起来的基础设施体系。
黄仁勋说,未来的数据中心将成为 "Token 工厂 "。马斯克在接受采访时直言:" 中国的发电量看起来就像一枚火箭进入轨道,而美国的发电量却停滞不前。" 当全球最激进的 AI 创业者和最大的 AI 芯片供应商同时指向同一个变量时,答案已经很清楚:谁能更高效地将电转化为 Token,谁就握住了定义 AI 下半场的沉默底牌。