作者 | 乔钰杰
编辑 | 袁斯来
硬氪获悉,国内全自研 GPGPU 创新企业「北京行云集成电路有限公司」(以下简称 " 行云 ")宣布连续完成 Pre-A 及 Pre-A+ 多轮融资,融资金额超 4 亿元人民币。五源资本、赛富投资基金、春华资本联合领投,以及北京、江苏等地方国资、佰维存储(688525)、金沙江联合带动知名 GPU 企业创始人家办、创维资本等产业资本跟投。云岫资本连续多轮服务并担任下一轮独家融资财务顾问。
北京行云集成电路有限公司成立于 2023 年 8 月,专注针对大模型的新一代推理芯片,致力于使用非 3D DRAM 架构打造超大显存规格、CUDA 兼容的全自研 GPGPU 产品,推动 AI 大模型推理的普惠化。
行云创始人季宇博士,清华大学计算机系博士," 华为天才少年 " 计划的一员,曾在华为海思深度参与昇腾 AI 芯片的编译器与架构研发。CTO 余洪敏博士,中科院半导体所博士,曾主导百度昆仑芯、海思昇腾等多款芯片的研发与量产,拥有十余款芯片成功流片经验。
当前,在大模型架构持续演进的背景下,算力系统的瓶颈正在发生结构性变化。
季宇在接受硬氪采访时表示,当前算法侧的演进正在重塑硬件设计逻辑。以 MoE(Mixture of Experts)为代表的稀疏模型,在计算效率上更具优势,但需要预先加载更多专家参数,使得整体对内存容量的需求显著高于传统 Transformer 稠密模型。
大模型(千亿 / 万亿参数)的显存需求已从 GB 级跃升至 TB 级,这一过程中,系统成本结构也随之重构——按 GB 计价的显存成本,正逐步超过算力芯片本身,成为主导项。因此," 降本的关键已经不在算力,而在显存 " 季宇称。
基于这一判断,行云选择了一条与主流路径不同的技术路线:放弃成本高昂的 HBM(高带宽内存),转而采用 LPDDR 乃至 NAND(SSD 颗粒)等更低成本的存储介质作为显存介质。通过介质替换,使显存成本降低 1 到 2 个数量级。
但低成本介质也意味着单颗粒带宽较低。为弥补这一短板,行云在架构上采用多颗粒、多通道并行的设计,通过规模化堆叠将整体带宽提升至 TB 级别,以满足大模型推理对数据吞吐的需求。
季宇表示,随着稀疏化和 MoE 架构的发展,模型对带宽的绝对需求正在下降,系统设计不再需要一味追求极致带宽,而是可以通过软硬件协同,实现成本与效率之间的平衡。
这种思路也体现在行云的整体技术策略中。季宇强调,公司真正的稀缺性并不在单一芯片指标,而在于系统级的设计能力。通过诸如 Prefill/Decode 分离(PD 分离)、KV Cache 稀疏化等工程手段,行云能够更灵活地适配 AI 应用形态的快速变化,从早期的 Chatbot 到当前逐步兴起的 Agent 场景,降低因芯片研发周期较长所带来的技术滞后风险。
产品验证层面,行云此前推出的 " 褐蚁一体机 ",已尝试用 CPU 与通用内存构建低成本推理方案,验证稀疏模型在非高端硬件上的可行性。目前,该方案已在 DeepSeek 的本地化部署场景中落地。

接下来,公司将把重心转向自研芯片的推进。季宇表示,公司今年的核心目标是完成芯片流片,并尽快推向市场,以芯片产品作为商业化的主要抓手。
当下,Open Claw 的现象级传播也揭示了市场对消费级硬件承载高质量 AI 的巨大需求。季宇表示,行云希望通过其芯片产品,将低成本、高质量的万亿级模型算力真正落地到如龙虾机等端侧设备,突破当前端侧仅能运行 100B 小模型的局限,为消费电子市场打开新的想象空间。
CTO 余洪敏表示,行云的设计优先级已从追求单芯片极致性能,转变为从板级系统角度追求可扩展性与供应链稳定性。通过分布式设计和采用成熟工艺与低成本存储,在系统层面实现成本最优与性能体验一致,这是公司实现算力普惠的重要基础。
投资方观点
峰瑞资本副总裁李罡表示:作为天使轮投资人,行云团队从 23 年创业开始,对 AI 芯片(特别是大模型环境下的 AI 芯片)有着极为前瞻的视角和思路。在近三年的模型和应用的快速变化中,我们看到行云针对下一代通用大模型的芯片方案和前瞻的设计思想,不断得到验证,始终领先时代半步。
五源资本表示:行云是 AI 芯片领域少有的‘第一性原理’思考者,季宇博士 24 年就前瞻性地洞察到 MoE 稀疏架构下硬件瓶颈从算力向显存迁移的结构性转变——放弃 HBM、以 LPDDR 乃至 NAND 重构显存成本,不是渐进优化,而是通过系统级的软硬件协同设计能力推动行业范式创新。2026 年以来随着 AI 模型 coding 和 agent 能力持续增强,AI 推理需求爆发,OpenClaw 等 Agent 的现象级破圈,正在将推理算力需求从云端拉向多端,从程序员推向大众,高效低成本的推理能力成为行业刚需。伴随未来推理需求的指数级增长,行云的技术路径将成为推动算力普惠的重要基础设施。
赛富投资基金负责科技赛道的管理合伙人蒋驰华表示:在 AI 大模型向万亿参数演进的过程中,降本的关键已经不在算力,而在显存和系统的架构,特别是在国产算力受限的前提下。季宇和行云团队展现出了罕见的系统级工程视野,他们跳出了盲目堆砌 HBM 的行业定式,通过 LPDDR/NAND 等介质替换与并行架构设计,将显存和系统成本打下来一到两个数量级,进而实现单 Token 成本极值,符合行业演进的方向。我们始终聚焦 AI 与具身智能领域的底层颠覆者。行云兼具前瞻的架构创新与扎实的落地能力,赛富很荣幸能在这一轮重仓支持。我们期待行云的新一代推理芯片彻底重构算力成本模型,真正实现大模型推理在云端与端侧的全面普惠。
春华资本表示:在国产算力生态加速构建的大背景下。行云敏锐地将设计重心锚定在显存成本重构上,以 LPDDR 与 NAND 替代 HBM、通过多通道并行架构弥补单颗粒带宽不足,本质上是在重新定义推理芯片的成本架构。季宇博士对 AI 芯片架构的演进方向有着超越行业惯性的深度思考,他对‘降本关键在显存而非算力’的判断,始终领先行业共识半步,且每一步都在被市场持续验证;余洪敏博士作为从海思昇腾到百度昆仑芯一路走来的芯片老兵,对芯片从设计到量产的每一个环节都有实战积累。这种‘敢想’与‘能做’的结合,让行云具备了从架构创新到产品交付的完整闭环能力。我们期待行云的首颗自研芯片顺利流片,开启 AI 推理算力的新一轮成本革命。
佰维存储科技股份有限公司副总经理王灿:在大模型从通用 AI 向 Agent 形态演进的发展阶段,季宇博士展现了极具前瞻性的系统级洞察。他精准地识别出:大模型推理的结构性瓶颈已不再仅仅是算力本身,而是制约规模化落地的更低成本的存储。行云的核心逻辑非常清晰——通过介质替换与架构创新,以低成本的 LPDDR 乃至 NAND 介质挑战昂贵的 HBM 霸权,这不仅是物理介质的更迭,更是对大模型推理成本结构的底层重构。围绕这一核心路径,行云构建了极致的软硬件协同设计,通过 PD 分离、分布式扩展等手段,在系统层面实现了性能与成本的平衡。芯片行业,工程经验决定了从‘实验室架构’到‘商业化量产’的跨度。行云团队在昇腾、昆仑芯等顶尖项目上积淀的深厚流片与量产经验,是其确定性的来源。在 AI Agent 爆发的当下,我坚信行云能够真正击穿算力成本,让高质量的万亿级模型实现真正的算力普惠。