关于ZAKER 合作
冒泡泡的鱼儿 3小时前

推理提速 8 倍的盘古 5.5, 为何负责人却选择离开华为 ?

推理效率提升 8 倍、参数扩至 7180 亿,盘古大模型刚在 2025 年 6 月迎来最大全面升级,不到一年后,华为诺亚方舟实验室主任、盘古负责人王云鹤确认离职。变化发生得太近,数据还停留在刷新节点。

盘古大模型 5.5 刚在 2025 年 6 月发布会上公开,推理效率被宣布提升 8 倍,NLP 主力模型达到 7180 亿参数。不足十个月后,王云鹤在朋友圈写下 " 怀着不舍的心告别曾经奋斗过的地方 ",确认离职。前者是系统加速的数字,后者是人离开的动作。

发布会现场画面里,华为云 CEO 张平安公布五大基础模型全面升级——自然语言、视觉、多模态、预测、科学计算。那是盘古最完整的一次亮相。再看朋友圈,文字停在过去式," 希望华为越来越好 "。技术参数还在往上刷,署名者却正准备离场。

另一个数据也容易被忽略。718B 其实指 7180 亿参数,由 256 个专家组成的 MoE 架构,主打深度思考,定位对标 OpenAI o3、谷歌 Gemini 等顶级模型。几乎同一时间,王云鹤的姓名出现在 " 负责人 " 一栏。其后一个周期,这个名字在模型首页消失。

如果回到他自己研究的起点,GhostNet 那篇论文至今被引用超过 6000 次。那是 2020 年的成果,用更低成本算出更多特征的轻量网络。之后的 Vision Transformer 综述引用超 5000 次。算法在提速,人也在卷入。

2017 年,他作为华为北京部门第一个实习生加入诺亚方舟。9 年时间,职级从高级工程师升至实验室主任。2025 年 3 月,在姚骏内部调岗后,接任主任并主导盘古全线。发布会上的推理速度跃升,就是任期内完成的最后一轮迭代。

盘古 5.5 的视觉模型参数达到 300 亿,支持图像、红外、雷达、光谱、激光点云五类输入,这是业内首次把多模态感知融合成统一训练。当地媒体在报道时用了 " 泛视觉 " 这个词,表示感知范围比以往更宽。现实里,这套系统已在政务、金融、制造、医疗等 500 余场景落地。

同样在他的任内,盘古实现自适应 " 快慢思考 " 技术——模型可根据问题难易自动切换推理路径,从而在复杂问答中降低幻觉率。这项技术是盘古 5.5 最受关注的突破,发布文件中占据了独立章节。

离职感言显得克制。" 感谢领导们同事们的支持,让我在波涛汹涌的 AI 时代得以快速成长。" 落在文字里的,是过去时;落在外界视野里的,是此时此刻的人事变动。同月,阿里千问的负责人林俊旸、小米 MiMo 的罗福莉也完成离职或转岗。

他在科研层面的节奏没停。2026 年仍公开 6 篇论文,《DLLM Agent: See Farther, Run Faster》开启扩散语言模型的新路径,另一篇探讨世界模型量化。在专业社区,他的账号在讨论扩散模型如何挑战自回归语言模型建模方式,仍保持更新。

从工程到论文,从 GhostNet 的轻量网络,到盘古 Ultra MoE 的万亿规模,王云鹤经历了硬件瓶颈与算法架构的两次跃迁。即便如此,朋友圈那句 " 怀着不舍的心告别曾经奋斗过的地方 " 还是让人停顿。系统正在加速,主导者却抽身。

盘古 5.5 的全栈运行底座基于昇腾芯片,这是他在 7 月澄清开源争议时亲自写下的两点声明之一:一是新架构完全基于昇腾训练;二是所用组件遵守开源规范。声明结束,开源节奏持续,但不到一年后他本人已不在实验室体系内。

技术上线、开源节点与离职时间三处交叠。6 月推理效率提升 8 倍,7 月开源 Pro MoE 架构,10 月 Ultra MoE 权重公开,每次都有王云鹤名字。2026 年 3 月,消息定格在朋友圈。数据与人事,走在不同方向。

推理提速 8 倍、参数暴增至 7180 亿之后,发布会的热度尚未散,而负责人已离开。盘古 5.5 的速度还在刷新,王云鹤的脚步却停在朋友圈。这个八倍的提速和这一次的离场,会不会正是同一周期下的两种加速?

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容

企业资讯

查看更多内容