关于ZAKER 合作
手机中国 18小时前

华为正式宣布:开源盘古 7B 稠密和 72B 混合专家模型

【CNMO 科技消息】6 月 30 日,华为正式宣布开源盘古 70 亿参数的稠密模型、盘古 Pro MoE 720 亿参数的混合专家模型和基于昇腾的模型推理技术。华为表示,此举是华为践行昇腾生态战略的又一关键举措,将推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

CNMO 获悉,盘古 ProMoE72B 模型权重、基础推理代码和基于昇腾的超大规模 MoE 模型推理代码已正式上线开源平台。盘古 7B 相关模型权重与推理代码将于近期上线开源平台。

华为曾披露,盘古 Pro MoE 大模型,在参数量仅为 720 亿、激活 160 亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性能,甚至拥有不亚于千亿级模型的性能表现。在 SuperCLUE 最新公布的 2025 年 5 月排行榜上,位居千亿参数量以内大模型排行并列国内第一。

此外,有华为技术专家称,盘古 72B 是兼顾性能与推理成本的黄金尺寸,最适合行业用户用 AI 改造业务。

据 CNMO 了解,在近期的华为开发者大会上,华为云发布了盘古大模型 5.5,对 NLP(自然语言处理)、CV(计算机视觉)、多模态、预测、科学计算五大基础模型进行升级。同时,基于 CloudMatrix 384 超节点的新一代昇腾 AI 云服务全面上线。

相关标签

觉得文章不错,微信扫描分享好友

扫码分享

热门推荐

查看更多内容