关于ZAKER 合作
科创板日报 1小时前

华为 AI 新技术揭晓!英伟达曾花 50 亿收购“同款”

《科创板日报》11 月 21 日讯(记者 黄心怡)在 2025AI 容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士在论坛上正式发布 AI 容器技术—— Flex:ai,同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,将此项产学合作成果向外界开源。

本次发布并开源的 Flex:ai XPU 池化与调度软件,是基于 Kubernetes 容器编排平台构建,通过对 GPU、NPU 等智能算力资源的精细化管理与智能调度,实现 AI 工作负载与算力资源的匹配,可大幅提升算力利用率。

当前,AI 产业高速发展催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显。

有业内人士对《科创板日报》记者表示,行业内算力资源的平均利用率仅为 30% 至 40%,甚至低于 30%。小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏 GPU/NPU 的通用服务器更是处于算力 " 休眠 " 状态。

AI 时代如何唤醒并高效利用算力集群资源,成为整个行业一大难题。而容器技术作为一种轻量级虚拟化技术,可以将模型代码、运行环境等打包成一个独立的、轻量级的镜像,实现跨平台无缝迁移。容器还可以按需挂载 GPU、NPU 算力资源,按需分配和回收 " 资源 ",提升集群整体资源利用率。

Gartner 的分析师表示,目前 AI 负载大多都已容器化部署和运行,据预测,到 2027 年,75% 以上的 AI 工作负载将采用容器技术进行部署和运行

在 AI 容器领域,业界已经有多家企业推出了不同产品。此前,英伟达于以 7 亿美元(约合人民币 49.7 亿元)收购了以色列 AI 公司 Run:ai。这家公司核心产品,正是基于 kubernnetes 构建的软件平台,用于调度 GPU 的计算资源,通过动态调度、池化、分片等技术,实现 GPU 资源利用率的优化,让深度学习训练与推理任务在企业级环境中高效运行。

本次华为发布并开源的 Flex:ai XPU 池化与调度软件,与 Run:ai 公司的核心产品相比,在虚拟化、智能调度等方面实现了突破。

具体来看,针对 AI 小模型训推场景中 " 一张卡跑一个任务 " 的资源浪费问题,华为与上海交通大学联合研发 XPU 池化框架,可将单张 GPU 或 NPU 算力卡切分为多份虚拟算力单元,切分粒度精准至 10%。这一技术实现了单卡同时承载多个 AI 工作负载,且通过弹性灵活的资源隔离技术,可实现算力单元的按需切分," 用多少,切多少 ",使此类场景下的整体算力平均利用率提升 30%,提高单卡服务能力。

针对大量通用服务器因缺乏智能计算单元而无法服务于 AI 工作负载的问题,华为与厦门大学联合研发跨节点拉远虚拟化技术。该技术将集群内各节点的空闲 XPU 算力聚合形成 " 共享算力池 ",一方面为高算力需求的 AI 工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,可将 AI 工作负载转发到远端 " 资源池 " 中的 GPU/NPU 算力卡中执行,从而促进通用算力与智能算力资源融合。

面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造 Hi Scheduler 智能调度器。该调度器可自动感知集群负载与资源状态,结合 AI 工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化 GPU、NPU 资源进行全局最优调度,实现 AI 工作负载分时复用资源。

周跃峰介绍,Flex:ai 的发布主要希望推动 AI 平民化。" 此前 AI 行业化落地的时候,医院的某一个科室往往买 8 张卡,最多是 16 张卡。这样小集群就很难进行粗放的 GPU 或 NPU 利用和调度。能不能把一张卡虚拟化成多张卡,以更小的算力单元进行调度,让每一张卡的算力能力能够充分释放出来,让 AI 能够平民化,这是 Flex:ai 软件希望解决的问题。"

周跃峰表示,Flex:ai 将在发布后同步开源在魔擎社区中。此外,华为还希望通过开源推动形成以 AI 容器技术为载体的资源高效利用新范式。开源的 Flex:ai 可以在产学研各界开发者的参与下,共同推动异构算力虚拟化与 AI 应用平台对接的标准构建,形成算力高效利用的标准化解决方案。

相关标签