文|富充
编辑|苏建勋
当前," 算力不够用 " 和 " 算力被浪费 " 正在同时发生。
36 氪获悉,近日举行的 2025AI 容器应用落地与发展论坛上,华为公司正式发布 AI 容器技术—— Flex:ai,通过三项技术创新提升算力资源利用率。同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,共同开源此项产学合作成果。
本次发布并开源的 XPU 池化与调度软件 Flex:ai,是基于 Kubernetes(一个广泛使用的容器管理平台)构建。简单理解,它通过对 GPU、NPU 等智能算力资源的精细化管理与智能调度,一边把零散的算力统一成 " 资源池 ",一边把不同规模的 AI 任务智能分配进去。
具体而言,Flex:ai 主要有三项核心能力:
在解决小模型训练推理场景资源浪费方面,华为与上海交通大学联合研发的 XPU 池化框架,将单张 GPU 或 NPU 算力卡按 10% 的精度切分为多个虚拟算力单元,实现 " 用多少,切多少 ",使此类场景下的整体算力平均利用率提升 30%;
为了将集群里不同机器上的空闲算力聚合起来,华为与厦门大学研发的跨节点拉远虚拟化技术,把集群内各节点的空闲 XPU 算力聚合形成 " 共享算力池 ",让不具备智能计算能力的通用服务器也能通过网络调用远端 GPU/NPU 资源参与 AI 计算;
面对算力集群中多品牌、多规格异构算力资源统一调度的挑战,华为与西安交通大学共同推出的 Hi Scheduler 智能调度器,能够感知集群里多品牌、多规格算力资源的状态,根据任务优先级、算力需求等参数,自动选择合适的本地或远端资源,实现分时复用和全局最优调度,让系统决策 " 哪块卡该干哪份活 "。
华为表示,此次 Flex:ai 的全面开源,将向产学研各界开发者开放所有核心技术能力,共同推动异构算力虚拟化与 AI 应用平台对接的标准构建,形成算力高效利用的标准化解决方案。