华为发布开源AI容器技术Flex:ai:让闲置算力“动起来”,把一张卡切给多任务使用丨最前线

文|富充

编辑|苏建勋

当前,“算力不够用”和“算力被浪费”正在同时发生。

36氪获悉,近日举行的2025AI容器应用落地与发展论坛上,华为公司正式发布AI容器技术——Flex:ai,通过三项技术创新提升算力资源利用率。同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,共同开源此项产学合作成果。

本次发布并开源的XPU池化与调度软件Flex:ai,是基于Kubernetes(一个广泛使用的容器管理平台)构建。简单理解,它通过对GPU、NPU等智能算力资源的精细化管理与智能调度,一边把零散的算力统一成“资源池”,一边把不同规模的 AI 任务智能分配进去。

具体而言,Flex:ai 主要有三项核心能力:

在解决小模型训练推理场景资源浪费方面,华为与上海交通大学联合研发的XPU池化框架,将单张GPU或NPU算力卡按10%的精度切分为多个虚拟算力单元,实现“用多少,切多少”,使此类场景下的整体算力平均利用率提升30%;

为了将集群里不同机器上的空闲算力聚合起来,华为与厦门大学研发的跨节点拉远虚拟化技术,把集群内各节点的空闲XPU算力聚合形成“共享算力池”,让不具备智能计算能力的通用服务器也能通过网络调用远端GPU/NPU资源参与AI计算;

面对算力集群中多品牌、多规格异构算力资源统一调度的挑战,华为与西安交通大学共同推出的Hi Scheduler智能调度器,能够感知集群里多品牌、多规格算力资源的状态,根据任务优先级、算力需求等参数,自动选择合适的本地或远端资源,实现分时复用和全局最优调度,让系统决策“哪块卡该干哪份活”。

华为表示,此次Flex:ai的全面开源,将向产学研各界开发者开放所有核心技术能力,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案。