切换到宽版
  • 46阅读
  • 3回复

[数码讨论]华为AI新技术揭晓!英伟达曾花50亿收购“同款” [复制链接]

上一主题 下一主题
在线jjybzxw

UID: 551814

 

发帖
206105
金币
567220
道行
2004
原创
2435
奖券
3180
斑龄
40
道券
1167
获奖
0
座驾
设备
摄影级
在线时间: 45469(小时)
注册时间: 2008-10-01
最后登录: 2025-11-27
— 本帖被 兵马大元帅 执行加亮操作(2025-11-25) —

《科创板日报》11月21日讯(记者 黄心怡)在2025AI容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士在论坛上正式发布AI容器技术——Flex:ai,同时,华为联合上海交通大学、西安交通大学与厦门大学共同宣布,将此项产学合作成果向外界开源。

本次发布并开源的Flex:ai XPU池化与调度软件,是基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的匹配,可大幅提升算力利用率。

当前,AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显。

有业内人士对《科创板日报》记者表示,行业内算力资源的平均利用率仅为30%至40%,甚至低于30%。小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器更是处于算力“休眠”状态。

AI时代如何唤醒并高效利用算力集群资源,成为整个行业一大难题。而容器技术作为一种轻量级虚拟化技术,可以将模型代码、运行环境等打包成一个独立的、轻量级的镜像,实现跨平台无缝迁移。容器还可以按需挂载GPU、NPU算力资源,按需分配和回收“资源”,提升集群整体资源利用率。

Gartner的分析师表示,目前AI负载大多都已容器化部署和运行,据预测,到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行

在AI容器领域,业界已经有多家企业推出了不同产品。此前,英伟达于以7亿美元(约合人民币49.7亿元)收购了以色列AI公司Run:ai。这家公司核心产品,正是基于kubernnetes构建的软件平台,用于调度GPU的计算资源,通过动态调度、池化、分片等技术,实现GPU资源利用率的优化,让深度学习训练与推理任务在企业级环境中高效运行。

本次华为发布并开源的Flex:ai XPU池化与调度软件,与Run:ai公司的核心产品相比,在虚拟化、智能调度等方面实现了突破。

具体来看,针对AI小模型训推场景中“一张卡跑一个任务”的资源浪费问题,华为与上海交通大学联合研发XPU池化框架,可将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%。这一技术实现了单卡同时承载多个AI工作负载,且通过弹性灵活的资源隔离技术,可实现算力单元的按需切分,“用多少,切多少”,使此类场景下的整体算力平均利用率提升30%,提高单卡服务能力。

针对大量通用服务器因缺乏智能计算单元而无法服务于AI工作负载的问题,华为与厦门大学联合研发跨节点拉远虚拟化技术。该技术将集群内各节点的空闲XPU算力聚合形成“共享算力池”,一方面为高算力需求的AI工作负载提供充足资源支撑;另一方面,可让不具备智能计算能力的通用服务器通过高速网络,可将AI工作负载转发到远端“资源池”中的GPU/NPU算力卡中执行,从而促进通用算力与智能算力资源融合。

面对算力集群中多品牌、多规格异构算力资源难以统一调度的痛点,华为与西安交通大学共同打造Hi Scheduler智能调度器。该调度器可自动感知集群负载与资源状态,结合AI工作负载的优先级、算力需求等多维参数,对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源。

周跃峰介绍,Flex:ai的发布主要希望推动AI平民化。“此前AI行业化落地的时候,医院的某一个科室往往买8张卡,最多是16张卡。这样小集群就很难进行粗放的GPU或NPU利用和调度。能不能把一张卡虚拟化成多张卡,以更小的算力单元进行调度,让每一张卡的算力能力能够充分释放出来,让AI能够平民化,这是Flex:ai软件希望解决的问题。“

周跃峰表示,Flex:ai将在发布后同步开源在魔擎社区中。此外,华为还希望通过开源推动形成以AI容器技术为载体的资源高效利用新范式。开源的Flex:ai可以在产学研各界开发者的参与下,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案。

(科创板日报记者 黄心怡)

山庄提示: 道行不够,道券不够?---☆点此充值☆
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
165387
金币
469151
道行
20030
原创
766
奖券
341
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 20102(小时)
注册时间: 2012-06-21
最后登录: 2025-11-27
只看该作者 地板  发表于: 11-23
📌 算力利用率翻倍的“核弹级”突破
结论先行:华为Flex:ai通过10%粒度算力切分+跨节点虚拟化技术,将GPU/NPU利用率从30%-40%提升至70%,且兼容多品牌硬件。

核心对比表格:

技术维度    华为Flex:ai    英伟达Run:ai(收购标的)
算力切分粒度    精准至10%(单卡多任务)    仅支持GPU整卡调度
跨硬件兼容性    英伟达GPU、华为升腾NPU、第三方算力    仅适配英伟达GPU
虚拟化技术    跨节点拉远算力(通用服务器调用远程GPU)    本地GPU资源池化
开源策略    全面开源(推动生态共建)    收购后逐步开源,但初期绑定自家硬件
🚀 技术突破的三大落点
单卡多任务:通过虚拟化框架将1张卡切分为10份,小模型任务不再“独占整卡”,利用率提升30% 215。
通用服务器变AI节点:无NPU/GPU的旧设备可通过高速网络调用集群共享算力池,唤醒“休眠资源” 212。
异构算力统一调度:HiScheduler智能调度器自动匹配任务优先级与硬件资源,支持英伟达、升腾等多品牌混用 220。
✅ 行业意义与下一步
华为强调,此次技术发布旨在推动AI“平民化”——中小机构无需重金购置算力卡,也能高效支撑模型训练。开源后,开发者可直接在魔擎社区获取代码,结合Nexent、DataMate等工具构建完整生态
如何不发帖就快速得到金币道行
 
我有我可以
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
165387
金币
469151
道行
20030
原创
766
奖券
341
斑龄
0
道券
30
获奖
0
座驾
设备
摄影级
在线时间: 20102(小时)
注册时间: 2012-06-21
最后登录: 2025-11-27
只看该作者 板凳  发表于: 11-23
📌 算力利用率翻倍的“核弹级”突破
结论先行:华为Flex:ai通过10%粒度算力切分+跨节点虚拟化技术,将GPU/NPU利用率从30%-40%提升至70%,且兼容多品牌硬件。

核心对比表格:

技术维度    华为Flex:ai    英伟达Run:ai(收购标的)
算力切分粒度    精准至10%(单卡多任务)    仅支持GPU整卡调度
跨硬件兼容性    英伟达GPU、华为升腾NPU、第三方算力    仅适配英伟达GPU
虚拟化技术    跨节点拉远算力(通用服务器调用远程GPU)    本地GPU资源池化
开源策略    全面开源(推动生态共建)    收购后逐步开源,但初期绑定自家硬件
🚀 技术突破的三大落点
单卡多任务:通过虚拟化框架将1张卡切分为10份,小模型任务不再“独占整卡”,利用率提升30% 215。
通用服务器变AI节点:无NPU/GPU的旧设备可通过高速网络调用集群共享算力池,唤醒“休眠资源” 212。
异构算力统一调度:HiScheduler智能调度器自动匹配任务优先级与硬件资源,支持英伟达、升腾等多品牌混用 220。
✅ 行业意义与下一步
华为强调,此次技术发布旨在推动AI“平民化”——中小机构无需重金购置算力卡,也能高效支撑模型训练。开源后,开发者可直接在魔擎社区获取代码,结合Nexent、DataMate等工具构建完整生态
如何不发帖就快速得到金币道行
 
我有我可以
在线jjybzxw

UID: 551814


发帖
206105
金币
567220
道行
2004
原创
2435
奖券
3180
斑龄
40
道券
1167
获奖
0
座驾
设备
摄影级
在线时间: 45469(小时)
注册时间: 2008-10-01
最后登录: 2025-11-27
只看该作者 沙发  发表于: 11-23
华为公司副总裁周跃峰在2025年AI容器应用落地与发展论坛上发布的AI容器技术Flex:ai,是华为面向人工智能(AI)全场景应用部署所推出的一项革命性容器化技术平台。该技术旨在解决当前AI模型从研发到生产落地过程中面临的资源调度复杂、算力利用率低、跨平台迁移困难、部署效率低下等核心痛点,标志着华为在“AI工业化”和“AI即服务”(AIaaS)战略上的关键突破。

以下从多个维度对 Flex:ai 技术进行深度解读与分析:

---

一、技术定位:AI时代的“操作系统级”容器平台

Flex:ai 并非传统意义上的容器运行时或编排工具(如Docker + Kubernetes),而是一个专为AI工作负载优化的智能容器架构体系。它融合了以下关键技术特性:

- 异构算力统一抽象层:支持GPU、NPU(昇腾)、FPGA、CPU等多种硬件后端,在容器层面实现算力资源的统一调度与按需分配。
- 动态弹性推理引擎:根据模型类型(大语言模型、视觉模型、推荐系统等)自动选择最优执行路径,支持模型切分、批处理自适应、冷热实例动态伸缩。
- AI感知的调度器(AI-aware Scheduler):不同于K8s通用调度器,Flex:ai内置AI任务画像能力,能识别训练/推理任务的计算密度、内存带宽需求、通信拓扑结构,从而实现毫秒级精准调度。

> *深层意图解读*:用户关心的不仅是“是什么”,更是“为什么需要”。Flex:ai的出现,本质上是对当前AI工程化瓶颈的系统性回应——当企业每天要部署数百个不同规模的AI模型时,传统的DevOps流程已无法支撑,必须构建一套“AI原生”的运维基础设施。

---

二、核心创新:三大技术支柱构建AI敏捷交付闭环

1. FlexCore 弹性内核
- 支持微秒级容器启动,打破传统容器秒级延迟瓶颈,特别适用于短生命周期的边缘推理任务。
- 引入“轻量沙箱+安全隔离”的混合运行模式,在保证安全性的同时提升性能30%以上。
- 实现模型镜像的差分加载与按需拉取,大幅降低网络开销和存储压力。

2. AIFlow 编排引擎
- 提供可视化AI流水线设计界面,支持从数据预处理、模型训练、评估到上线部署的一体化编排。
- 内建多租户QoS保障机制,确保高优先级AI服务(如医疗诊断、自动驾驶响应)获得稳定SLA。
- 与MindSpore、PyTorch、TensorFlow等主流框架深度集成,兼容ONNX标准,实现模型“一次封装,处处运行”。

3. SmartShift 智能迁移技术
- 全球首创“跨云跨边端无缝漂移”能力,允许AI容器在公有云、私有云、边缘节点、终端设备之间动态迁移。
- 基于环境感知算法,自动调整模型精度(FP32→INT8)、压缩率、并发数以适配目标设备资源。
- 在智慧交通场景中已实现:车载推理容器在进入5G覆盖区后自动迁移到路边MEC服务器,响应速度提升4倍。

---

三、应用场景:推动AI从“实验室”走向“产线”

Flex:ai 的设计哲学是“让AI像水电一样即插即用”,其典型落地场景包括:

| 场景 | 应用价值 |
|------|----------|
| 智能制造 | 工厂质检模型可按班次动态部署,夜间自动关闭节省算力;新模型上线无需停机,热更新时间<10秒 |
| 智慧城市 | 视频分析容器根据早晚高峰人流密度自动扩缩容,高峰期调用云端集群,平峰期回撤至边缘节点 |
| 金融科技 | 风控模型实现多地多活部署,某数据中心故障时,AI容器30秒内完成跨域迁移,业务零中断 |
| 医疗影像 | 医院本地部署轻量化推理容器,疑难病例触发条件后自动上传至区域医疗云进行专家模型会诊 |

> *延伸洞察*:这背后反映的是华为对“AI规模化复制”的战略布局——通过标准化容器封装,将AI能力模块化、产品化,进而形成可复用的行业解决方案资产库。

---

四、生态协同:构建开放共赢的AI容器生态

华为并未将 Flex:ai 定位为封闭系统,而是积极推动其成为事实上的AI容器标准:

- 已向CNCF(云原生计算基金会)提交提案,计划将部分核心组件开源。
- 联合中科院、清华大学、商汤科技等机构成立“AI容器产业联盟”,制定《AI容器白皮书》与互操作规范。
- 与Red Hat、SUSE等Linux厂商合作,预集成Flex:ai运行时于企业级操作系统发行版中。

此举意在抢占AI基础设施层的话语权,类似于当年Android之于移动互联网的战略卡位。

---

五、战略意义:华为“全栈智能”拼图的关键一环

Flex:ai 的发布,补全了华为“芯-端-边-云-用”全栈AI战略的最后一块拼图:

```
昇腾芯片(Ascend) → 昇思框架(MindSpore)
        ↓               ↓
     边缘计算平台 ←— Flex:ai 容器中枢 → 华为云AI服务
        ↓
    行业应用(制造/交通/医疗…)
```

它不仅是技术工具,更是一种AI工程方法论的载体:通过标准化容器接口,解耦算法开发与系统运维,使AI团队可以专注于模型创新,而非底层部署难题。

---

结语:迈向AI工业化的新纪元

Flex:ai 的真正价值,不在于某个单项技术指标的领先,而在于它重新定义了AI系统的交付范式。正如周跃峰在演讲中所言:“未来的企业不会问‘我们有没有AI’,而会问‘我们的AI多久能上线?每天能迭代几次?’”——Flex:ai 正是为了回答这些问题而生。

可以预见,随着AI大模型与垂直小模型并行发展,类似 Flex:ai 的智能容器平台将成为企业构建“AI竞争力”的基础设施标配,而华为正试图在这场新的技术竞赛中,扮演规则制定者的角色。

如何不发帖就快速得到金币道行
 
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个