切换到宽版
  • 32阅读
  • 2回复

[数码讨论]悄悄发育」的华为 AI,这次放了个「大招」[5P] [复制链接]

上一主题 下一主题
在线jjybzxw

UID: 551814

 

发帖
167724
金币
273165
道行
2004
原创
2404
奖券
2775
斑龄
35
道券
1005
获奖
0
座驾
设备
摄影级
在线时间: 38174(小时)
注册时间: 2008-10-01
最后登录: 2025-07-12
— 本帖被 兵马大元帅 执行加亮操作(2025-06-22) —

华为在 AI 领域,这次看起来是要全面发力了。
6 月 20 日下午,华为开发者大会 HDC 2025 开幕。两个多小时的主题演讲,AI 成了绝对的主角:不仅华为云拿出新一代昇腾 AI 云服务和全面升级的盘古大模型 5.5,华为终端也首次推出鸿蒙智能体框架,目标直指端侧智能体生态。
过去两年,高端 AI 芯片的「卡脖子」确实让华为在 AI 浪潮里显得有些被动。华为虽然构建了以盘古大模型为基础的 AI 技术体系,但实事求是地说,整体能力并没有达到最顶尖那层。
但经过两年的沉淀与发展,随着自研 AI 算力体系的快速进步,盘古大模型的核心能力,正一步步追近 GPT、Gemini、Deepseek 等全球第一梯队的玩家。更重要的是,华为正在通过鸿蒙、盘古的体系,将大模型的能力融入千行百业的应用,推动用户体验与行业生产力的智能化升级。
盘古大模型 5.5:昇腾底座训出「世界级」选手
在 HDC 2025 上,华为云带来了两项关于 AI 的核心发布:能力显著提升的新一代盘古大模型 5.5,以及支撑其训练的新一代昇腾 AI 云服务。
盘古大模型 5.5 对其五大基础模型——自然语言处理(NLP)、计算机视觉(CV)、多模态、预测、科学计算——进行了全面升级。

盘古大模型 5.5 丨来自:HDC 2025
首先是盘古自然语言处理NLP大模型。全新的 718B 深度思考模型是一个由 256 个专家组成的 MoE 大模型,它在知识推理、工具调用、数学等关键能力上有显著增强。
模型本身也进行了优化,提升了高效长序列处理、降低幻觉、融合快慢思考、增强 Agent 能力。一个关键创新是自适应快慢思考合一技术:通过特定训练方法,模型能根据问题难度自动切换模式——简单问题快速回答,复杂问题则深度思考。华为表示,这使整体推理效率提升了 8 倍。

盘古大模型5.5丨来自:华为云
同时还推出了深度研究 DeepDiver,通过长链难题合成、渐进式奖励等关键技术,可以在网页搜索、常识性问答等应用上获得很高的执行效率,如可以在 5 分钟内完成超过 10 跳的复杂问答、生成万字以上的专业调研报告等,大幅提升工作效率。
除了 718B 深度思考模型,盘古还推出了 72B 的 Pro MoE 大模型,以及更轻量的 7B 级小模型盘古 Embedding。
值得一提的是 Pro MoE 模型还首次代表盘古模型家族参与了第三方跑分测试,在刚刚发布的五月底 SuperCLUE 榜单上,盘古 Pro MoE 在知识推理、工具调用、数学、对话、代码、自然科学六大领域,其跑分成绩已经接近甚至在部分领域超过了 GPT、Gemini、Deepseek 的顶尖模型。
华为诺亚方舟实验室主任王云鹤和他的团队是盘古系列模型主要的研发者,他认为打榜成绩谁是第一不重要,更重要的是,过去所有的顶尖模型都来自英伟达芯片的训练,而盘古证明了基于全华为自研的 AI 服务器,可以训练出同等水平的大模型。
会上,基于 CloudMatrix 384 超节点,华为云发布了新一代昇腾AI云服务。其架构创新在于:将 384 颗昇腾 NPU 和 192 颗鲲鹏 CPU 通过全新高速网络 MatrixLink 全对等互联,形成一台超级「AI 服务器」,单卡推理吞吐量跃升到 2300 Tokens/s,与非超节点相比提升近 4 倍。

CloudMatrix 384 超节点丨来自:华为云
超节点架构能更好地支持混合多专家 MoE 大模型的推理,可以实现「一卡一专家」,一个超节点可以支持 384 个专家并行推理,极大提升效率;同时,超节点还可以支持「一卡一算子任务」,灵活分配资源,提升任务并行处理,减少等待,将算力有效使用率(MFU)提升 50% 以上。
对于万亿、十万亿参数的大模型训练任务,在云数据中心,还能将 432 个超节点级联成最高 16 万卡的超大集群;同时,超节点还可以支持训推算力一体部署,如「日推夜训」,训推算力可灵活分配,帮助客户资源使用最优。
从单一芯片的计算性能来看,目前昇腾、鲲鹏与英伟达的顶尖芯片还有差距。但凭借新的架构,昇腾 AI 云服务也可以支持训练出顶尖的模型,这意味着国产打破 AI 算力垄断迈出了重要一步。华为云透露,目前昇腾 AI 云服务已为包括科大讯飞、新浪、硅基流动、面壁智能、中科院、360 等超过 1300 家客户提供算力服务。
除 NLP 外,盘古的预测大模型、科学计算大模型、视觉 CV 大模型也都迎来升级。此外,华为云还在会上发布了全新基于盘古多模态大模型的世界模型。该模型可以生成数字物理空间,将其用于智能驾驶、具身智能机器人的训练。
鸿蒙重塑用户智能,盘古赋能千行万业
随着 AI 基础设施和模型能力逐步接近全球顶尖水平,华为的 AI 战略路径也变得清晰起来。
简单说,就是基于华为云的 AI 底座,用鸿蒙给 C 端用户带来更好的智能体验,用盘古助力 B 端行业提升生产力。
面向 C 端用户,智能体是构建生态的关键。HDC 2025 期间,华为终端发布了鸿蒙 6.0 开发者 Beta 版,并首次推出鸿蒙智能体框架(HMAF)。这不仅仅是一个开发工具,而是构建在鸿蒙系统和华为 AI 底座上的一整套 AI 生态系统。
在分发上,开发者做出来的智能体,既可以通过鸿蒙系统分发,也能集成到鸿蒙 AI 助手小艺里。用户想点外卖或者查天气,直接告诉小艺,它就能调用相关的智能体来服务,比如推荐餐厅、预报天气,甚至提醒你天冷加衣。
在开发上,鸿蒙智能给开发者提供了 50 多个鸿蒙系统插件和多种开发模式,还开放了小艺对话、小艺建议等 240 多个标准意图框架,帮助应用更准地理解用户想要什么、目的是啥或者什么情绪;同时开放了 11 项核心语音识别 AI 能力。开发者不用自己组建底层算法团队或者投入大笔研发资金,就能开发出智能应用或智能体。

50+鸿蒙智能体即将上线丨来自:HDC 2025
据悉,已有高德、大众点评、京东、微博等超过 50 个鸿蒙智能体即将上线鸿蒙平台。
除了服务 C 端用户,用AI提升 B 端生产力是华为 AI 战略的另一核心,这也是盘古大模型的根本任务。
几年前盘古刚发布时,它的基础模型就瞄准了医疗、金融、政务、工业等领域的痛点,推出了一系列行业解决方案。现在随着盘古大模型 5.5 发布,基础能力更强了,盘古也在更多行业找到了用武之地。
比如盘古预测大模型,已被应用于钢铁、有色金属、供热等多个行业。如宝武钢铁高炉大模型正式上线运行以后,出铁温度合格率稳定在 90% 以上,每吨铁水可节省 2 公斤燃料,一个高炉每天就可节省 20 吨燃料。天津能源使用盘古预测大模型,精准预测了供热需求,在刚结束的供暖季,实现了 100% 的均衡供热,能耗降低了 10%。
还有盘古科学计算大模型,被深圳气象局用于升级「智霁」大模型,做出更精准的天气预报。重庆市气象局针对成渝地区降水局地性强,且降水强度大的特点,打造了「天资·12h「气象大模型,提升灾害天气的日内预报预警能力。
而最新的盘古世界模型,则通过构建无数字物理空间,辅助智能驾驶、具身智能机器人的训练。例如,在智能驾驶领域,输入首帧的行车场景、行车控制信息和路网数据,盘古世界模型就可以生成每路摄像头的行车视频和激光雷达的点云,能够为智能驾驶生成大量的训练数据,而无需依赖高成本的路采。
而在当下最火的具身智能领域,华为云也基于盘古大模型的多模态能力及思维能力,正式发布 CloudRobo 具身智能平台。该平台整合了数据合成、数据标注、模型开发、仿真验证、云边协同部署以及安全监管等端到端能力,提供具身多模态生成大模型、具身规划大模型、具身执行大模型三大核心模型,加速具身智能创新。同时,面对具身智能领域机器人品类多、传感器类型多、接口协议多等挑战,华为云提出了机器人到云的联接协议 R2C(Robot to Cloud)。

CloudRobo丨来自:华为云
结语
曾经受限于高端 AI 芯片的华为,在 2025 年的 HDC 开发者大会上,用盘古大模型 5.5 的全面升级和昇腾 CloudMatrix 384 的算力突破,清晰地宣告了其 AI 能力的进阶——核心模型能力已追至全球第一梯队,并构建了能支撑顶尖大模型训练的国产算力底座。
更重要的是,华为的 AI 布局已走出实验室,清晰地指向两端:一端是鸿蒙智能体框架(HMAF),它将 AI 深度融入鸿蒙生态,通过小艺和开发者生态,让普通人简单获得更好的智能体验;另一端是盘古大模型,它正深入钢铁、气象、能源、自动驾驶乃至具身智能等广阔领域,实实在在提高千行百业的生产效率。
从「悄悄发育」到「全面发力」,华为 AI 的这关键一步,不仅在于技术指标的追赶,更在于它正将「根深」的自研能力,转化为赋能千行万业智能化升级的「叶茂」。这场由「端」(鸿蒙)与「云」(盘古)协同驱动的 AI 实践,才刚刚拉开序幕。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
在线jjybzxw

UID: 551814


发帖
167724
金币
273165
道行
2004
原创
2404
奖券
2775
斑龄
35
道券
1005
获奖
0
座驾
设备
摄影级
在线时间: 38174(小时)
注册时间: 2008-10-01
最后登录: 2025-07-12
只看该作者 沙发  发表于: 06-22
华为在AI领域的全面发力确实令人瞩目。从您提供的信息来看,华为在HDC2025开发者大会上展示了其在AI技术方面的多项重要进展和战略布局。

1. 新一代盘古大模型5.5:华为云推出了全面升级的盘古大模型5.5,对自然语言处理(NLP)、计算机视觉(CV)、多模态、预测、科学计算等五大基础模型进行了升级。特别是718B的深度思考模型,通过自适应快慢思考合一技术,提升了模型的推理效率和处理复杂问题的能力。

2. 昇腾AI云服务:华为云还发布了新一代昇腾AI云服务,基于CloudMatrix 384超节点,实现了384颗昇腾NPU和192颗鲲鹏CPU的全对等互联,大幅提升了单卡推理吞吐量和算力有效使用率。

3. 鸿蒙智能体框架:华为终端首次推出鸿蒙智能体框架(HMAF),旨在构建基于鸿蒙系统和华为AI底座的AI生态系统,为C端用户提供更好的智能体验。

4. 赋能千行百业:盘古大模型正在深入钢铁、气象、能源、自动驾驶等众多行业,通过其强大的预测和科学计算能力,实实在在提高生产效率。

5. 国产算力底座:华为通过自研的AI服务器训练出了与全球顶尖模型相媲美的大模型,打破了国外AI算力的垄断,为国产AI发展迈出了重要一步。

总体来看,华为正在通过盘古大模型和昇腾AI云服务,将AI能力融入千行百业的应用中,推动用户体验与行业生产力的智能化升级。同时,鸿蒙智能体框架的推出,也将进一步丰富鸿蒙生态,提升C端用户的智能体验。华为AI的全面发力,不仅体现在技术指标的追赶,更在于其将自研能力转化为赋能行业智能化升级的实际行动。这场由端侧智能体和云端大模型协同驱动的AI实践,预示着华为AI将在未来发挥更大的作用。
如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
144180
金币
263582
道行
20030
原创
756
奖券
185
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 16767(小时)
注册时间: 2012-06-21
最后登录: 2025-07-12
只看该作者 板凳  发表于: 06-22
“悄悄发育”的华为AI大招解析
华为开发者大会HDC2025关键亮点
2025年6月20日下午,华为开发者大会HDC2025开幕,AI成为主题演讲的绝对主角。华为云推出新一代升腾AI云服务和全面升级的盘古大模型5.5,华为终端首次推出鸿蒙智能体框架,目标是构建端侧智能体生态。

盘古大模型5.5的升级情况
自然语言处理NLP大模型升级
模型类型丰富:全新的718B深度思考模型由256个专家组成MoE大模型,在知识推理、工具调用、数学等关键能力上显著增强。此外,还推出了72B的ProMoE大模型以及更轻量的7B级小模型盘古Embedding。
关键技术创新:采用自适应快慢思考合一技术,模型能根据问题难度自动切换模式,简单问题快速回答,复杂问题深度思考。同时推出深度研究DeepDiver,通过长链难题合成、渐进式奖励等关键技术,在网页搜索、常识性问答等应用上执行效率高,如5分钟内完成超过10跳的复杂问答、生成万字以上的专业调研报告等。
跑分成绩突出:ProMoE模型首次参与第三方跑分测试,在五月底SuperCLUE榜单上,在知识推理、工具调用、数学、对话、代码、自然科学六大领域,跑分成绩接近甚至在部分领域超过了GPT、Gemini、Deepseek的顶尖模型。
其他模型升级
除NLP外,盘古的预测大模型、科学计算大模型、视觉CV大模型也都迎来升级。华为云还发布了全新基于盘古多模态大模型的世界模型,可生成数字物理空间,用于智能驾驶、具身智能机器人的训练。

新一代升腾AI云服务优势
超节点架构特点
基于CloudMatrix384超节点,超节点架构能更好地支持混合多专家MoE大模型的推理,实现“一卡一专家”,一个超节点可支持384个专家并行推理,提升效率;还能支持“一卡一算子任务”,灵活分配资源,提升任务并行处理,减少等待,将算力有效使用率(MFU)提升50%以上。

集群与资源分配能力
对于万亿、十万亿参数的大模型训练任务,在云数据中心能将432个超节点级联成最高16万卡的超大集群。同时支持训推算力一体部署,如“日推夜训”,训推算力可灵活分配,帮助客户资源使用最优。

客户服务情况
目前升腾AI云服务已为包括科大讯飞、新浪、硅基流动、面壁智能、中科院、360等超过1300家客户提供算力服务。

鸿蒙智能体框架意义
构建C端智能生态
面向C端用户,智能体是构建生态的关键。鸿蒙智能体框架(HMAF)构建在鸿蒙系统和华为AI底座上,是一整套AI生态系统。

分发与开发便利
开发者做出的智能体既可以通过鸿蒙系统分发,也能集成到鸿蒙AI助手小艺里。同时,鸿蒙智能给开发者提供了50多个鸿蒙系统插件和多种开发模式,开放了小艺对话、小艺建议等240多个标准意图框架和11项核心语音识别AI能力,开发者无需自己组建底层算法团队或投入大笔研发资金,就能开发出智能应用或智能体。

华为AI发展的重要意义
过去两年,高端AI芯片“卡脖子”让华为在AI浪潮中有些被动,但经过沉淀与发展,随着自研AI算力体系进步,盘古大模型核心能力逐步追近全球第一梯队玩家。华为通过鸿蒙、盘古体系将大模型能力融入千行百业应用,推动用户体验与行业生产力的智能化升级。并且盘古证明了基于全华为自研的AI服务器,可以训练出同等水平的大模型,意味着国产打破AI算力垄断迈出重要一步
如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个