切换到宽版
  • 625阅读
  • 0回复

[数码讨论]英特尔携手百度,软硬协同加速AI普及 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106169
金币
2301
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20021(小时)
注册时间: 2007-11-29
最后登录: 2024-11-24
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-06-04
— 本帖被 兵马大元帅 执行锁定操作(2024-05-26) —
日前,在“Wave Summit 2022深度学习开发者峰会”上,英特尔与百度分享了人工智能在各领域应用的创新突破,并展现了如何通过oneAPI、OpenVINO等软件优化及人工智能全栈硬件产品组合,助力最新版飞桨框架v2.3版本实现模型性能的优化升级和在多个垂直领域的实践应用。同时,英特尔联合百度发布了“飞桨硬件生态伙伴共创计划”,共同打造软硬一体人工智能生态。



会后,英特尔高级首席工程师、物联网事业部中国区首席技术官张宇,百度飞桨总架构师于佃海,接受了等媒体专访。

解决AI三大环节痛点问题

据了解,今年3月,英特尔OpenVINO2022.1版本进行了近三年半以来的最大升级,将以更新和更简洁的API、更广泛的模型支持、出色的可移植性与性能,与飞桨共同为开发者带来更好的体验,双方将通过全方位的合作,涵盖完整的AI模型开发和优化部署阶段,解决开发者在不同阶段所面临的痛点问题。



最新的OpenVINO 2022.1版本进一步加大了对飞桨的支持力度。之前飞桨模型需要经过ONNX转化才可以被OpenVINO识别和使用,现在则可以直接把飞桨模型转变为OpenVINO内部的中间表示,再部署到硬件平台上。从而帮助开发者减少中间环节、避免了精度下降的风险,能够为开发者带来更准确、更高效的结果。

大模型支持也是一个痛点,张宇指出,尤其是在边缘部署人工智能的情况下。由于边缘设备的算力和存储相对有限,因此在边缘进行大模型支持时,通常需要进行网络压缩,尽可能在保证精度的情况下,对网络模型结构进行简化。针对剪枝、量化、低精度等技术,OpenVINO提供越来越丰富、完备的支持,可以使一些大模型部署在边缘进行推理操作。

于佃海谈到,百度在大模型领域已经形成了从开发、训练到部署的全流程技术体系和解决方案。在训练阶段,大模型计算量非常大,所以需要高效的分布式训练支撑。百度飞桨采用端到端自适应的分布式架构,能够自动感知硬件平台的特性,并兼容处理广泛的模型结构,实现高效训练。在部署环节,则首先运用模型压缩技术,解耦训练代码,实现硬件自动感知能力,达到更好的量化和剪枝等压缩效果;由于大模型的范畴比较广,有的大模型压缩之后单机就可以处理,有的超大模型对单机挑战比较大,因此需要通过自适应分布式计算迁移到推理环节,实现更好的推理部署。

谈及百度和英特尔在大模型方面的合作,于佃海指出,首先是基于oneAPI在英特尔CPU上的基础性能优化工作,英特尔至强可扩展处理器,是唯一具有内置AI加速功能的数据中心级CPU,飞桨充分利用其搭载的“高级矢量扩展指令集AVX-512、深度学习加速技术DL-Boost等来实现计算加速。其次在推理方面,充分发挥英特尔产品在低精度计算、量化计算方面的特色能力来提升推理速度,以及通过飞桨+OpenVINO来共建部署生态。此外,安全加密相关的SGX、有助于构建多级参数存储机制的持久内存AEP,都将有助于大模型的训练和部署应用。

分子动力学领域合作,AI+科学的创新探索

在AI科学领域,英特尔和百度在分子动力学领域共同展开研发。双方工程师基于飞桨框架从零到一打通了训练推理完整流程,并基于英特尔oneAPI和第三代至强可扩展处理器,利用深度学习加速技术AVX512指令集优化了分子动力学模型的性能,同时支持传统仿真软件LAMMPS,全面满足研究实验需求。

于佃海表示,分子动力学是AI+科学取得突破的一个领域,双方希望共同打造世界领先的高性能解决方案,让计算大幅度提速、性能更加优化。

他进一步解释,相对于传统AI应用领域,AI+科学面临的挑战差异较大。主要体现在以下三方面:

一是AI技术与科学原理或物理模型有机结合的挑战。即:如何在深度学习中实现与科学规律的更好融合?因为以深度学习为代表的AI方法主要是数据驱动,而AI+科学,并不只是包括数据驱动的方法。纯数据驱动更适合定义比较清晰的、数据积累比较丰富的领域,比如AlphaFold蛋白质折叠预测等领域,当然即使这种领域也要深度融合对应科学知识。而科学更追求基本原理的突破,如果只考虑数据驱动是有一定局限的。于佃海表示,双方希望将数据驱动方法和模型驱动方法进行更深度的融合。

二是对通用计算平台和深度学习框架的挑战,只有平台化才能真正发挥AI+科学的优势。于佃海指出,原有的深度学习框架多是面向传统AI任务而设计的,但AI科学需要框架具备更高阶的自动微分机制。自动微分是深度学习框架的核心功能,普通范畴的AI方法只需要一阶导数,而科学计算中微分方程会遇到高阶导数,因此框架需要具备高阶自动微分的能力,同时还要保持计算的高性能。同时,也需要AI框架和传统科学计算仿真软件进行打通,比如飞桨和英特尔的合作工作就包括与传统的分子动力学模拟软件LAMMPS的打通。

第三是产学研用的打通。AI科学涉及理论研究、实验研究以及实际产业的应用,涵盖了AI对复杂计算的处理能力,科学原理研究以及和超算能力的结合,综合挑战较大。因此需要汇集各方力量,充分建立高校、科研院所和企业的合作关系,通过软硬协同打造高性能计算平台,打通理论实验和产业应用的通路。

张宇表示,英特尔始终秉持科技向善的发展理念,在人工智能领域也是如此。分子动力学有着广泛应用,除了像材料研发,还有一个重要的应用场景是在制药领域,在这一方向的持续研究,无疑会为人类长期的健康带来福祉。他坦言,挑战确实存在,比如模型分析、数据处理等工作,对平台的要求是综合的,不仅要求算力,存储也受到很大挑战。不过,这些正是英特尔的优势所在,产品组合涵盖计算、存储和通讯等多方面,可以搭建一个综合平台满足项目需求。

他强调,整体项目的成功,最终离不开产业链各环节合作伙伴的共同努力。百度在人工智能框架、以及对垂直行业的理解和认知方面有优势,双方甚至多方强强联合,才有望解决业界当前所面临的多重挑战。

据了解,双方在分子动力学领域合作的产品已开放测试,以期用于材料研发工作,助力深度学习技术在人工智能+科学计算领域的应用,并为人工智能框架与传统科学计算相结合的持续创新探索奠定基础。

加速推动人工智能普及

深度学习框架和芯片共同构成了人工智能的基础设施。百度飞桨是国内首个自主研发、功能丰富的产业级开源开放深度学习平台,英特尔致力于通过一系列跨计算的CPU、FPGA、GPU及专用的人工智能加速器(Habana Gaudi)提供技术基础,并通过全栈式硬件产品组合来满足用户不同场景的使用需要。近年来,百度飞桨与包括英特尔在内的主流芯片厂商进行深度适配和融合创新,形成了软硬协同的优势。

万物智能化时代,人工智能正在深刻地变革各行各业,并有望在未来改善每个人的生活。基于长期深度合作的基础,英特尔和百度将继续深耕产品技术创新,丰富软件优化方案,助力开发者更便捷地开发和部署人工智能,大幅降低人工智能技术的应用门槛,加速人工智能在传统行业和新兴行业的创新与落地。
山庄提示: 道行不够,道券不够?---☆点此充值☆