飞桨与海光人工智能加速卡 DCU 系列完成互证,助力国产 AI 加速 卡人工智能应用创新
近日,百度飞桨深度学习框架与海光人工智能加速卡 DCU 系列进行了安装部署测试、基本功能测试和稳定性兼容性测试,联合测试结果显示百度飞桨深度学习框架在海光 DCU 系列以及海光 3000、5000、7000 系列 CPU 环境上均能顺利安装,可以可靠、稳定、高性能地运行,满足用户的关键性应用需求。
图 1:飞桨与海光 DCU 生态兼容性认证证书
其中,DCU(Deep Computing Unit 深度计算器)是海光(HYGON)推出的一款专门用于 AI 人工智能和深度学习的加速卡。目前飞桨框架 ROCm 版基于海光 CPU(X86)和 DCU 支持以下模型的单机单卡/单机多卡的训练与推理。
飞桨框架 ROCm 版安装说明及测试环境说明:
本次适配及测试工作是由飞桨团队和海光团队基于海光 7000 系列 CPU 以及海光 DCU-Z100 深度计算处理器芯片,在 CentOS7.6 操作系统下进行了相关性测试。目前飞桨框架 ROCm 版支持基于海光 CPU 和 DCU 的 Python 的训练和原生预测,当前支持的飞桨框架 ROCm 版本为 4.0.1, 飞桨框架版本为 2.1.0,提供两种安装方式:
通过预编译的 wheel 包安装
通过源代码编译安装
表 1:软件环境
表 2:硬件环境
飞桨框架 ROCm 版支持模型:
当前在海光 DCU 芯片上进行过 80+模型的官方验证,验证包括有图像分类(PaddleClas)、目标检测(PaddleDetection)、图像分割(PaddleSeg)、文字识别(PaddleOCR)、生成对抗网络(PaddleGAN)、自然语言处理(PaddleNLP)、推荐(PaddleRec)、语音(Parakeet)类别的模型。下表是支持的部分目标检测类模型的情况,完整支持信息请见:
飞桨官网 > 文档 >使用教程 >硬件支持 > 海光 DCU 芯片运行飞桨 > 飞桨框架 ROCm 版支持模型。
(文档链接:
飞桨框架 ROCm 版训练及预测:
训练:使用海光 CPU/DCU 进行训练与使用 Intel CPU/Nvidia GPU 训练相同,当前飞桨框架 ROCm 版本完全兼容飞桨框架 CUDA 版本的 API,直接使用原有的 GPU 训练命令和参数即可。
预测:使用海光 CPU/DCU 进行预测与使用 Intel CPU/Nvidia GPU 预测相同,支持飞桨原生推理库(Paddle Inference),适用于高性能服务器端、云端推理。当前飞桨框架 ROCm 版本完全兼容飞桨框架 CUDA 版本的 C++/Python API,直接使用原有的 GPU 预测命令和参数即可。
完整训练及预测示例可参考官网海光 DCU 芯片运行飞桨文档。
海光信息技术股份有限公司(以下简称“海光公司”)自主研发的人工智能加速卡 DCU 系列可以全面覆盖支持深度学习训练场景,轻松应对复杂神经网络训练,适合为人工智能计算提供强大的算力。产品已经大量应用在电信、金融、教育、科研、人工智能等重要领域。
北京百度网讯科技有限公司(以下简称“百度公司”)自主研发的深度学习平台飞桨,以百度多年的深度学习技术研究和业务应用为基础,集深度学习核心训练和推理框架、基础模型库、端到端开发套件、丰富的工具组件于一体,是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台。
本次百度飞桨深度学习框架与海光人工智能加速卡 DCU 系列完成互认证,将进一步提升双方在国产软、硬件领域的产品竞争力,不断完善产品性能的同时,为客户提升 AI 平台支撑能力,助力客户实现数字化、智能化升级转型。
百度 AI 开发者社区https://ai.baidu.com/forum?&hmsr=infoQ&hmpl=AI ,为全国各地开发者提供一个交流、分享、答疑解惑的平台,让开发者在研发路上不再“孤军奋战”,通过不断地交流与探讨找出更好的技术解决方案。如果你想尝试各种人工智能技术、开拓应用场景,赶快加入百度 AI 社区,你对 AI 的所有畅想,在这里都可以实现!
扫描下方二维码,添加小助手微信「京东卡、小度定制周边、神秘礼盒、行李箱」等更多福利你来拿~
版权声明: 本文为 InfoQ 作者【百度大脑】的原创文章。
原文链接:【http://xie.infoq.cn/article/b3eaa889ad33ee4c2378077e3】。文章转载请联系作者。
评论