更轻量的百度百舸,CCE Stack 智算版发布
去年 9 月的智能经济高峰论坛上,百度智能云正式发布了百度百舸·AI 异构计算平台 2.0。
此次发布的 2.0 版本在 AI 计算、AI 存储、AI 容器等模块能力上进行了全面增强,同时推出了全新的 AI 加速套件,数据湖存储加速提升训练效率 5~10 倍,分布式训练加速提升训练吞吐 50%~150%,推理加速降低时延 40%~60%。
在公有云和专有云场景,百度百舸 2.0 最大提供单集群 EFLOPS 级别的算力,支持万卡规模的集群训练任务。
为了方便用户能够以更轻量敏捷的方式构建自己的 AI 基础设施,百度智能云推出了 CCE Stack 智算版。相比容器引擎 CCE Stack 标准版,智算版特别增加了支持 AI 应用的能力。
这个版本可以轻便地部署在已有的基础设施上——直接部署在客户的物理机,或者部署在已有的私有云平台上,实现快速交付百度百舸·AI 异构计算平台。
CCE Stack 智算版包含了 AI 容器、AI 加速等百度百舸 2.0 的核心模块,包括异构资源调度、GPU 容器虚拟化、AI 任务管理、训练推理和数据集加速等能力,并可按需选配 AI 存储和 RDMA 网络等模块。
业界首推的双引擎 GPU 容器虚拟化模式,提供用户态和内核态两种实现。用户态能够实现进程融合、显存交换、编解码实例等,性能更好;内核态隔离性强,可以实现算力隔离以及显存隔离。
支持共享混部,拓扑感知以及亲和调度等策略,让用户实现极致的 AI 资源利用率。
AI 加速套件通过数据集加速、训练加速和推理加速等,使得模型迭代效率和模型性能都得到进一步提升。
提供多元芯片,支持昆仑芯等各类国产芯的虚拟化和资源调度。
CCE Stack 智算版的推出将帮助更多传统企业快速建设 AI 基础设施,获得 AI 工程能力,加速智能化升级步伐。
版权声明: 本文为 InfoQ 作者【百度开发者中心】的原创文章。
原文链接:【http://xie.infoq.cn/article/720e730c8f42dc2f2124b2414】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论