写点什么

更轻量的百度百舸,CCE Stack 智算版发布

作者:百度智能云
  • 2022-11-04
    北京
  • 本文字数:865 字

    阅读完需:约 3 分钟

百度百舸·AI 异构计算平台,是百度智能云将百度内部强大的 AI 工程能力面向市场推出的解决方案,支持了百度集团内部各类 AI 项目的落地,比如文心大模型、自动驾驶等。百度百舸能够构建超大规模的 AI 集群,提供长期稳定的任务运行环境,配置最佳的软硬一体解决方案,加速训练和推理任务的快速进行。


今年 9 月的智能经济高峰论坛上,百度智能云正式发布了百度百舸·AI 异构计算平台 2.0。


此次发布的 2.0 版本在 AI 计算、AI 存储、AI 容器等模块能力上进行了全面增强,同时推出了全新的 AI 加速套件,数据湖存储加速提升训练效率 5~10 倍,分布式训练加速提升训练吞吐 50%~150%,推理加速降低时延 40%~60%。



在公有云和专有云场景,百度百舸 2.0 最大提供单集群 EFLOPS 级别的算力,支持万卡规模的集群训练任务。


为了方便用户能够以更轻量敏捷的方式构建自己的 AI 基础设施,百度智能云推出了 CCE Stack 智算版。相比容器引擎 CCE Stack 标准版,智算版特别增加了支持 AI 应用的能力。


这个版本可以轻便地部署在已有的基础设施上——直接部署在客户的物理机,或者部署在已有的私有云平台上,实现快速交付百度百舸·AI 异构计算平台。



CCE Stack 智算版包含了 AI 容器、AI 加速等百度百舸 2.0 的核心模块,包括异构资源调度、GPU 容器虚拟化、AI 任务管理、训练推理和数据集加速等能力,并可按需选配 AI 存储和 RDMA 网络等模块。


  • 业界首推的双引擎 GPU 容器虚拟化模式,提供用户态和内核态两种实现。用户态能够实现进程融合、显存交换、编解码实例等,性能更好;内核态隔离性强,可以实现算力隔离以及显存隔离。


  • 支持共享混部,拓扑感知以及亲和调度等策略,让用户实现极致的 AI 资源利用率。


  • AI 加速套件通过数据集加速、训练加速和推理加速等,使得模型迭代效率和模型性能都得到进一步提升。


  • 提供多元芯片,支持昆仑芯等各类国产芯的虚拟化和资源调度。


CCE Stack 智算版的推出将帮助更多传统企业快速建设 AI 基础设施,获得 AI 工程能力,加速智能化升级步伐。


- - - - - - - - - - END - - - - - - - - - -

请关注微信公众号“百度智能云技术站”

以免错过后续精彩内容

发布于: 刚刚阅读数: 3
用户头像

还未添加个人签名 2022-06-13 加入

适合跑AI的云

评论

发布
暂无评论
更轻量的百度百舸,CCE Stack 智算版发布_AI工程化_百度智能云_InfoQ写作社区