异构计算
0 人感兴趣 · 22 次引用
- 最新
- 推荐
让算力不再成为瓶颈,小红书机器学习异构硬件推理优化之道
在全球降本增效的趋势下,异构计算成为了一种很有前途的方向,可以通过将不同类型的处理器(如 CPU、GPU、FPGA 等)组合在一起来提高计算性能,从而实现更好的效率和更低的成本。
龙蜥白皮书精选:面向异构计算的加速器 SDK
因为安全漏洞引发的数据泄漏事件还是时有发生,为此网络协议也在逐渐演进,强制使用更安全的算法。追求极致的安全拉低自身业务的处理能力又显得得不偿失,为了解决这个难题,龙蜥社区开源了面向异构计算的加解密加速器 SDK。
大模型时代的异构计算平台
以使用 NVIDIA GPU A100 对 GPT-3 进行训练为例,理论上单卡需要耗费 32 年的时间,千卡规模的分布式集群,经过各种优化后,仍然需要 34 天才能完成训练。
百度百舸·AI 异构计算平台,加速自动驾驶模型迭代
数据访问性能提升了 5 倍,自动驾驶典型模型训练性能最高提升 391%,典型模型推理延迟最高降低了 90%,模型仿真成本降低了 60%。
AI 训练加速原理解析与工程实践分享
系统性学习 AI 模型训练场景下的性能瓶颈,掌握 AI 加速训练的各种方法的原理,了解百度百舸平台的 AI 训练加速套件 AIAK-Training 的工程实践效果。
云原生 AI 的资源调度和 AI 工作流引擎设计分享
本文整理自同名线上分享,是 12 月份「百度百舸 - 云原生 AI」技术公开课的第一期:如何在 AI 工程提升资源效能和工程效能的问题。
更轻量的百度百舸,CCE Stack 智算版发布
百度百舸·AI 异构计算平台,是百度智能云将百度内部强大的 AI 工程能力面向市场推出的解决方案,支持了百度集团内部各类 AI 项目的落地,比如文心大模型、自动驾驶等。百度百舸能够构建超大规模的 AI 集群,提供长期稳定的任务运行环境,配置最佳的软硬一体
构建 AI 原生的智能计算基础设施,百度百舸·AI 异构计算平台 2.0 发布
百度百舸2.0发布,打造AI原生的云基础设施,加速产业拥抱智能化
超大模型工程化实践打磨,百度智能云发布云原生 AI 2.0 方案
云原生AI,提供加速AI工程化落地,激发业务想象。支撑超大模型预训练、保证资源弹性,加速训练和推理效率,加速AI作业开发...
十分钟生成影视级室内设计效果,红星美凯龙设计云如何升级传统家居行业
依托于阿里云强大的弹性云上GPU算力,红星美凯龙可以为客户提供快速的、高质量的渲染,实现秒级的门店快速设计。
IDC 发布《云原生 AI - 加速 AI 工程化落地》报告,百度智能云领跑云原生 AI 能力
云原生 AI 不是简单的"云原生+AI",而是需要技术配套和长期工程实践,才能真正满足 AI 业务场景。
双引擎 GPU 容器虚拟化,用户态和内核态的技术解析和实践分享
一文了解最前沿的 AI 异构计算技术和工程实践。文字整理自 InfoQ《公开课》,文尾附带 Q&A 内容。
阿里云机器学习平台 PAI 论文高效大模型训练框架 Whale 入选 USENIX ATC'22
高效大模型训练框架Whale(EPL)入选USENIX ATC
基于 EasyCV 复现 ViTDet:单层特征超越 FPN
MAE提出了ViT的无监督训练方法,ViT-based Mask R-CNN给出了用ViT作为backbone的Mask R-CNN的训练技巧,证明了MAE预训练对下游检测任务的重要性。ViTDet进一步改进一些设计,证明ViT作为backone的检测模型可以匹敌基于FPN的backbone(如SwinT和MViT)检测模型。
BladeDISC 0.2.0 更新发布
在BladeDISC正式开源三个月后,我们发布了0.2.0版本,该更新包含了大量的性能优化与功能增强。