写点什么

大模型训练

0 人感兴趣 · 6 次引用

  • 最新
  • 推荐

AI 大底座,大模型时代的答卷

“文心一言就是在这个全国 AI 领域规模最大的高性能 GPU 集群上完成训练的。”

大模型时代的异构计算平台

以使用 NVIDIA GPU A100 对 GPT-3 进行训练为例,理论上单卡需要耗费 32 年的时间,千卡规模的分布式集群,经过各种优化后,仍然需要 34 天才能完成训练。

超大规模 AI 异构计算集群的设计和优化

用户头像
Baidu AICLOUD
2022-06-24

深入了解超大模型训练过程中的计算、通信模式,以及保证落地的最佳工程实践。

带你认识大模型训练关键算法:分布式训练 Allreduce 算法

摘要:现在的模型以及其参数愈加复杂,仅仅一两张的卡已经无法满足现如今训练规模的要求,分布式训练应运而生。

大模型训练_大模型训练技术文章_InfoQ写作社区