写点什么

华为云,让 AI 算力入山河

作者:脑极体
  • 2023-09-21
    天津
  • 本文字数:3949 字

    阅读完需:约 13 分钟

整个 2023 年,全球科技界都在为大模型沸腾。云计算产业作为 AI 大模型与产业场景间的最短路径,自然也在大模型浪潮中备受关注。目前阶段,云厂商已经纷纷入局大模型,从多个角度探索大模型带给云计算产业的可能性。

但我们往往会忽略这样一个关键节点:“百模千态”的大模型,第一项挑战是 AI 算力。而做好大模型服务,首当其冲也要做好算力服务。

在 AI 算力这个最为基础的能力中,隐藏着 AI 云服务如何能走向更远的真正答案。


9 月 21 日,在华为全联接大会 2023 期间,华为常务董事、华为云 CEO 张平安围绕“共建智能世界云底座,让 AI 重塑千行万业”发表主题演讲,发布盘古大模型在矿山、政务、汽车、气象、医学、数字人、研发等领域的创新服务,并宣布华为云昇腾 AI 云服务正式上线,加快让千行万业实现大模型普惠。围绕盘古大模型落地,本次华为云分享的主题是“解难题,做难事”。让 AI 算力能用、够用、好用、有大用,就是华为云解开的第一道难题。

算力入山河,AI 始落地。

为了做好这件重要的“难事”,昇腾 AI 云服务出发了。

大山大河,需要 AI 大算力

信息革命以来,人类逐步发现科技创新的幅度与算力消耗成正比,这一点在大模型身上又一次得到了印证。

大模型的出现和成熟,给千行万业智能化带来了全新的机遇。可以说,每个行业的每个场景都值得融入大模型,甚至其中大部分可以被大模型所重塑。而无论是大模型本身模型规模大、数据参数多的特点,还是各个行业涌现的大模型需求,都指向同一个结果:社会生产体系所消耗的 AI 算力,将得到指数级提升。

大模型需要大算力,已经成为了行业共识。但如果我们具体打开这个问题,会发现围绕 AI 算力产生的产业挑战非常多样。我们可以将其概括为供需矛盾、能效挑战、运维需求、安全顾虑四种。

先来看 AI 算力最为核心的挑战,即供需之间客观上的不平衡。

截至 2023 年 7 月,中国累计已经有 130 个大模型问世。“百模大战”带来了 AI 算力的巨量增长。根据相关数据报告,过去 10 年全球 AI 算力需求增长了 30 万倍,而未来 10 年我们还面临着需求 500 倍的增长。根据《2022-2023 中国人工智能计算力发展评估报告》显示,在 2022 年中国进行的 AI 计算总量已经超过了通用计算。在可见的未来,AI 算力将会变成社会各界需求量最大、供需缺口最大、资源最为紧张的计算形态。

其次是大模型与大算力,带来了尖锐的能效问题。

由于大模型训练需要集群式 AI 计算,因此其训练任务大量依靠数据中心,而 AI 服务器的功率密度远超普通服务器,单机柜的功耗是过去的 6 到 8 倍。在双碳大背景下,数据中心的能效比必须持续下降,因此大模型带来的计算能效问题已刻不容缓。如何在 AI 算力提升与能效比下降之间达成平衡,成为了产业界必须面对的问题。


除此之外,我们还要看到 AI 算力在应用过程中发生了一系列运维难题。由于大模型的训练、部署目标各不相同,各自的训练与部署环境也差异巨大,期间也自然会产生网络时延、模型可靠性、运维管理门槛等运维问题。举个例子,一些大模型需要极大量级的算力集群来支撑,而大量服务器与计算单元之间的协同往往会出现问题,一旦计算单元出现问题,研发人员就需要重启训练。大模型训练中巨大的时间、人才、算力成本消耗,就发生在频繁的故障与重启训练任务当中。因此,大模型不仅需要 AI 算力充足,还需要算力服务精细,帮助用户降低整体运维难题。

最后,我们还要看到大模型带来新的安全顾虑。

由于大模型的部署场景大多事关国计民生,因此其安全隐患必须全部扫清。在数据访问、存储加密、传输安全等领域,大模型目前还存在着诸多的安全隐患。

整体而言,大模型并不是高度一致化的产品。其本身技术分类复杂、工程化路径多变,并且各个用户还需要根据自身需求进行大模型的精调与订制化工作。这些问题让大模型对 AI 算力服务有了多方面、多角度的差异化需求。

满足大模型的 AI 算力需求,已经成为了大模型时代的头一道考题。

把昇腾 AI 云服务做实,做精,做成竞争力

对于华为云来说,要把算力这道题答好,需要兼顾两方面的建设:一个是如何让 AI 算力充足可用,另一个是如何跨越算力服务在运维、安全、能效等方面的挑战。AI 算力既要做实,还要做精。

今年 7 月,华为云发布了最新的昇腾 AI 云服务,可以为千行万业的用户提供澎湃 AI 算力。在其背后,是华为云坚实的算力基础设施建设。


截至目前,华为云在贵安、乌兰察布、芜湖建设了 3 大 AI 算力中心。基于此,昇腾 AI 云服务在全国范围内实现了 20ms 的时延圈。用户可以实现就近接入,一根光纤即可联接澎湃的 AI 算力,服务即开即用。为确保大模型训练数据的全生命周期安全,昇腾 AI 云服务还采用了数据传输与存储加密、数据安全清除、数据访问控制、数据水印防泄露等多重技术。值得注意的是,无论对于企业还是社会整体,云服务都是能效比最优的双碳时代 AI 算力获取方式。


为了实现 AI 算力的极致性能,华为云还在基础设施之上进行了针对 AI 云服务的技术优化。比如 ModelArts 提供了数据、训练、推理三层加速,通过 DataTurbo 数据加速技术能够利用计算节点存储资源构建分布式缓存,将数据读取时延降低至亚毫秒级。TrainTurbo 训练加速技术可以实现在训练数据超过 100T 时数据读取时间缩短 50%,并使能整体训练效率提升 20%以上。在模型的推理环节,InferTurbo 推理加速技术通过图编译技术加速模型推理,通过全链路垂直协同优化,将大模型的推理性能提升 30%。

在这样强大基建与核心技术加持下,用户可以获得极致的 AI 计算性能,而为了让算力不仅“够用”,还要“好用”,华为云进行了一系列把 AI 算力“做精”的探索。

比如说,AI 开发有赖于工具与平台的全面。昇腾 AI 云服务背后,有着异构计算架构 CANN、全场景 AI 框架昇思 MindSpore、AI 开发生产线 ModelArts 等一系列华为持续打造的 AI 底层开发工具与技术平台,从而为大模型提供分布式并行加速,算子和编译优化、集群级通信优化等关键能力,奠定 AI 算力服务的根技术加持。

如上文所说,在大模型训练、部署过程中还面临着一系列运维、能效等问题。在算力服务的优化方面,昇腾 AI 云服务可以提供更长稳的 AI 算力服务,千卡训练 30 天长稳率达到 90%,还可以实现分钟级信息获取、2 小时定界、24 小时提供解决方案,断点恢复时长不超过 10 分钟,任务恢复时长小于半小时。

在模型迁移方面,华为云为用户提供了迁移工具链,并集成全栈的开发工具,能够实现典型模型迁移效率低至 2 周,主流场景自助迁移。此外,昇腾 AI 云服务还适配了业界主流的开源大模型,如 LLAMA、Stable Diffusion 等,从而真正让昇腾 AI 云服务满足“百模千态”的大模型需求。

对于运动员来说,基本功就是竞争力。在云+大模型的赛道上,华为云通过基建、技术、服务的集成,也把 AI 算力练成了竞争力。

澎湃易用的 AI 算力,是大模型产业化落地的基石,也是一切故事的开端。

算力,技术,场景:构筑大模型正循环

在大模型这个突然到来的巨大智能化机遇面前,千行万业的用户有着差异化巨大的需求。有人缺少算力,有人需要模型,有人寻觅场景,也有人需要特定技术工具的帮助。任何一个条件的缺失,都会让大模型的飞轮无法旋转。

换个角度看,算力资源、技术工具、模型的场景化应用都能变成支点。这些要素可以通过全栈配合、彼此推动的方式,帮助企业用户和开发者走上大模型之路。

华为云提供的昇腾 AI 云服务,不仅 AI 算力能用、够用,好用,还能通过与华为云一系列布局进行联动,让大模型从此“有大用”,从而共同实现盘古大模型解难题,做难事。

比如说,我们能够看到众多技术创新与昇腾 AI 云服务相辅相成,共同解决着 AI 算力需求大、供给难的挑战。华为云最新发布的分布式 QingTian 架构就有着这样的效果。


以 AIGC 为代表的大模型应用,算力需求特点是高度依赖分布式计算能力,这也对算力架构产生了新的挑战。分布式 QingTian 架构作为新一代对等架构,能够将传统的数据中心算力集群,演变为基于高速总线的对等池化系统集群,从而打破单一部件的性能限制,实现软硬协同、管控面全卸载、资源与性能零损耗,最终为用户带来性能、可靠性、安全可信等方面的极致体验。

除此之外,华为云还围绕不断发展的 AI 需求,在 AI 云存储、GaussDB 向量数据库、数智融合、Serverless+大模型工程套件等一系列领域进行了技术创新,从系统架构层、数据处理层、模型训练层、应用开发层实现系统性创新,从而扫清了用户使用 AI 云服务过程中的障碍,让 AI 算力真正对齐到千行万业的场景化需求。

在基础 AI 算力与系列技术创新之上,就是华为云提供的盘古系列大模型。在华为全联接大会 2023 上,我们也可以看到盘古大模型在行业中有了更为深入的场景化落地。


在汽车行业,盘古汽车大模型能够覆盖车企的设计、生产、营销、研发等环节,并在自动驾驶训练、专用场景落地等领域发挥独特价值。在自动驾驶领域,盘古汽车大模型可基于实际场景采集的照片和视频,构建该场景的数字孪生空间,加入可移动的物体、可编辑的天气、光照等,生成供自动驾驶学习的场景样本。在港口、矿区等作业场景,盘古汽车大模型的多场景、多车型控制算法,可让 60 吨的重卡横向误差小于 0.2 米、精准停靠误差小于 0.1 米。目前在新疆疆纳矿业和内蒙古伊敏露天煤矿,已有 23 辆无人重卡在矿山中 24 小时不间断作业。


在直播+数字人领域,盘古数字人大模型基于十万级高质量直播话术进行预训练,能够自动生成专业话术,从而准确、流利地介绍产品,并且还能自动捕捉弹幕和观众实时互动。在贵州丹寨,盘古数字人大模型已经让非遗产业蜡染走向全球。


总结一下不难发现,华为云已经形成 AI 算力作为底座,技术创新作为驱动,盘古大模型融入行业场景为导向的“大模型正循环”。澎湃 AI 算力可以带动大模型的使用;技术创新将不断降低大模型的门槛;行业场景将带动大模型规模化落地。算力推动场景和技术发展;技术进步实现算力得到充分释放,场景价值被深入挖掘;场景的进步将带动算力建设,引领技术进步。三者滚动向前,吸引千行万业在云上寻找大模型的答案。

以算力为基础,以算力为钥匙,让 AI 融入山河大地——这便是华为云的 AI 长歌。

发布于: 刚刚阅读数: 5
用户头像

脑极体

关注

还未添加个人签名 2020-06-12 加入

还未添加个人简介

评论

发布
暂无评论
华为云,让AI算力入山河_云计算_脑极体_InfoQ写作社区