告别“低水平内卷”,云计算步入“黄金时代”
2024 年注定是云计算发展的关键时间节点。
过去两年多时间里,云计算行业被讨论最多的话题就是“降价”,在市场增速放缓,甚至有企业高呼“下云”的背景下,云厂商纷纷打出了“价格牌”,导致整个行业陷入到了“低水平内卷”的境地。
进入 2024 年后,在大模型的促进下,千行万业的智能化转型愈演愈烈,而云化算力作为灵活高效、性价比极高的算力资源获取方式,正在成为各 AI 厂商新的算力底座。如果说芯片是智能时代的“石油”,那云化算力就是 AI 发展的“新能源”。
新旧业态的转变,对云计算的影响绝不仅仅是舆论层面,属于云计算的“黄金时代”或许才刚刚开始。
01 云计算的“第二增长曲线”
生成式 AI 正在席卷千行万业,想要拿到通往新时代的船票,“上云”可以说是第一选择。生成式 AI 需要云计算,也为云计算提供了新的驱动力。
直接的例子就是坐上 OpenAI“副驾驶”的微软。
4 月 25 日,微软发布了 2024 财年第三财季的财报,微软云业务的整体收入为 351 亿美元,同比增长 23%;智能云业务部门收入达到 267 亿美元,同比增长 21%,其中 Azure 和其他云服务的收入增长 31%,AI 对 Azure 的收入贡献提升至 7%,高于 2024 财年第二财季的 6%和第一财季的 3%。
人工智能释放出的增长推动力,让华尔街的分析师们普遍对微软持有乐观态度。券商 Wedbush 的知名科技分析师 Daniel Ives 直言:“未来 6 到 12 个月内,人工智能用例可能会在整个企业领域呈爆炸式增长。我们将此视为微软的’iPhone 时刻’,人工智能将改变微软未来几年的云增长轨迹,我们对此充满信心。”
一个礼拜前结束的 WWDC 2024,进一步印证了这样的趋势。
从苹果公布的 AI 战略来看,全场最大的亮点莫过于和 ChatGPT 的整合:用户可以呼唤 Siri,以及在全系统的写作工具中调用 ChatGPT,实现聊天机器人、图像生成等功能,且这些需求会上传到 OpenAI 的数据中心,在云端完成。也就意味着,AI 推理将长期以“云端为主”,至少是三到五年中的常态。
事实上,国内市场也早有准备。
比如华为云在 2023 年 9 月上线的昇腾云服务,除了满足基础的 AI 算力需求,还提供了高效长稳的大模型训练环境和完备的工具链,千亿参数行业模型的端到端开发,从过去的 5 个月缩短到了 1 个月。
同样做出选择的还有大模型厂商。有别于 2023 年初疯狂囤芯片的景象,越来越多的大模型厂商开始在云上训练和推理。比如估值超过 25 亿美元的 MiniMax,没有购买任何 GPU,而是以相对便宜的价格租赁云算力。
不只是云厂商和大模型厂商,走在 AI 第一线的大中型企业,也已经将 AI 和云作为战略方向。
借用奇瑞汽车股份有限公司副总经理戴闯的说法:“预计未来 5 年智能网联汽车将超过 90%的渗透率,将累计上万 PB 的数据量。汽车行业的数据价值挖掘不充分,所以奇瑞认为以 AI 推动的创新是必然之路,基于云服务的自动驾驶数据闭环平台,围绕算力、算法、数据构建了端到端的 AI 底座。”
如果将资源上云、应用上云看作是云计算的“第一增长曲线”,急剧增长的生成式 AI 需求,将为云计算带来“第二增长曲线”,在基础资源需求逐渐饱和时,为云计算行业开辟了新的增量市场。
02 云上 AI 成为“最大公约数”
必须回答的一个问题是:满足算力需求的方式有很多,譬如自建算力中心的方式,为什么大大小小的企业要选择云上 AI 算力呢?
似乎有必要回顾下互联网的商业简史。
在 PC 互联网初期,一台服务器就足以撑起一个网站。到了移动互联网时代,智能手机的普及进一步扩充了网民群体,形成了一个又一个月活上亿的超级应用。正是在这一时期,云计算开始走进人们的视线,提供了一种比传统机房更灵活、更弹性的资源获取方式。
移动互联网的商业模式是“以终端为中心”的,智能手机的保有量某种程度上就是移动互联网的上限。而生成式 AI 的特征是“以智能为中心”,借助自然语言的交互范式,手机、电视、汽车、空调等任何终端都可以是交互入口,算力需求注定会爆炸性增长。
“计算”量的指数级增长,也带来了建设周期、运维、散热等一系列挑战。
以大模型训练为例,通常需要数千张 GPU,基于 TB 级别的数据,耗时几个月进行训练。一旦出现硬件故障、电源中断、数据传输问题,训练过程可能会被打断,导致长时间的等待和之前计算资源的浪费。
无法绕开的还有算力中心的散热问题。AI 服务器的功率密度远超通用服务器,单机柜的功耗是过去的 6-8 倍。在“绿色数据中心”的政策限制下,需要专用的液冷系统进行散热,以降低 PUE(能效比)。
两相比较的话,云计算有着近乎“降维打击”的优势。
比如在算力交付方面,华为云芜湖数据中心在全球首创了机房产品化交付模式,将电力、AHU 制冷等模块化,把电缆管道预制化,可实现极速交付,并将交付过程中的质量问题降低了 90%;在运维层面引入 IOT 技术,实现了告警秒级上报、故障分钟级定位;在散热方面,华为云首创了云服务感知能效调优技术,AI 智能调优精度高达 99.5%,可使 PUE 降低 8%到 15%……
身为“局内人”的科大讯飞董事长刘庆峰,对此有着深刻认识:“下一步我们还有更多任务要开发,更多算力要用,在我们自己建算力集群之后,我们发现在华为云上做训练推理建设比自己做更轻松、效率更高,更能满足短时瞬间的规模化算力应用之后,释放波峰波谷(减少能耗闲置,算力削峰填谷),对整个行业都是效率最高的。”
大模型及相关应用是迄今为止最复杂的软硬件系统工程,需要系统性创新才能应对。云上 AI 算力作为一种高效、灵活、可扩展的解决方案,无疑是打破算力瓶颈的最优解,并因此成为产业上下游的共识。
03 下半场将比拼“算力服务”
云计算价值和演进方向的悄然变化,意味着游戏规则也将同步更新:不再是拼价格的“低水平内卷”,而是进入比拼“算力服务”的新赛段。
其中的一个关键赛点在于,能否提供“无处不在”的算力服务以及全栈 AI 能力。
为何不少企业倾向于自建算力中心,原因之一就是对时延的苛刻要求。大模型训练时常常需要几个 TB 的数据传输,没有哪家企业甘愿被带宽和时延卡了脖子。况且大模型将有 90%以上的算力需求用于推理,如果时延过长,将导致推理过程的延迟,直接影响响应效率和用户体验。
这也就成了云厂商们“卷”的新方向。
譬如 6 月 14 日正式开服的华为云华东(芜湖)数据中心,不仅标志着华为云全国存算网布局的全面完成,还画出了一个覆盖华东、华中等算力高地的 10ms 时延圈,时延圈内的对时延要求非常高的 AI 推理、电商、游戏等行业,都可以一键接入。
除了在物理上降低时延,通过多级恢复机制、完备的工具链等保障服务的连续性、稳定性,也是保障算力服务“无处不在”的思路。
以昇腾云服务为例,为大模型和 AI 应用的开发运行提供了资源获取快、模型迁移快、故障修复快等六大 AI 支撑能力,实现了模型训练一键接入多个算力中心、出现故障可以在 10 分钟内恢复、推理服务就近接入相应的 AI 算力中心等服务,保障 AI 企业在任何地方都能享受即开即用的澎湃算力。
另一个不应忽略的赛点是“解决行业难题”的能力。
拥有全栈 AI 能力的华为云,可以说是最早给出答案的云厂商之一。
而对于庞大中小企业的需求,华为云的全栈 AI 能力可提供从云化算力、模型开发、模型托管到生态的全栈服务,提供 ModelArts Standard(一站式 AI 开发服务)、ModelArts Lite(高性价比算力服务)等多种模式,帮助企业实现训推一体。
也就是说,华为云打造的“AI 基建“能力覆盖了模型开发的全流程,企业无需投资通用 AI 技术,省去了在山路上摸爬滚打的时间可以直接上 AI 高速公路。
简单做个总结的话:相比上一次的红利期,生成式 AI 浪潮催生出的“蛋糕”更大,对云厂商的筛选也将更为严格。既需要先进的存算网络,有能力保障不断增长的算力需求,也需要在技术和模式上同步创新,真正帮助企业“解难题,做难事”,让 AI 重塑千行万业。无数个带着问题和需求上云的客户,将加速向技术派云厂商转移。
04 写在最后
回到文初的话题,为什么说云计算的“黄金时代”才刚开始呢?
就现阶段而言,云计算的增长引擎已经从价格渠道逐步向需求驱动、价值驱动转变,势必会倒逼云厂商改变市场策略,将资源投入到核心领域,继而从“低水平内卷”重回理性增长的轨道。
把视角再放长远一些,AI 对云计算的“颠覆”才露出冰山一角,过去的云服务是以功能为中心的,譬如 CRM、客服系统、OA 等等。未来将是以场景为中心,基于大模型的能力,打破功能上的边界,深入场景解决问题。彼时,云计算将渐渐剥离资源属性,成为智能世界的“底层系统”。
评论