写点什么

英伟达黄仁勋 GTC 演讲,算力和数据等基础设施驱动 AI 蓬勃发展

作者:PowerVerse
  • 2025-03-21
    浙江
  • 本文字数:1224 字

    阅读完需:约 4 分钟

英伟达黄仁勋GTC演讲,算力和数据等基础设施驱动AI蓬勃发展

北京时间 3 月 19 日凌晨,被誉为一年一度的“AI 界春晚”GTC 2025 在加州圣何塞正式召开。

 

英伟达 CEO 黄仁勋展望了 AI 科技演进以及计算需求的前景,同时公布了英伟达最新产品及与其它科技巨头在自动驾驶、AI 网络、机器人领域合作研发的进展。

 

黄仁勋在演讲中将 AI 分成了四个阶段,分布为感知人工智能(Perception AI)、生成式人工智能(Generative AI)、代理人工智能(Agentic AI)、物理人工智能(Physical AI),表示目前我们处在生成式人工智能阶段。

 


人工智能向下一个阶段的发展都离不开计算、数据等基础设施条件。根据黄仁勋的说法,AI 发展赖以蓬勃发展的数据中心基础设施将快速扩张,在人工智能和加速计算需求的推动下,到 2028 年底,其资本支出将超过 1 万亿美元。

 

在过往的文章中,PowerBeats 多次提到了算力、数据等基础设施之于 AI 发展的重要性。算力可以看作是 AI 的“动力引擎”,数据是 AI 的“认知原料”。

 

在算力方面,现代大模型训练需消耗 10^23 FLOPS 计算量,相当于传统服务器集群持续运算数百年,如 GPT-3 训练需消耗 355 年的单 GPU 算力,然而依托现代超算中心可压缩至数周。

 

去中心化云算力同样可以发挥至关重要的作用,通过将闲置的算力资源借助区块链、边缘计算、超算、智算科技整合在云端,去中心化云算力可打破算力资源垄断、降低成本壁垒。例如,GPT-3 训练所需 355 GPU 年的计算量需要 800 万美元的训练成本,暴露出中心化超算服务的天然短板,也在无形中形成创新门槛。

 

中心化算力则可通过整合全球 8000 万家企业的闲置服务器群(约占总数据中心容量的 30%),将同等算力消耗成本压缩至 100-200 万美元,从根本上降低中小型研究机构、个人开发者对算力需求的准入门槛。

 

另外,大模型训练存在明显的算力需求潮汐,去中心化算力云则可通过分布式架构采用区块链矿工的工作量证明(POW)模式结合加密货币的形式,适配算力需求方对算力的波动性需求。

 

再是单点故障问题。去中心化算力云(如 PowerVerse)可基于多图拓扑的分布式任务管理高效地协调和分配任务,充分利用生态系统中的各种资源,提高整个系统的运行效率和吞吐量。当分布式节点故障率低于一定比例时,显著优于中心化系统的脆弱性特征。

 

黄仁勋在 GTC 2025 展望了 AI 科技演进以及计算需求的前景,但也提出了 AI 在计算方面面临的“巨大挑战”。他表示,在生成式 AI 目前的阶段,计算所需的 tokens 和资源比最初预期的多 100 倍。他认为这是因为推理模型在推理过程的众多步骤中都需要 tokens。

 

PowerBeats 认为,如果算力等基础设施继续进一步发展完善,例如超算或量子计算的大规模的应用,海量数据的处理应该不是问题。届时 AI 技术的发展或将遵循"正向增强回路":数据集扩大→催化算法创新→倒逼算力提升→支撑更大规模数据训练。这种递归式演化使得 AI 系统的智能水平逐步提升,持续重构人类社会的认知边界和生产方式。


联系我们和加入社区

Telegram:@RushduckMaliao

https://t.me/PowerVerseChain

声明:本文为 PowerBeats 的原创文章,不构成投资及应用建议,欢迎将本文分享给更多好友

发布于: 刚刚阅读数: 4
用户头像

PowerVerse

关注

PowerVerse(算力)驱动,PowerBeats发现 2025-03-08 加入

PowerBeats是一个聚焦DePin和去中心化云算力为主的媒体平台,关注元宇宙、Web3、AI、DePin、GPU、区块链、加密货币等领域动态,为行业提供新闻资讯、分析与见解。

评论

发布
暂无评论
英伟达黄仁勋GTC演讲,算力和数据等基础设施驱动AI蓬勃发展_算力_PowerVerse_InfoQ写作社区