英伟达,不能只做孤独的胜利者
图片|Photo by the economic times
©自象限原创
作者|周游
编辑|程心
“英伟达是教科书式的市场大错觉”
大模型的浪潮下,英伟达成了 2023 年最赚钱的科技公司,但传奇投资人、投资机构 Research Affiliates 的董事长罗伯•阿诺特却认为英伟达在今年惊人的反弹后形成了巨大资产泡沫。
表面原因有很多,无论是英伟达不够老的资历、远超行业水平的市盈率,还是对其硬件生产商业模式天花板的讨论,人们认可英伟达的价值,也同样担忧他的未来。
以市盈率为例,作为对比,微软总市值 2.36 万亿,市盈率 ttm32.75;谷歌市值 1.64 万亿,市盈率 ttm27.54;苹果市值 2.73 万亿,市盈率 ttm29.33;而英伟达市值 1.03 万亿,市盈率却高达 100.51。
而更核心的原因在于,在巨大的 AI 浪潮,似乎只有英伟达一家赚得盆满钵满。
整个产业链尚处于百废待兴的状态,一切都在十分早期,商业化的路径并不明确。从其中上市科技公司的二季度财报数据来看,包括 Google、Meta、Microsoft 在内,推动增长的仍然是最传统的广告业务,AI 在财报中不仅没有成为主角,甚至没有被过多提到。
当然,英伟达抢滩着陆,因为他是典型的“卖铲子”的公司,但不能忽视的问题是,如果淘金者持续淘不到金子,卖铲子的生意也不可持续。
个体的繁荣要建立在生态的繁荣之上,否则一条不健康的产业链,无法培育出下一个长红的万亿科技公司。
当然,从英伟达最近频繁的投资和谈判的动作来看,英伟达正试图破局,在 GPU 之上讲出一个关于“云与软件服务”的新故事,以此来重新锚定自己在 AI 时代的位置。
英伟达,不能只做孤独的胜利者。
焦虑
伟达是 AI 大模型最大的受益者,今年他或将一改全球半导体行业已经 21 年的格局,成为年收入最高的半导体公司。
近日,名半导体行业咨询机构 Semiconductor Intelligence 发布消息,预计英伟达 2023 年收入将达到 529 亿美元,接近其 2022 年收入的两倍,并超越英特尔和三星,成为全球收入最高的半导体公司。
目前来看,英伟达二季度的收入就已经超过英特尔。财报数据显示,英伟达二季度收入收入为 135.1 亿美元,较上一季度增长 88%,较去年同期增长 101%,净利润更是暴涨 843%。
▲图源:Semiconductor Intelligence
这一切自然都得益于 AI 大模型的爆发,其 A100 和 H100 系列是目前训练 AI 大模型最有效率的工具。研究机构 Omdia 近日提到,英伟达二季度出货了 900 吨 H100 显卡,按一张 H100 约 3kg 的重量,仅二季度英伟达可能就卖出了约 30 万块 H100。
毫无疑问,2023 年是英伟达最高光的时候,但即便这样的高光顶上也不免存在着一朵阴云——即除了英伟达之外,其他和大模型相关的企业似乎都不怎么赚钱。
8 月底,The Information 报道 OpenAI 预计在未来 12 个月内,通过销售人工智能软件及其计算能力,将获得超过 10 亿美元的收入,但这些收入目前还只是“预计”。
更直观的一点感受是,今年二季度,作为如今全球 AI 大模型最具代表的企业,在 Google 母公司 Alphabet、Microsoft 和 Meta 的财报中 ,AI 不仅没有成为其中主角,甚至没有被提到更多。
真正推动这些巨无霸增长的,还是最传统的互联网变现方式——广告。各家在提到二季度的增长时,都异口同声的提到:“得益于广告行业的复苏”。
至于 AI 和大模型,过去半年中“OpenAI 使用了 Azure 的智能云服务”一直被认为是 Azure 最好的广告,但二季度 Azure 的业绩增速并不理想。财报显示,微软智能云业务的收入增长为 32 亿美元,涨幅 15%。而 2023 财年 Q2、Q3 的增幅分别为 18%和 16%,2022 财年 Q4 的增幅为 20%。
▲数据来源:微软财报
Alphabet 也处于漫长的投入期,其首席财务官 Ruth Porat 在之前的财报电话会议上表示,新的人工智能技术是有代价的,Alphabet 第二季度资本支出的最大组成部分是服务器,以及对人工智能计算的“重大投资”。
在国内,只有三六零在 9 月份发布半年报时提到,大模型已经为公司创收 2000 万元,被认为是第一个用大模型赚到钱的互联网公司。但对比上半年 15.6 亿元的研发投入,也只是杯水车薪。
显而易见,英伟达是目前少有的通过 AI 大模型赚到钱的公司。原因也很简单,因为别人都在“淘金子”,但他是在卖“铲子”。
大多数人欣赏这样的公司,因为这是每次淘金热中最稳定赚钱的一拨人。但人们其实也总爱忽略一个问题,即如果淘金的人长时间淘不到金子,那么“卖铲子”的生意也必定不会长久。
近日,集微网报道,AI 协作工具 Microsoft 365 Copilot 需求不如之前强烈等原因,微软正在下调英伟达 H100 芯片订单,且拉货放缓。
德意志银行的分析师也曾在英伟达财报后提到,他们预计数据中心客户将在某个时候放慢购买芯片的速度,以便“消化”已经购买的芯片。
显然,由于商业化落地不及预期,今年上半年疯狂下单的芯片正在经历一个“冷静”和“饱和”的阶段。
这正是英伟达的焦虑。
作为“卖铲者”,英伟达的增长必须要建立在行业整体的增长之上,只有英伟达一家赚钱的行业不是一个好行业。
破局
为了缓解这种焦虑,上半年赚了钱的英伟达开始疯狂投资。
据不完全统计,英伟达今年上半年已完成 20 多笔投资,作为对比,作为全球创投界的"三巨头"之一的环球老虎基金,今年上半年也才完成 30 笔左右的交易。
英伟达投资的企业主要都与 AI 相关,其中不乏 AI 大模型的“独角兽企业”,比如加拿大 AI 公司 Cohere,软件初创公司 Databricks、美国 AI 初创公司 Inflection AI、视频类 AI 生成公司 Runway 等等。
▲图:Inflection AI 官网
投资这些公司,除了生态布局和投资回报之外,对于英伟达最直接的意义还是拉动其 GPU 的增长。
比如,Inflection AI 6 月份宣布正在开发一款超级计算机,将配备 2.2 万片英伟达 H100。再比如,同样获得英伟达投资的 AI 算力新秀 CoreWeave,近期通过抵押 H100 拿到了 23 亿美元的贷款,用来购买更多英伟达 GPU 组建计算中心。
通过给 AI 大模型企业提供投资,企业拿到钱之后又反过来购买英伟达的 GPU,再将 GPU 抵押贷款,贷出来的钱再购买英伟达的 GPU。
如此循环,鸡生蛋,蛋生鸡。以至于有人批评英伟达获得收入的方式是“往返交易”(洗钱的一种方式)。
当然,对于英伟达来说,通过投资来扩大 GPU 的出货量显然不是最终目的,这背后隐藏着英伟达面对产业焦虑的解决方式和磅礴的野心。
作为参考,英伟达上一个投资爆发点在 2017 年,当时核心围绕两个方向,一个是以 GPU 为计算核心的人工智能,另一个则是汽车电子。
彼时黄仁勋意识到除了游戏外,GPU 擅长的并行计算可能在未来对其他庞大数据处理的需求都有用武之地,英伟达开始靠投资开疆拓土并寻找可能性。
▲图源:中国电子报整理
基于此,也诞生了英伟达目前硬件上最核心的两块长板,一是通用 GPU(GPGPU),第二则是自动驾驶芯片。目前,英伟达 Orin 系列自动驾驶芯片已经成为除特斯拉以外其他智能车的标配。
这轮投资后,英伟达也最终形成了目前以游戏显示、数据中心、汽车作为“三架马车”的有业务路线。
因此,当我们梳理了英伟达近 20 年的投资历史会发现一个结论:英伟达的投资方向往往代表了未来布局的方向,且总能通过投资来反哺自身业务。正如其 VP Jonathan Cohen 在最近接受采访时所说,英伟达正在投资于理解和加速整个生成式人工智能的技术栈。
到这,我们几乎就能理解,英伟达正欲通过投资培养和寻找未来,同时带动 AI 生态的其他环节实现“共同富裕”。
这不只是为了英伟达,更是为了整个生态的繁荣。
野心
当然商业世界中从来不存在温情,英伟达此举,更是为了巩固和加强自己在未来 AI 生态中的关键地位,成为类似于 Windows 时代的 Intel,才能穿越下个经济和技术周期。
除了找到与生态结合更准确的方向,英伟达也不满足于只“卖卡”这一项服务,而是想要参与到更多大模型的开发和应用过程当中。
去年,英伟达向 AWS、Azure、谷歌云等大客户们提议,想要在他们的数据中心租用英伟达芯片支持的服务器,然后把这些服务器溢价转租给人工智能软件开发商。
这么做对于英伟达来说,既可以向大模型企业提供云服务,又可以避开前期自建 IaaS 层的高昂的投入和时间成本,能够更快实现商业化。对于英伟达来说,是一笔卖卡之外的额外收入,一本万利。
▲图:DGX Cloud 来自英伟达官网
据英伟达官网数据,DGX Cloud(英伟达自建的云服务)客户可以以每月 3.7 万美元的价格租用内嵌 8 个 A100 的 GPU 云服务器,而在 AWS 上,A100 GPU 服务器的费用在每小时 32 美元至 40 美元之间,即每月 2.4 万 美元至 3 万美元之间。
我们简单的算一笔账,英伟达不仅能将 8 块 A100 卖给云厂商,还能赚到每月 7000 美元的差价,按照一块 A100 五年寿命计算,5 年内英伟达能多赚 42 万美元。
当然,英伟达也不可能满足于只赚差价的生意。其真正的目的隐藏在英伟达投资的众多明星公司中两个毫不起眼的项目,那是两家小型云服务的公司,从体量上根本不能与 AWS、Azure 和 Google 的 GCP 相比。
但英伟达走的是一条“软件定义硬件”的道路,基于云厂商提供的服务器资源搭配 DGX Cloud,英伟达的工程师利用他们对本公司芯片的了解,可以通过软件对服务器进行调优,同时搭配更多开发工具和软件解决方案,使其性能优于其他云厂商提供的服务器。
AI 软件公司 Anyscale 就曾表示,与传统云提供商为客户提供的 GPU 服务器相比,DGX Cloud 的性能“非常高,而且售价也非常有竞争力”。
显然,“卖铲人”不甘于屈居幕后,而是要走向台前,并在逐渐深入软件生态,增加多元化收入,在云厂商的领地里,再造一个英伟达。
尾声
英伟达当然明白,时势造英雄,也能败英雄。
如果不思考长期战略,英伟达如今的成功,很像风口上被鼓吹起来的“胖子”,高光时刻或如过眼云烟,尤其是当技术车轮继续滚滚向前,英伟达所面临的挑战也越来越多。
比如无论是国内还是国外,从谷歌到阿里、从微软到百度,各家云厂商都已经自研了自己的云端 AI 芯片,未来显然会逐渐降低对英伟达的依赖。
除此之外,目前 AI 大模型企业对于英伟达 GPU 的需求,本质上还是来源于 Transformer 架构下,大模型对算力的需要。
但随着 AI 大模型的参数规模越来越大,Transformer 架构下的算力成本也在如指数级上升。从目前的相关报道来看,GPT-4 可能在 1 万到 2.5 万张 A100 上进行的训练,而根据马斯克的说法,GPT-5 可能需要 3 万到 5 万张 H100。
为了解决算力带来的巨大成本,也有越来越多的顶尖研究机构开始探索比 Transformer 更有效率的架构,以期待降低对算力的依赖。
比如斯坦福和 Mila 的研究人员提出了一种名为 Hyena 的新架构,在达到与 GPT-4 同等准确性的前提下,使用的算力少 100 倍。但目前 Hyena 架构还只能在参数规模较小的情况下使用,不到 GPT-3 的十分之一。
此外,麻省理工学院的两名研究人员也从提出了 “液态神经网络” (liquid neural networks)。这种架构不仅速度更快,而且异常稳定,这意味着系统可以处理大量的输入而不至于失控,且比"Transformer"更加透明且更易于人类理解。
整体上,基础架构不断改进,以达到减少对算力依赖的“命运齿轮”已经开始转动。就像《三体》中不知道何时会出现的技术大爆炸一样,不可预料,也不可轻视。
而英伟达需要做的,就是赶在新的技术范式诞生之前,推动 AI 生态基于 Transformer 和 GPU 建立一个庞大的生态。
这既是英伟达焦虑,也正是英伟达的野心。
评论