AI-Native 的路要怎么走?一群技术“老炮儿”指明了方向
上世纪 70 年代,沃兹尼亚克、乔布斯、费尔森斯坦、比尔·盖茨、约翰·德雷珀等人成立了名为 Homebrew Computer Club 的组织,他们在聚会中展示创意、交换想法,希望开创一个每个人都有电脑的世界。
后来的故事大家都很熟悉,沃兹尼亚克和乔布斯在 Homebrew Computer Club 的会议上展示了 Apple I,并在第二年成立了苹果公司。同时推动了开源文化的兴起、个人电脑的普及,成了科技史上最具影响力的技术社群之一。
当世界进入到智能化时代,创新的种子在全球遍地开花,类似 Homebrew Computer Club 的社群也开始在更大范围内萌芽。
其中就有 2020 年 12 月 30 日成立的创原会,由 CNCF 执行董事 Priyanka Sharma、中国信通院云大所副所长栗蔚和华为云 CTO 张宇昕作为创始会员构建的全球技术创新交流平台,希望通过探索前沿的云原生、AI 等技术,共享产业落地实践经验的方式,共创技术与业务融合的无限可能。
经过四年时间的发展,创原会已经吸纳了来自学术研究、汽车出行、能源制造、互联网、金融投资、货运物流等行业的三百多位技术骨干,不乏衔远科技创始人周伯文、面壁智能 CEO 李大海、吉利汽车数字中心主任郑金伟、小红书云原生基础平台负责人黄玉奇等懂行的技术“老炮儿”。
正是在这样的背景下,每年一次的创原会年度技术峰会,作为会员们年度相聚、思想碰撞、互动交流的“舞台”,已成为洞察行业创新趋势、落地实践经验的风向标。
比如刚刚结束的 2024 创原会年度技术峰会,达成了“全面拥抱 AI-Native”的共识,并为 AI-Native 的落地指明了方向。
01 走向 AI-Native,先要解决算力资源的挑战
根据咨询机构 Gartner 的预测,2026 年将有超过 80%的企业在生产环境中落地大模型或调用 API,并部署启用生成式 AI 应用。
比研究报告更加直观的,是创原会年度技术峰会上的热烈讨论:技术“老炮儿”谈论的不再是“怎么使用 AI”,而是怎么将 AI 作为业务和生产的核心支撑,用 AI 重塑流程与创新产品,实现更高效与智能的运作。
创原会的会员们一致认为,算力挑战是普遍现象。
大模型的训练和推理,都需要强大的算力资源,而国内的很多企业无力承担庞大的硬件采购成本。即使有了算力,由于大规模分布式计算、弹性扩展和模型调优等技术的要求较高,常常出现算力浪费或利用率不足的问题。
华为云 CTO、创原会荣誉理事长张宇昕在演讲中表示:“我们期望每个企业都能实时按需获取 AI 算力,构建弹性、高效、多元算力的 AI-Native 基础设施是关键。”
传统的数据中心是 CPU 为中心的主从架构,所有资源的交互和信息传递都以 CPU 调度为主,CPU 性能提升和网络带宽等都成为瓶颈。比如在 AI 训练推理的场景中,CPU 为中心的架构无法完全满足业务所需的超大网络总线带宽、内存带宽和显存容量,直接限制了训练推理效率,并导致 NPU 算力和其它资源的闲置。
华为云的解题思路是将数据中心演进到多元算力对等全互联的架构,通过高速互联网络协议,将 CPU、NPU、内存等算力资源全部互联,实现资源全池化、全对等互连、资源按需组合,从单体算力进化到矩阵算力。
张宇昕举了一个真实的例子:在使用万亿参数的盘古 S 模型运行训练任务时,采用多元算力对等架构的华为云 CloudMatrix,计算效率比传统架构提升了 68%;千亿参数的盘古 U 模型的推理效率提升了 30%。
解决算力瓶颈只是第一步,存储也是制约 AI 发展的关键要素:32GB 的显存仅能装下 70 亿参数的模型,且随着模型参数规格的增长,推理的显存需求并发变大。
针对 AI 落地应用过程中遇到的存储、数据等问题,华为云早已给出了一整套成熟的解决方案:
通过用池化架构来扩展显存的方式,解决了推理过程中的内存墙限制;通过将 KV 计算任务卸载到虚拟显存和 CPU 上,让单卡的并发数大幅提升;通过数据库领域大模型+场景小模型的多模型协同,打造了智能的数据库引擎,并利用智能开发助手和智能运维助手,全面提升开发和运维效率;以及在安全合规、隐私保护、可靠可控等方面的全盘布局。
走向 AI-Native 的过程,也是重新定义基础设施的过程。就像打开水龙头时,我们不需要知道水是从哪条河里来的;当我们调用 AI 算力的时候,不需要知道算力是怎么来的,背后的技术和运维有多复杂。
02 AI 原生应用开发,有了“流水线”般的新范式
回答了算力资源的问题后,AI-Native 就不再是一道选择题,而是千行万业数智化转型升级的必答题。
华为云副总裁、战略与产业发展部总裁黄瑾讲述了自己的判断:
相对历史上所有重大技术变革和创新,不管是云计算、移动互联网时代,其商业生态链都呈倒金字塔结构——应用和内容为王。同时坦言 AI 正在重塑 IT 的方方面面,包括重新定义基础设施、重塑软件开发过程、重塑软件交互体验,甚至在重塑软件生态。
新的时代序幕已经拉开,身在局中的创原会会员们感同身受,他们的态度体现在讨论的议题上:《根据企业自身业务需求,如何识别和选择 AI 在开发领域的价值场景?》《如何选择智能化研发相关的关键技术?》《AI 时代下的效能双引擎联动,如何实现确定性增长?》
面对如何高效打造 AI 原生应用的疑问,张宇昕结合华为云将大模型落地到 30 多个行业的 400 多个场景的经验,给出了三个建议:
第一,企业应用要基于 AI-Native 的云服务来开发和构建。
每个企业都需要持续思考如何把 AI 能力融入到自己的产品和应用中去,通过用以知识为中心的数据湖来构筑数据底座,用自主智能的工具链来开发应用,用 AIGC+CG 融合的数字内容生产线来创作内容等等。这样的产品和应用将具备自主学习、持续迭代、适应变化的能力。
第二,用基础大模型+工具链+企业经验,构建企业自己的专属模型。
大模型落地应用的过程中,也产生了“不可能三角”问题——需要在专业性、泛化性、经济性三者中做好权衡:通用大模型缺乏行业 Know-how,在专业性上无法胜任企业的业务需要;训练大量专业数据,又会引发大模型的泛化能力下降;模型参数规模越大,性能和精度效果越好,但是训练成本会很高。
张宇昕的答案是:“模型不是越大越好,也不是一个大模型可以打遍天下,企业要结合自身经验和行业 Know-how 来打造自己专属的模型。”
比如将不同行业专属的高质量数据,结合行业 Know-how 训练通用大模型,并针对不同行业对模型能力的偏好进行通用数据增强,打造行业场景的大模型。各个企业在行业大模型的基础上,增训自己的私有数据、企业 Know-how,调度企业专用工具和插件,构建出企业自己的专属模型。
第三,用大模型系统构建 AI 原生应用,实现企业智能升级。
大模型的训练不应该重复造轮子,大模型的落地也不应该一次次从 0 到 1,而是将模型与工程化能力相结合,实现模型接入与对外接口标准化,开发者可以按照相应的规则调用,直接创建 AI 原生应用。
相对应的正是华为云的大模型系统,包含行业数据和知识组成的知识中心,企业专属大模型、开源大模型以及传统小模型构成的模型中心,搜索引擎、代码执行器整合而成的组件中心等等。
开发者可以通过大模型系统的增强插件,譬如安全护栏保障模型的安全性、RAG 检索增强来消除大模型幻觉,利用标准的 API 接口,协同配合多种模型,以取长补短的方式快速实现企业的智能化升级。
打一个比方的话:如果说传统的应用开发是“手工作坊”,有了完善的工具链、大模型系统和独立处理复杂任务的 AI Agent,AI 原生应用的开发已经进入到了“流水线生产”的模式,为数智化转型按下了“加速键”。
03 大模型平民化,在场景中看见新质生产力
当 AI-Native 的路径被跑通,大模型不再是少数头部企业的“特权”,AI 将和千行万业的真实场景碰撞出什么样的火花?
就历史经验来看,相较于数据上的宏观论述,可以触摸的落地案例更有说服力。2024 创原会年度技术峰会上有一个特别的环节,评选出了“2024 年度 AI-Native 十大先锋实践”,也为外界提供了窥探落地现状的窗口。
我们筛选出了三个有代表性的例子。
一是借助 AIGC 优化内容生产流程的喜马拉雅。
作为国内规模领先的在线音频分享平台,喜马拉雅在 2023 年专门成立了“珠峰实验室”,着手研发了“珠峰音频 AI 模型”。
为了解决大模型训练和推理的算力需求,喜马拉雅构建了自建 AI 基础设施与公有云 AI 资源池的混合架构,让资源利用效率提升了 20%、资源成本降低了 10%。目前“珠峰音频 AI 模型”已经生产了数万本有声书,包括模仿单田芳声音的 AI 合成音频专辑,极大降低了平台的成本投入。
内容生产的流程被重塑后,喜马拉雅进一步研发了 AI 智能推送系统、国内首个全内容智能 AI 音箱小雅等产品,不仅提升了内容推送精准度和效率,也为听众带来了更加沉浸式、定制化的音频体验。
二是用 AI 大模型打造零售智能体的美宜佳。
深耕零售行业近 30 年的美宜佳,开启了创办以来“最具创新”的一次转型,联合华为云盘古大模型打造了 AI+IoT+美宜佳业务平台的零售智能体,并将其落地到 3.7 万家门店,探索零售行业的新业态。
数字店员可以随场随身解答顾客的问题,播放音乐缓解顾客的压力,像一座智慧化的“城市灯塔”,点亮了深夜归家的路。
值得一提的是,美宜佳的智能化探索,不仅为品牌商、门店店主、消费者提供了服务成本更低、效率更高、体验更好的集成生态服务,沉淀下来的经验和能力还将外溢到整个行业,驱动零售行业服务升级。
三是北京市政一卡通的人工智能创新实践。
基于华为云的 AI 原生基础设施,北京市政一卡通依托 AI 技术完成了一卡通支付的智能化改造,有效支撑了一卡通公司在公共交通、商业消费、政府管理、创新应用 4 大领域 28 个行业的广泛落地。
目前北京市政一卡通已经覆盖国内 330 多个城市,每天为数千万用户提供持续、稳定、高效、安全的支付服务。同时人工智能还在用卡安全等方面发挥了重要作用,为公共服务与社会治理提供了创新示范,连续多年被列入北京市政府“为市民办实事工程”。
正如张宇昕所说:“中国的 AI 产业有着巨大的机遇,我们可以充分发挥在行业场景和行业数据领域的优势,让 AI 深入到企业核心生产系统,真正发挥产业价值和商业价值,推动产业升级和转型。”
三个跨越互联网、零售、政企的例子,仅仅是 AI 原生应用图景的一隅,却用事实印证了张宇昕的判断,让外界看到了实实在在的新质生产力,看到了行业生产力的跃迁。
04 写在最后
Homebrew Computer Club 在 50 年前点燃了个人计算机革命,为人类的生活和工作方式产生了颠覆性改变。
承袭了这种精神的创原会,为技术先锋和产业创新者搭建了沟通的桥梁,正在将创新的力量扩散到更多的行业和场景中。
也许多年后再来审视 2024 创原会年度技术峰会,人们会惊讶地发现:解答了 AI 原生的算力困境、疏通了原生应用的开发路径,照亮了一个个创新案例后,AI-Native 的“星星之火”从此刻开始燎原。
评论