将大模型装进 PC 和手机,需要怎样的底层创“芯”?
当前,以生成式 AI 为代表的新一代人工智能技术持续火热,大模型推理场景向端侧加速迁移,在深度变革人机交互界面的同时,也为手机、PC 等消费电子产业注入源源动能。然而,生成式 AI 对硬件的快速赋能背后,也对算力、存储等方面提出了新的需求。这些新的需求,也为芯片厂商、终端厂商以及应用开发者带来了新的挑战与新的机遇。
我们应该如何应对这些挑战?如何把握生成式 AI 带来的机遇呢?产业各界已经联手给出了答案。
近日,国内领先的通用计算 CPU 设计公司此芯科技正式推出了其首款专为 AI PC 打造的异构高能效芯片产品——“此芯 P1”。据了解,这款芯片不仅异构集成了 Armv9 CPU 核心与 Arm Immortalis GPU,还搭载了安谋科技“周易”NPU 等自研业务产品,能够提供高效能的异构算力资源、系统级的安全保障以及技术生态支持,将更好地满足生成式 AI 在 PC 等端侧场景的应用需求。
除 AI PC 以外,AI 手机同样热度高涨,三星、华为、小米、vivo、OPPO、荣耀等各大手机厂商也都在积极探索与端侧 AI 的深度融合,力求为用户带来更加智能化的新体验。
如此看来,推动端侧 AI 快速落地,需要更多类似的创新应用方案,而其中的底层技术革新更是关键所在。
众所周知,AI 大模型从生产到应用主要包括“训练”和“推理”两个步骤。其训练和推理过程需要占用大量的计算资源和存储空间,通常部署在云计算平台上。而当用户调用智能对话助手等 AI 大模型时,必须联网接入。但云端大模型不仅算力成本高昂,而且在实时性、数据隐私安全等方面也面临着诸多挑战。
在此背景下,端侧大模型顺势而生。其核心是将 AI 大模型直接部署到终端设备,让这些设备拥有“本地智能”,无需依赖网络连接,即可自行完成数据处理和智能决策。
在新一轮端侧大模型热潮中,以下两大趋势正逐步显现:
首先是大模型逐渐小型化,通过将大模型的参数规模进行有效压缩,以适配终端设备的软硬件性能范围。目前,大模型厂商新品往往包含大、中、小等不同参数量级,其最小的模型参数多在百亿以下。这背后的原因主要是出于对计算成本、功耗和性能等因素的综合考量,尤其是在端侧部署大模型时,百亿参数级大模型能够更好地匹配现阶段的大众级终端设备。
第二个趋势是终端厂商正加速端侧大模型“装机”。以 PC 和手机为例,自去年以来,头部 PC 厂商相继推出了内置本地大模型的 AI PC 新品,国内主流手机厂商也已经在其旗舰产品中成功部署 70 亿参数规模的大模型,AI PC 和 AI 手机随即进入了应用爆发期。除此之外,端侧大模型也已扩展到智能汽车以及具身智能机器人、AR/VR 等 IoT 设备领域。
综上所述,模型公司与终端硬件公司正相向而行,共同推动端侧大模型的场景化落地,让更多普通消费者也能轻松享用到大模型带来的智能体验。而大模型与终端产品二者间的交汇点,正是边缘端设备的计算基础——芯片。
其中,CPU 作为最为核心的计算“大脑”,在端侧推理过程中发挥着不容小觑的作用。
CPU 作为智能终端的运算及控制中枢,其性能直接关系到端侧设备的响应速度、处理能力、能效、用户体验和安全性等,是衡量终端性能的关键指标。生成式 AI 兴起后,随着大模型小型化和推理任务向端侧迁移,CPU 始终稳居终端硬件的核心地位,能够出色胜任本地 AI 推理,为海量设备提供强有力的计算支持。具体来看:
首先,AI 处理始于 CPU。早期智能手机上的 AI 功能大多基于自然语言处理(NLP)和计算机视觉(CV)等技术,如文字转写、人脸识别、相册分类、美颜滤镜等细分功能。此类 AI 工作负载或是全权交由 CPU 处理,或是结合其他协处理器共同支持。
其次,AI 处理爆发于 CPU。CPU 的通用性使其能够快速响应端侧大模型在不同场景的落地需求。例如面对入门级智能手机、汽车智能座舱、AIoT 设备等应用场景,CPU 可高效处理参数规模在数十亿级别的小型计算任务。而在 PC 和旗舰智能手机等更高阶的应用场景,所需处理的计算任务则相对复杂且庞大,即便配备了 AI 专用加速器,CPU 依旧是不可或缺的计算基石,且能独立承担处理百亿参数级别的更大规模计算任务。
Arm CPU 凭借其在低功耗、高能效上的显著优势,被广泛应用于各类消费电子设备。得益于 Arm CPU 的 AI 计算能力,目前全世界约 99%的智能手机都具备在端侧处理大模型所需的技术,包括 NEON 扩展架构、SVE 可扩展向量扩展技术、SME 可扩展矩阵扩展技术等关键 Arm 架构功能。以当今的安卓平台来看,第三方应用中有 70%的 AI 运行在 Arm CPU 上。除手机外,基于 Arm CPU 的 PC 市场规模也在迅速增长。
面向下一代 AI 终端设备,全新 Arm 终端计算子系统(CSS)应运而生,这是迄今为止运行速度最快的 Arm 计算平台,不仅在计算和图形性能上实现 30%以上的提升,而且 AI 推理速度提高了 59%,适用于更广泛的 AI、机器学习(ML)和计算视觉工作负载。同步推出的还有 Arm Kleidi 软件开发平台,能够帮助开发者快速获得开发生成式 AI 应用所需的性能、工具和软件库。
Arm 终端 CSS 和 Arm KleidiAI 等新一代终端计算技术将进一步加速 AI 终端普及。预计 2025 年底,基于 Arm 架构的 AI 设备有望突破 1000 亿台。
与此同时,随着端侧推理需求的日渐高涨,生成式 AI 用例将在更多元化的应用场景中“遍地开花”,然而计算任务复杂度和数据量也随之激增,将对未来 AI 终端硬件提出更高的要求。由此,兼具通用性和专用性的异构计算解决方案已是大势所趋,它能够有机融合 CPU、GPU、NPU 等不同处理器,以满足端侧大模型部署的多样化计算需求。
其中,NPU 全称 Neural Processing Unit(神经网络处理单元),专门针对神经网络进行设计与优化,能更加高效地运行 Transformer 架构的 AI 模型。随着 AI 手机、AI PC 概念的普及,NPU 的重要性也日益凸显,它可以在视频、图像、系统管理等各类场景中发挥出色的 AI 加速能力,解决日益增长的终端推理需求。
安谋科技早在成立之初既已布局 AI 赛道,本土自研的“周易”NPU 目前已迭代了 Z 系列和 X 系列的多款产品,广泛应用于中高端安防、智能家居、移动设备、物联网、智能座舱、ADAS、边缘服务器等市场。
开篇提到的“此芯 P1”则采用了基于第三代“周易”架构设计的 NPU。通过对低功耗与高算力的针对性优化,“周易”NPU 不仅能够胜任长时间、高负载的任务处理,还支持多核多 Cluster 的算力扩展。在“周易”NPU 的设计上,安谋科技从性能、精度、带宽、调度管理、算子支持等多个维度,对各类图像、视频 AI 模型算法进行了深度优化,并且完成了对主流大模型的适配,进一步强化其在面对高性能 AI 计算需求时的表现。
面对端侧生成式 AI 的高速发展和算力需求的不断攀升,CPU 无疑是为终端设备提供了得以接入 AI 功能的广泛计算基础,而异构计算与 NPU 则为多模态大模型等新兴 AI 应用在端侧落地打开了新的想象空间。但无论设备和应用如何演进,算力始终是支撑端侧 AI 发展的基石,也是引领终端 AI 创新的核心引擎。
版权声明: 本文为 InfoQ 作者【脑极体】的原创文章。
原文链接:【http://xie.infoq.cn/article/dc5856683fbdc6a7e00546521】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论