步步向前,曙光已现:百度的大模型之路
大模型,是今年全球科技界最火热,最耀眼的关键词。在几个月的狂飙突进中,全球主要科技公司纷纷加入了大模型领域。中国 AI 产业更是开启了被戏称为“百模大战”的盛况。
但喧嚣与热闹之后,新的问题也随之而来:大模型的力量究竟能否持续发展?在拥有了许多大模型之后,我们又该做些什么?
简单来说,面向机遇与挑战并重的大模型时代,中国 AI 需要从拼参数、拼数量的“短期主义”中走出来,走向长期发展与生态凝聚。
有大模型并不难,难的是让大模型走向远方。
8 月 16 日,由深度学习技术及应用国家工程研究中心主办的 WAVE SUMMIT 深度学习开发者大会 2023 在北京举行。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰表示,大语言模型具备了理解、生成、逻辑、记忆等人工智能的核心基础能力,为通用人工智能带来曙光。
如果要总结这一届 WAVE SUMMIT,那么在我看来,最重要的价值是百度展示了大模型如何走向“长期主义”发展模式。通过文心加飞桨,为产业伙伴与开发者构建可持续发展的 AI 基础设施,为产业智能化提供源源不绝的动力。
大模型不是终点,而是起点
随着“百模大战”的兴起,大模型以最高效率抵达了产业繁荣状态。但随之到来的是很多疑虑,比如在有了大模型之后,我们究竟如何让它发挥价值?比如,大模型的技术能力,还能不能进一步突破,如何突破?再比如大模型之间的竞争,会不会变成低价、低质的竞底游戏?
这些疑虑背后的关键,是产业界目前传递出的信号,过分强调“要有大模型”。反而很少提及大模型如何长期发展,如何摆脱零和博弈。
我们关注大模型,难道不是惊艳于它的表现,于是开始畅想它的未来吗?难道我们真的满足于“有很多大模型”就是终局吗?
换言之,大模型应该是起点,而非终点。
目前来看,大模型的技术、产业与生态都还处在发展的萌芽期。各方应该携手共建,描画大模型的美好未来。大模型之路,至少需要完成三个目标:
1.向产业价值,完成大模型向 C 端与 B 端的应用落地,推动 AI 原生应用走向时代前沿。
2.向众智生态,大模型应该是各行各业、万千开发者的大模型,集众智才能立高远。
3.向技术突破,大模型目前的表现仅是开端,我们需要有方法、有路径来驱动大模型持续发生技术突破,直到走向 AGI 的远景目标。
如何铺这条大模型路?百度在 WAVE SUMMIT 深度学习开发者大会 2023,展示了他们一直以来都在做的三件事。
指南针:AGI 曙光已现
如果说,大模型还能向前走,那么它应该向哪里走?百度为大模型时代铺路,做的第一件事,是向各界展示了关于大语言模型方向的“指南针”。
AI 开发者们都知道,WAVE SUMMIT 深度学习开发者大会,历来是呈现百度对深度学习技术未来洞察的舞台。
2019 年,王海峰在首届 WAVE SUMMIT 中提出,深度学习具有很强的通用性,并具备标准化、自动化和模块化的工业大生产特征,推动人工智能进入工业大生产阶段。
四年来,AI 工业大生产的方向不断得到了充分验证,更引导了 AI 产业的发展与 AI 开放生态的繁荣。今天,AI 技术在各领域展现出了充沛的生产力释放效应,证明 AI 工业大生产阶段已经正式到来。
面对大模型时代新的方向性问题,王海峰也给出了清晰明确的洞察。本届 WAVE SUMMIT,王海峰首次对外表示,人工智能具有多种典型能力,理解、生成、逻辑、记忆是其中的核心基础能力,这四项能力越强,越接近通用人工智能,而大语言模型具备了这四项能力,为通用人工智能(AGI)带来曙光。
也就是说,大模型持续向前发展,实现技术突破是可预见、可期待、可实现的。以理解、生成、逻辑、记忆四项核心技术作为向量,我们可以规划出大模型长期发展的路标与路径。
这样的论断,建立于百度扎实的技术探索之上。
以文心一言为例,它首先从数万亿数据和数千亿知识中融合学习得到预训练大模型,在此基础上采用有监督精调、人类反馈的强化学习和提示等技术,并具备知识增强、检索增强和对话增强等技术优势。进一步地,文心一言通过多种策略优化数据源及数据分布、基础模型长文建模、多类型多阶段有监督精调、多任务自适应有监督精调、多层次多粒度奖励模型等技术创新,全面提升基础通用能力。在检索增强和知识增强的基础上,通过知识点增强,提升对世界知识的掌握和运用;通过大规模逻辑数据构建、逻辑知识建模、多粒度语义知识组合以及符号神经网络,提升逻辑能力;通过构建数据、内容、模型和系统安全的全面安全体系,保障大模型的安全性。可以说,其具备了理解、生成、逻辑、记忆等核心基础能力。
王海峰的阐释既解答了各界对大模型长期发展动力的期待,更直接点明了 AGI 这一长期目标的实现方式。将目前的大模型技术基础,与人类科技的星辰大海联接在了一起。
除此之外,王海峰还分享了百度在大模型效率、应用等方面的最新进展。
所有远大航程都始于找到正确的航海图。大语言模型具备了理解、生成、逻辑、记忆四项核心基础能力,带来 AGI 的曙光,正是这样一张值得各界深度思考的航图。
筑路基:文心加飞桨的步步向前
知道了要向哪里走,接下来的问题是应该如何走?面对这个问题,百度为大模型时代做的第二件事,就是通过文心加飞桨,为大模型发展铺设新的路基。
百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜表示,文心一言熟练掌握的创作体裁超过 200 种,涵盖了几乎所有写作需求,内容丰富度是初期的 1.6 倍、思维链长度是初期的 2.1 倍,知识点覆盖是初期的 8.3 倍。
这样的进展效率背后,是百度在核心技术、开发平台、应用部署等领域协同发力的成果。而百度在大模型领域得到的先驱者经验,也将通过文心加飞桨打造的 AI 基础设施,面向开发者与千行百业进行落地。
在本届 WAVE SUMMIT 当中,我们可以看到百度围绕大模型的开发、优化、应用,取得了许多关键性、基础性的进展,我们可以从中试举几项加以说明:
1.扩展大模型能力边界的插件生态
面对全新的大模型机遇,插件机制是开发者急切期待的。为了填补这一需求,文心大模型在 3.5 版本中新增了插件机制,已上线了百度搜索、览卷文档、一镜流影、说图解画、E 言易图五种官方原生插件。王海峰表示,未来百度将与开发者共建插件生态,共享技术创新成果。
从 WAVE SUMMIT 的反馈来看,各界对这些插件的认可达到了很高指数。
比如说,览卷文档可以借助文档智能模型及搜索系统,实现对文档的格式、布局等信息充分理解及定位,从而帮助用户实现文档摘要、问答及创作的需求。
再比如,一镜流影依托文心跨模态大模型,突破了不同模态之间语义对齐等技术难题。用户仅需简单输入文字,即可在 1 分钟内获得高质量的 AIGC 视频,为大模型+视频带来了全新的效率升级与想象力突破。
E 言易图则实现了将文字需求转化为可视化图表的需求。仅需简单的数据图表需求,或输入待生成图表的数据内容,即可生成可交互图表,协助用户完成数据分析、洞察及图表信息的交互演示,从而实现大模型与办公、财务、数据统计等领域更为紧密、有针对性的结合。
2.深度学习平台与大模型的联合优化
在大模型成为各界关注重点之后,如何更好更快地训练大模型,提升大模型推理效率,成为了产业中至关重要的挑战。为此,经过紧密的技术升级,百度已经将文心与飞桨联合优化这条路跑通、跑顺,成为了整个大模型产业可以参考的升级范本。
本届 WAVE SUMMIT 上正式发布了飞桨开源框架 v2.5,其全面完成了架构升级,同时在大模型训练、推理和多硬件适配方面带来了新的功能。其中,文心与飞桨联合优化最为关键,通过协同优化,文心大模型 3.5 训练速度是优化前的 3 倍,推理速度更是达到了 30 倍以上。
大模型效率的提升离不开飞桨的加持,在训练方面,百度总结了一套打法:
从硬件资源层面看,飞桨与文心在硬件集群上进行协同优化,提升了有效训练时间占比;通过芯片、存储、网络协同优化,提升了模型的训练吞吐速度,从而全面实现了以更小资源消耗实现大模型训练目标;与模型算法协同优化,提高收敛效率。在大模型训练中,优化收敛效率和稳定性,可大幅度减少训练时间,达到事半功倍的效果。
在推理方面,飞桨则是从模型压缩、推理引擎、服务部署三个关键环节进行协同优化。作为深度学习开发平台,飞桨可以支持 AI 模型从训练到推理的全流程落地。举例来看,飞桨模型推理服务就可以有效支持大模型推理效率提升。其在业内首创了支持动态插入的分布式推理引擎,从而可以更有效完成庞大数据规模的 AI 模型进行推理部署。在这些关键环节的协同推理能力提升下,飞桨不断帮助文心大模型提升推理效率与推理性能,让模型的学习效果与鲁棒性更强,从而取得更强的应用效果。
到目前为止,文心与飞桨的联合优化路径被持续验证,进而打通了大模型低成本、高效率落地的大门。
3.应用侧的先导示范。
面对着大模型的能力与机遇,各界不仅关注大模型基础技术,同时也希望在应用侧直接获得大模型支持,以及通过有效的 AI 原生应用来探索自身的应用落地方案。
在这一方面,WAVE SUMMIT 上展示了文心一言的能力,通过智能工作平台如流进入办公场景,全面提升办公效率。百度集团副总裁、百度集团首席信息官李莹发布了如流的“超级助理”。 在代码智能化场景,百度 Comate 系列产品全新升级,重磅发布智能编程助手 ComateX 和 Comate Stack 工具套件,实现了代码解释、代码生成、行间注释生成、单元测试用例等能力。
文心加飞桨,通过不断升级技术、完善工具、落地应用,让大模型的路基沿着正确方向一路铺设开去,从而让更多开发者、更多行业伙伴能够走上这条路,走近大模型的时代机遇。只有在众力众行之下,中国 AI 才能滚滚向前。
开航道:为开发者,为产业,为生态
在定准方向,夯实技术之后,下一个问题是如何让更多人加入进来,分享大模型红利。为此,百度为大模型时代做的第三件事,是把大模型变成繁荣的生态航道。让更多行业、更多开发者以高效率、低门槛的方式融入进来,驶向自己的目标。
生态与技术并重,始终是百度发展 AI 技术的立足根本。经过多年发展,产业级深度学习开源开放平台飞桨,已经凝聚了 800 万开发者,服务于 22 万家企事业单位,基于飞桨创建的 AI 模型达到 80 万个。
而面向大模型的机遇,百度同样也广开生态之门,注重社区发展。WAVE SUMMIT 期间,王海峰发布了飞桨开发者社区 AI Studio 中文名“星河社区”,寓意“文心加飞桨,翩然赴星河”。
与此同时,正式推出了星河大模型社区。在社区,开发者可以获得一体化的大模型开发支持。飞桨+文心贯通全开发流程,与开发者持续共创大模型项目和应用。目前,星河大模型社区已上线了超过 300 个大模型创意应用,还提供了丰富的功能方便开发者进行交流。百度还发布了文心大模型“星河”共创计划,提供生态和产业资源,与广大开发者共同推动人工智能应用创新。
而在作为 AI 产业底座的硬件领域,文心大模型最新与英伟达、寒武纪、华为等 12 家硬件伙伴开展了适配,覆盖了云和端侧多种硬件类型。目前,已经有 25 家硬件伙伴参与到了星河社区硬件生态专区的共建当中。
从产业落地的角度来看,文心大模型的落地规模在国内保持领先,已经有 15 万家企业申请了文心一言内测,其中超过 300 家生态伙伴在 400 多个具体场景取得了测试成效,覆盖办公提效、知识管理、智能客服、智能营销等领域。同时,百度联合国家电网、浦发银行、泰康、吉利等企业联合发布了 11 个行业大模型。
不难看出,百度开辟的大模型航道,已经实现了落地广泛、生态繁荣、伙伴众多。百度的大模型之路,正在这样的航道上徐徐展开。
相比于以“有大模型”作为全部目标,百度的大模型之路目光更远,看向 AGI 的星辰大海。
相比于堆积参数和技术务虚,百度的大模型之路更加脚踏实地,它是在一个个插件,一次次优化中走通的,每一个脚印清晰可见。
相比于短期利益与劣币竞争,百度的大模型之路坚持生态互利,它是行业的路,开发者的路,更多人的路。
中国 AI 的大模型之路,当如是也。
版权声明: 本文为 InfoQ 作者【脑极体】的原创文章。
原文链接:【http://xie.infoq.cn/article/ba250a1eea05b36219e49c816】。
本文遵守【CC-BY 4.0】协议,转载请保留原文出处及本版权声明。
评论