写点什么

开源大模型在私有云部署的实践方法论 - 移卡篇

作者:Geek_2d6073
  • 2024-06-14
    湖北
  • 本文字数:3833 字

    阅读完需:约 13 分钟

过去一年多的时间,由于 ChatGPT 验证了通用大模型路线的正确,在国内外大模型的簇拥下,大部分企业都已开始尝试将生成式 AI 与公司业务做结合。

IDC 最新的一份报告显示,70%的企业看好生成式 AI 能够创造新价值。到 2027 年,亚太区域 AI 支出将达到 907 亿美元,2022 年至 2027 年复合年均增长率高达 28.9%。

对比 2023 年年初,人们对大模型已经从“观望”状态切入了“all in”模式;通用大模型从原来商业模式不清晰的处境,逐渐有了“价格战”的苗头;而大模型的应用从原来仅限于简单的 AI 创作、到长文本输出,甚至互联网大厂上线的代码助手可以帮技术人员做 20%左右的工作。

根据公开消息,百度此前曾宣布其代码助手已经编写内部四分之一的代码;百度搜索最新数据披露,11%的搜索结果由 AI 生成;阿里云内部已经全面推行 AI 写代码,未来 20%的代码将有智能代码助手完成;网易严选也对外披露内部 50%的商详、营销海报都由 AI 完成,甚至 AI 已经开始参与商品设计……

也正是因为对大模型的了解和研发的迭代,企业在实践过程中对大模型的认知也有了新的变化,讨论也越来越深入,并形成了一些方法论。

罗小辉在港股上市公司移卡(09923.HK)担任 CTO,公司主要业务包括一站式支付、到店电商服务和商户解决方案,2023 年年营收近 40 亿元。2022 年年底 ChatGPT 出现后,罗小辉带领着 10 人左右的 AI Lab 团队开始了公司内部生成式 AI 系列项目的研发。从 2023 年开始,公司智能客服、代码助手、AI 创作工具等 AIGC 应用已经逐步落地,并形成了自己独特的开源大模型在私有云部署实践方法论。

复盘两年左右的大模型落地过程,罗小辉团队可以看作大模型浪潮下诸多企业跃跃欲试跟进大模型的时代缩影。在与罗小辉的交流中,他主要表达了三个观点:

落地大模型的现阶段目标,以服务内部为主:罗小辉所在公司移卡落地大模型的一个主要考量是“向内赋能”,效果放在从研发效率、到营销素材创作效率,以及客服自助率的提升等等。

开源与闭源大模型的路线选择不是非此即彼,“实用、好用才是王道”:虽然大模型提供商在开源与闭源的话题上呛声颇多,但对于大模型使用企业来说,开源和闭源大模型各有优劣,且适用场景不同,移卡在自有 IDC 上部署了开源大模型,也在 API 上接入了闭源大模型。

算力瓶颈不是问题,日常训练及推理普通 GPU 卡也可满足:移卡使用大模型的一个背景,与很多互联网公司大量或全部使用公有云不同,作为一家有移动支付业务的公司,移卡自公司建立之日起使用的就是自建 IDC 的私有云,公有云只是辅助。由于在 ChatGPT 爆火之前公司自己囤了一些英伟达的 A100,后期因为“限购”,采用较多为 A10。

以下为访谈实录:

问:一开始是出于什么原因或契机,想要尝试生成式 AI 研发?

罗小辉:真正开始接触是 2023 年年初,体验完 ChatGPT 之后,很震撼。作为一家大模型应用公司,我们更多聚焦在挖掘大模型应用价值的方向开展工作。首先试点的是到店电商业务中内容生成的一些需求,比如营销内容制作、微信图文、短视频生成等。

问:很多企业在“All in 生成式 AI”,如何评估生成式 AI 在公司的战略地位?

罗小辉:再好的技术,如果找不到很好的落地场景,不能够输出价值的话,是没有用的。当看到一项技术潜力的时候,我们会比较务实地去找技术和公司业务的结合空间,这是第一个要回答的问题。第二步工作就是做一系列的论证,效果验证、调优。

问:生成式 AI 的到来,是否对组织方式一定的影响?

罗小辉:还是原来 AI Lab 的人在做,第一个阶段之后,到第二个验证阶段,需要业务团队参与效果评估,把它落到业务的工作过程中去。以图文生成工具为例,产品研发到上限前后大概经历了半年时间,其中技术团队 2 个月研发,业务团队花 3~4 个月调优,比如文风的对齐、打磨。

问:踩过坑吗,或者说经验?

罗小辉:通用大模型直接在具体场景中使用会有一些局限性,它对一些特定领域的知识掌握是不够的,特别是要用到业务流当中,最好的情况是能够给它一些范例,结合一些本地数据。我们是结合了本地之前已经积累的知识图谱。

问:项目节奏如何把握,遇到过哪些困难、挑战?

罗小辉:不同团队的节奏不一样,公司会给我们的 AI 团队比较大的灵活空间,快落地的时候就会与业务形成紧密的、有目的性的结合关系。

难和简单是相对而言的,比如最开始设定目标的时候,如果目标是要做出很好的效果这是有难度的,包括选型的时候怎么权衡,不是说使用 ChatGPT-4.0 就一定比 ChatGPT-3.5 要好,这里还要考虑成本,4.0 比 3.5 高 10 倍的成本业务场景到底能不能承受?然后在速度上,4.0 响应速度要 10 秒、20 秒,3.5 会更快。以及当需要大模型跟业务进行深度结合的时候,就需要用到开源模型,这些都是要考虑的问题。

问:提到开源,最近大厂来来回回就“开源”的话题有不少讨论,特别是百度公开强调很多次闭源大模型的优势,你怎么看两个路线的选择?

罗小辉:百度是从自己的视角出发的,他们做基础模型。跳出基础模型的视角,站在应用的角度,我个人认为开源有开源的优势,闭源有闭源的优势,可能不同的场合不同的公司有不同的选择。

特别是要私有化部署大模型的时候,并不是所有公司都适合闭源,不排除有些公司囿于技术资源,选择直接访问通用大模型 API。但是对于需要跟业务场景做深度结合的科技公司,开源更合适。

问:实操过程中,你们开源闭源都用了吗?

罗小辉:对的,我们是两条路线都在走。

问:无论是训练还是推理,算力是大模型重要影响因素,你们有遇到算力的问题吗?

罗小辉:肯定会涉及算力这一块,但总体上还好。我们不涉及训练基础大模型,更多是在大模型基础之上,做一些本地化学习,也就是微调。

问:目前使用的是国产 GPU 吗?

罗小辉:没有用国产的,我们在国内没有限购之前,采购了一批 A100。但是后面因为限购,又补充了一些不受限的 A10。

问:您刚才提到目前移卡在用的大模型应用有 AI 创作、智能客服、智能代码助手等等,这些应用市面上都有大厂在做,你们是选他们还是从零自研?

罗小辉:我们是选择自研,比较过其他公开产品,最终还是选择了自研。

不是说智能客服、代码助手随便一个公司就可以做,没有门槛。而是因为这些产品在落地应用的过程,一定要与本地数据做结合,无论是智能客服还是代码助手、AI 创作,都一定会需要本地数据调优,市面上标准化的产品无法满足我们的需求,他们很少能够给企业比较大的自主和调优的空间。这些大模型应用不是一蹴而就的,而是需要把知识图谱不断扩大、不断调优,才能越来越适用企业的真实使用场景。

另外,从代码助手来说,我们作为一家科技公司,如果要使用别人的代码助手,就等于把公司核心资产交出去了,这是一件很恐怖的、我们不允许出现的事情,代码泄露是非常大的风险点。

问:智能客服在 GPT 出现之前的使用体验确实很差,你们现在的智能客服,在调优了之后可以做到哪种程度?

罗小辉:在没有用大模型之前,我们的客服自助完结率是 50%,也就是一半的客服能够通过智能客服解决,另外一半需要转人工。经过几次版本迭代,加上大模型调优,我们客服自助完结率已经从 50%做到了超过 80%。

自助完结率的提升可以帮我们节省一部分成本,人效比提升之后,客服团队会减一部分,这部分人会有更多时间去处理其他更需要人来解决的问题。

问:代码助手的使用效果如何?

罗小辉:技术人员的代码习惯有很大差别,我们也是在基础大模型之上结合了本地代码库,来适配公司技术人员的工作习惯。这个比较难的一点是,技术人员在适应了一种工作习惯后,让他转换工作习惯很难,所以代码助手目前还没有全员推广,还处于一个内测调优的试点状态。目前平均代码采纳率已经有 20%,比较好的案例是有程序员可以做到 30%的代码由代码助手来写。就是技术人员他写的代码里面有 30%来自大模型,编码效率得到极大提升。

问:移卡从主营业务上来说是移动支付行业,最近一些机构联合推出了金融行业大模型,对于行业大模型,后期会考虑参与吗?

罗小辉:有关注,但是还没有真正介入规划。金融行业大模型其实是一个比较宽泛的概念,金融业分很多领域,支付、银行、保险等等每个领域其实都有区别,那么每个具体的领域怎么定义场景,是非常重要的,所以金融大模型真正落地的话还需要再进一步。但现在可能还没到这一步。

另外,就移卡目前使用大模型的阶段来说,跟支付行业的关系并没有那么大,主要是跟企业本身的关系很大。对于场景的选择、对于本地数据的要求,以及跟业务的结合程度有关系。

本质上,我们把大模型看作一次技术浪潮,这个浪潮会深入影响到各行各业,只是说这个影响在什么节点体现。金融行业大模型的出现也是对浪潮的一个反应,这个反应需要一段时间才能探索出结果,找到场景和结合点。

问:在数据方面,移卡是一家云原生的公司吗,早期就积累了很多数据资产?

罗小辉:我们是一家云原生的公司,但我们主要使用的是自建 IDC 的私有云,公有云只是辅助,所以私有化部署大模型对我们来说很重要。

问:为什么不主要考虑公有云?

罗小辉:前几年上云确实是一个趋势,有很多好处,甚至是成本更划算的一种选择。但这两年有发生一些变化,因为云的模式,会让企业的自主性受限,特别是我们是移动支付的偏金融行业,公有云上其实不太好满足各项要求。

我们定位是一家以支付为基础的科技公司,所以在很多事情上,技术自主是我们首先要考虑的事情。

问:未来在大模型上,还会有别的计划吗?

罗小辉:持续探索大模型的应用场景,可见的未来,我们可以开展的方向主要有几个,第一我们元宇宙游戏业务的素材生成,3D 素材等等;第二个出海战略中一系列的问题,比如用大模型解决语言相通的问题、跨国界的各种问题都有待探索;第三个内部组织效率的赋能上。另外,也不排除未来有成熟的产品面向市场。

用户头像

Geek_2d6073

关注

还未添加个人签名 2021-12-22 加入

还未添加个人简介

评论

发布
暂无评论
开源大模型在私有云部署的实践方法论-移卡篇_Geek_2d6073_InfoQ写作社区