写点什么

如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?

作者:Serverless Devs
  • 2023-09-06
    浙江
  • 本文字数:1971 字

    阅读完需:约 6 分钟

:::info 本文是“在 Serverless 平台上构建 AIGC 应用”系列文章的第一篇文章。:::

前言

随着 ChatGPT 以及 Stable Diffusion,Midjourney 这些新生代 AIGC 应用的兴起,围绕 AIGC 应用的相关开发变得越来越广泛,有呈井喷之势,从长远看这波应用的爆发不仅仅是停留在形式之上,更是在各个领域产生实际的生产力价值,比如办公领域有 copilot system 365,钉钉智能; 代码编程领域有 github copilot ,cursor ide; 文娱领域的妙鸭相机;可以肯定的是未来 AIGC 的应用数量会更多,类型也会更加丰富,企业的内部软件或者 SOP 都会尽可能的跟 AI 进行融合,这必然催生出海量的 AIGC 应用开发需求,这也代表着巨大的市场机会。

开发 AIGC 应用的挑战

AIGC 的应用前景如此诱人,可能决定企业未来的发展走向。然而对很多中小企业及开发者而言,上手进行 aigc 应用的开发依然有着非常高昂的成本:


  • 基础模型服务的获取:chatgpt 提供了非常完善的 api 开发体系,然而并不开放给国内客户使用,开源的模型进行服务的部署非常困难

  • 高昂的费用, GPU 短缺导致 GPU 的费用急剧飙升,本地购买高规格显卡需要一次性花费不少的成本,并且并不能提供在线服务。

  • 端到端的对接:单纯模型服务的 api 无法变成直接的生产力,需要完成【企业数据 &企业 SOP】-> LLM 服务 -> 各种端侧的完整链路

函数计算 AIGC 应用的解决方案

函数计算围绕创建和使用 AIGC,从基础设施到应用生态,开发端到使用端提供的完整的配套



主要包含三个部分:


  • 一 、模型服务底座,函数计算可以部署来自魔搭,huggingface 等开元社区的 ai 模型,我们针对 LLM, Bert 等智能知识库/助手 场景做了专门的定制,接入 OpenAI 兼容的 api 规范,提供一键部署的模版和可视化的 web 访问界面,帮助开发者或者企业快速上手 llama2,chatglm2,通义千问等模型的部署

  • 二、业务连接层 ,串联业务需求以及的模型服务,安全服务,数据库服务等基础资源,这部分有在 AIGC 应用部分有很多相同的逻辑,比如账号体系,数据集管理,提示词模版,工具管理,模型服务管理等,从各业务侧视角看,不一样的部分只是 提示词,知识库以及工具集,底层的模型服务,安全服务,数据库服务则是共享的,这层可以简化业务里面构建不同智能场景的流程,快速,低成本的可以构建不同业务的 AIGC 应用

  • 三、客户端侧,客户端是 AI 应用的使用部分,也是最接近业务的部分,这部分更多的考虑是如何将 AI 服务融入已有的使用端,比如钉钉,企业微信等办公 IM 系统,以及 web 浏览器插件等,通过 函数计算+eventbridge 可以快速帮助 ai 服务接入到这些客户端


本篇教程先来分享一下第一个部分,如何通过函数计算快速部署 AIGC 相关模型服务包括 LLM 模型 和 Embedding(Bert) 模型

LLM 模型及 Embedding 服务部署教程

前期准备

使用该项目,您需要有开通以下服务:

1、对 AIGC 进行 CPU/GPU 推理计算

https://free.aliyun.com/?pipCode=fc

2、存储大语言模型以及 Embedding 服务所需要的模型, 新用户请先领取免费试用资源包https://free.aliyun.com/?product=9657388&crowd=personal

应用介绍

应用详情

使用阿里云函数计算部署开源大模型应用,提供兼容 openai 规范的接口和ChatGPT-Next-Web客户端.


操作文档

llm 应用模版

登录到阿里云函数计算控制台->应用->创建应用-> 人工智能 选择 AI 大语言模型 API 服务应用模板点击"立即创建"


应用模版设置



设置好知道点击"创建并部署默认环境"

等待部署

该过程您会自动完成

服务访问


服务部署成功之后会返回两个链接 1、llm-server 为大语言模型的 api 服务界面,基于 swagger,



2、llm-client 则是访问客户端,访问客户端需要您输入前面填写的客户端私有密码,填写好之后就可以测试使用了




embedding 模版

登录到阿里云函数计算控制台->应用->创建应用-> 人工智能 选择“开源 Bert 模型服务”应用模板点击"立即创建"


应用模版设置

选择好地域创建即可


等待部署

该过程您会自动完成

服务访问


测试 embedding 接口



总结

部署好 LLM 服务意味着您已经开启了 AIGC 应用的开发旅程,接下来我会继续跟大家分享更多关于 AIGC 相关的内容,包括如何构建知识库问答应用,如何调用工具完善大语言模型的能力,如何接入自己的 IM 系统和构建 web 的集成插件。

宇宙漫游,阿里云 x 森马 AIGC T 恤设计大赛

一、

【森马 X 阿里云 AIGC T 恤设计大赛】程序员 AIGC 自己的 T 恤,赢 Airpods,图案定制 T 恤!

通过函数计算 FC 快捷部署 Stable Diffusion:内置模型库+常用插件+ControlNet,支持 SDXL1.0


立即参加:https://developer.aliyun.com/adc/series/activity/aigc_design

可赢取 Airpods 三代,作品定制联名体恤,森马行李箱等周边!

二、

还可以参加话题活动,一起讨论 AIGC 的未来发展趋势,用户可从任意角度交流分享,可以赢得护眼台灯、数据线、静音净化器奖品!

话题:《相比优秀的服装设计师,AIGC 可以如何突破设计灵感的界限?是纯粹的机械语言还是一点点的灵光乍现?》

https://developer.aliyun.com/ask/548537?spm=a2c6h.13148508.setting.14.4a894f0esFcznR



用户头像

All in Serverless 2018-09-12 加入

更多内容关注 Serverless 微信公众号(ID:serverlessdevs),汇集 Serverless 技术最全内容,定期举办 Serverless 活动、直播,用户最佳实践。

评论

发布
暂无评论
如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?_Serverless_Serverless Devs_InfoQ写作社区