写点什么

使用 Appilot 部署 Llama2,会聊天就行!

作者:SEAL安全
  • 2023-11-03
    云南
  • 本文字数:792 字

    阅读完需:约 3 分钟

使用 Appilot 部署 Llama2,会聊天就行!

Walrus 是一款基于平台工程理念的应用管理平台,致力于解决应用交付领域的深切痛点。借助 Walrus 将云原生的能力和最佳实践扩展到非容器化环境,并支持任意应用形态统一编排部署,降低使用基础设施的复杂度,为研发和运维团队提供易用、一致的应用管理和部署体验,进而构建无缝协作的软件交付流程。 


在之前文章中,我们探讨了如何使用 Walrus 在 AWS 上部署 Llama2。在今天的文章中,我们将手把手教您使用 AI 工具 Appilot 来简化这个部署过程。Appilot 是一款面向 DevOps 场景的 AI 助手,它可以充分利用 AI 大语言模型的能力让用户直接输入自然语言即可实现应用管理、环境管理、故障诊断、混合基础设施编排等功能。 

使用前提

  • 获取可访问 gpt-4 模型的 OpenAI API 密钥。

  • 安装 python3 和 make。

  • 安装 kubectl 和 helm。

  • 拥有一个正在运行的 Kubernetes 集群。 

安装 Appilot

克隆版本库:


git clone https://github.com/seal-io/appilot && cd appilot
复制代码


运行以下命令获取envfile envfile。


cp .env.example .env
复制代码


编辑.env文件并填入OPENAI_API_KEY 。运行以下命令进行安装。它将创建一个填写venvb并且安装所需的依赖项。


make install
复制代码


使用 Walrus 后台

Appilot 也可以使用 Kubernetes 等项目作为后端,本文以 Walrus 作为后端为例。要启用 Walrus 后台,首先需要安装 Walrus 并编辑envfile


  • 设置TOOLKITS=walrus

  • 填写OPENAI_API_KEYWALRUS_URLWALRUS_API_KEY  


以下是有关配置的更多信息,Appilot 可通过环境变量或envfile进行配置:



然后,您就可以运行 Appilot 了:


make run
复制代码


像聊天一样在 AWS 上部署 Llama2

在这篇文章中,我们使用了 Appilot 和 Walrus 来开启探索 Llama2 部署的旅程,并见证了这些强大的工具如何简化复杂的部署过程。您可以通过访问项目的 GitHub 地址下载和安装 Walrus 和 Appilot:


Walrus: https://github.com/seal-io/walrus


Appilot: https://github.com/seal-io/appilot 

发布于: 刚刚阅读数: 5
用户头像

SEAL安全

关注

开发者友好的企业级解决方案 2020-11-05 加入

公众号:Seal软件 Seal-io

评论

发布
暂无评论
使用 Appilot 部署 Llama2,会聊天就行!_Walrus_SEAL安全_InfoQ写作社区