以 Serverless 低成本的⽅式 快速在亚马逊云科技上部署 DeepSeek
2025 年春节,最令人瞩目的无疑是 DeepSeek 的惊艳亮相,它以颠覆性的创新迅速席卷全球,成为街谈巷议的热点。无论是在地铁车厢里,还是公司茶水间,DeepSeek 都成了人们津津乐道的话题。社交平台上,网友们争相分享与 DeepSeek 的“互动瞬间”,从探讨未来科技趋势到交流生活小窍门,仿佛一切问题都能通过 DeepSeek 找到答案。

DeepSeek R1 模型是 DeepSeek 研发的一款高效 AI 语言模型,能够以极低的成本提供媲美大规模基础模型的性能。它适用于各种 AI 任务,包括自然语言处理(NLP)、智能客服、知识问答等。
相比传统大规模 AI 模型,DeepSeek R1 计算资源占用更低,推理速度更快,成本更可控。
亚马逊云科技部署 DeepSeek 的优势
北京时间 1 月 31 日,亚马逊宣布已经把 DeepSeek - R1 纳入其平台,DeepSeek-R1 模型现在在亚马逊的云服务上可用。

现在集成了 DeepSeek-R1,亚马逊云科技仅按基础设施使用时间收费,延续了亚马逊云科技一贯的弹性计费方式,降低了用户(尤其是中小企业和初创公司)的试错成本。为用户提供更高效、更经济的人工智能解决方案,强化了其作为全栈服务商的定位,有助于抵御竞争对手的 AI 生态攻势。
如何在亚马逊云科技部署 DeepSeek
在亚马逊云科技部署 DeepSeek-R1 模型的路径包括:
1. Amazon Bedrock Marketplace 中的 DeepSeek-R1 模型
1. Amazon Bedrock Marketplace 中的 DeepSeek-R1 模型
2. Amazon SageMaker JumpStart 中的 DeepSeek-R1 模型
3. 使⽤ AWS Trainium 和 AWS Inferentia 部署 DeepSeek-R1–Distill 模型
4. 使⽤ Amazon Bedrock ⾃定义模型导⼊功能部署 DeepSeek-R1–Distill 模型
上述路径中 ,1/2/3 均需要使⽤⼀台亚马逊云科技 GPU 服务器作为基底部署,即使是对于 7B 的蒸馏版 DeepSeek-R1,也⾄少需要⼀台 g6e.2xlarge 服务器,每⽉费⽤为 1636.72 美元。
因此本⽂着重介绍其中第四点 ,这是⼀种⽆服务器的部署⽅式,⽆需管理底层基础设施,模型单元⾃动扩展,按实际使⽤量计费。
定价⽰例:
在 us-east-1 区域导⼊⼀个 8B 参数的 DeepSeek-R1 模型,序列⻓度为 128K,并在 1 个⽉后删除该模型。这需要 2 个⾃定义模型单元,每分钟的价格为 0.1570 美元,每⽉的模型存储费⽤为 3.90 美元。
01 前期准备
Bedrock 的⾃定义模型功能只⽀持以下两个区域,因此请确保当前亚马逊云科技控制台已切换⾄正确的区域:
弗吉尼亚北部 us-east-1
俄勒冈州 us-west-2
1. ⼀个 S3 存储桶⽤来存储从 HuggingFace 下载的 DeepSeek 模型包 ,⽅便导⼊ Bedrock。
2. ⼀个 EC2 角⾊⽤来允许 EC2 服务器读写 S3 桶 ,⽅便从 HuggingFace 下载了模型之 后 ,导⼊S3 中。
3. ⼀台 EC2 服务器⽤来进⾏中转 ,从 HuggingFace 下载模型并上传⾄S3。该服务器 的存储空间建议为:8B 模型⾄少 50GB ,70B 模型⾄少 300GB。
02 模型导入
通过 SSH⼯具登录刚才创建的 EC2 服务器,然后按照以下流程执⾏。
・更新 Ubuntu 系统的软件包列表,确保能获取最新的软件包信息
・安装 Amazon CLI
・安装 Git Large File Storage (LFS) ,这是⼀个 Git 的扩展 ,⽤于处理⼤⽂件下载
・检查 Git LFS 的版本 ,确认安装成功

・初始化 Git LFS
・从 HuggingFace 仓库下载模型⽂件,使⽤Git LFS 克隆 8B 参数的 DeepSeek 模型
・如果需要使⽤70B 模型则使⽤这条命令
・检查下载的 8B 模型⽂件夹的总⼤⼩ ,8B 模型⾄少 17GB ,70B 模型⾄少 135GB

・使⽤Amazon CLI 将下载的 8B 模型⽂件上传到 Amazon S3 存储桶 命令中的<s3< span=""> URI>需要替换为模型存储位置的 S3 URI
・在 S3 中的⽂件列表应当如下图所⽰

03 在 Bedrock 倒入模型
・导航⾄Bedrock 控制台,找到“导⼊的模型ˮ → “导⼊模型ˮ

・⾃定义⼀个模型名称

・在“模型导⼊设置ˮ⾥填写模型存储的 S3 URI。 或者使⽤ “浏览 S3ˮ⼯具 ,可视化选 择路径

・通常等到 5-30 分钟后 ,可以看到模型导⼊完成 请记录此处的模型 ARN ,后续调⽤时会⽤到

04 调入导入的 Bedrock 自定义模型
・通过发送 InvokeModel 或 InvokeModelWithResponseStream 请求,可以通过 API 对导⼊的模型运⾏推理。请参考⽂档:
https://docs.aws.amazon.com/bedrock/latest/userguide/inference- invoke.html
・Amazon CLI 调⽤ InvokeModel API ⽰例 ,请修改此处<model-arn>
使⽤ InvokeModelWithResponseStream API 通过 Python ⽣成流式回复
评论