Deepseek 官网太卡,教你 5 分钟在云服务器上部署 Deepseek-R1
深度求索在 2025 年 1 月 20 日开源了其第一代推理模型 DeepSeek-R1,性能对标 OpenAI o1 模型。云应用支持 DeepSeek-R1 快速部署。
1.安装 Deepseek
我们需要在腾讯云服务器上进行部署,打开地址:https://app.cloud.tencent.com/detail/SPU_BHDIEHIJCA8003,点开 Deepseek 的应用安装页面
点击安装应用按钮,我们准备下一步操作

2.选中服务器类型
我们选择 VPC 类型、地域、还有云服务器类型,第一次使用时选择最便宜的那款即可,然后点击下一步:确定资源

3.确认订单信息
在确定订单页面,需要提前在账户里充钱,至少要求运行一个小时需要的余额,这里我的余额不足,无法点击下一步,我们给老马充点钱之后,就可以继续下一步了

4.等待安装
接着我们等待 5 分钟左右,Deepseek 就安装好了

5.使用 Deepseek
1.安装完成后,我们点击打开应用
按钮,即可打开 Web 界面

2.打开页面后,在 Web 界面的欢迎页,点击开始使用

3.初次使用时,需要创建管理员账号

4.我们可以在用户设置的General
里将系统语言设置为中文

5.接着我们就可以开始愉快的对话了,R1 大模型就是具有深度思考能力的,V3 模型是普通模型,不具备深度思考能力

Ollama API 支持
云应用部署的版本,已经支持了 Ollama API 的访问端口,可以在应用视图的安装信息界面查看 API 地址,访问 API 地址后,可以看到Ollama is running
的字样说明正常运行中。
可以在 URL 后面拼接/api/tags
查看已经支持的模型,Ollama API 官方接口文档请参考:https://github.com/ollama/ollama/blob/main/docs/api.md


版权声明: 本文为 InfoQ 作者【卷福同学】的原创文章。
原文链接:【http://xie.infoq.cn/article/4640db19e3c9a705ebb636264】。文章转载请联系作者。
评论