本地私有化部署 DeepSeek & Dify ,告别“服务器繁忙,请稍后再试”

前言
DeepSeek 最近实在太火爆了,导致官网对话访问经常提示“服务器繁忙,请稍后再试”。 如下图所示:

关于什么是 DeepSeek 这里就不科普了,自己上网随便查一下就知道了。

目前 DeepSeek 最大的问题是访问流量太大,导致用户体验不好,它的深度思考模型和联网能力没有充分发挥出来,不过我相信后续加大投入,这类问题应该能得到缓解。
本文主要面向想在本地部署私有模型的开发同学,打造专属私人 AI 助手。
前置准备
硬件环境
MacBook Pro(推荐)
CPU >= 2 Core
内存 >=16GB (推荐)
笔者的电脑配置:

软件环境
注:这里只演示在 MacBook 的部署过程,Windows 和 Linux 的同学请自行实践。
安装 Ollama & 加载模型
什么是 Ollama?
Ollama 是一款跨平台的大模型管理客户端(MacOS、Windows、Linux),旨在无缝部署大型语言模型 (LLM),例如 DeepSeek、Llama、Mistral 等。Ollama 提供大模型一键部署,所有使用数据均会保存在本地机器内,提供全方面的数据隐私和安全性。

下载 &加载本地模型
下载安装完 ollama 后,通过命令行可以查看对应的版本,并可以开始部署你想要的模型,这里选择的是 deepseek-r1(默认是 7b)。


安装交互式 UI:ChatBox
什么是 ChatBox?
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。

选择模型提供方:OLLAMA API
填入 API 域名:http://127.0.0.1:11434
选择模型:deepseek-r1:latest
验证本地模型对话

至此你已经可以通过 chatbox 来跟 deepseek 对话, 如果你只是想体验 DeepSeek 的功能, 下面关于 Dify 大模型服务搭建可以略过。
Dify 搭建个人知识库
什么是 Dify?
Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

Docker Compose 部署
参考 Docker Compose 部署
https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose
启动 Docker 容器
假设遇到以下问题,可以在前面我们安装的 Docker Desktop 设置里面配置镜像:

Docker Engine 配置

国内代理经常失效或访问超时,这里可以多尝试几次,或者配置新的代理镜像地址。
参考:目前国内可用 Docker 镜像源汇总(https://www.coderjia.cn/archives/dba3f94c-a021-468a-8ac6-e840f85867ea)
镜像容器启动成功如下所示:

Dify 平台添加 Ollama 模型
1、浏览器访问http://localhost/(默认 80 端口),进入 Dify。
2、首次进入初始化设置账号密码
3、点击 Dify 平台右上角头像-> 设置 -> 模型供应商,选择 Ollama,点击“添加模型”


模型名称:deepseek-r1

Dify 创建应用

Dify 支持聊天助手、Agent、文本生成等基础应用,还支持进阶应用 Chatflow 和工作流。这里我们先简单尝试创建聊天助手,填入基本信息,点击“创建”即可。
Dify 创建知识库
主页选择知识库 -> 创建知识库 -> 上传知识,搭建属于你自己的知识库。


使用知识库

至此,基于 Dify 搭建个人知识库已完成, 如此一来模型可以基于知识库输出更精确的的问答。
写在最后
本文实践了如何通过 Ollama 本地部署 DeepSeek R1 模型,并且尝试通过 Dify 平台来创建个人知识库,进而搭建专属私人的 AI 助手。笔者在实践的过程中也收获良多,打开了自己尝试 AI 工具的思路。
DeepSeek 的爆火估计会让全球科技巨头重新审视“大力(堆芯片,高成本)出奇迹”的问题,一家名不见经传的小公司为什么可以能够突破创新,而且诞生在中国,难道我们已经摆脱“追随者”的身份了?我相信这只是开始,AI 军备竞赛已经开始打响,作为普通人无法避开科技浪潮,如何不让自己随波逐流,或许我们需要躬身入局去体验,思考和探索。
版权声明: 本文为 InfoQ 作者【巫山老妖】的原创文章。
原文链接:【http://xie.infoq.cn/article/e7b771a22375e1b684a62e0f5】。文章转载请联系作者。
评论