使用 Ollama 和 Botnow 本地部署 DeepSeek R1 模型的对比分析
目前,开源社区有类似 Ollama 等工具支持本地部署 DeepSeek 等开源大模型,使个人用户能在笔记本电脑上快捷、透明的上手体验大模型;同时面向企业用户的智能体平台Botnow也已迅速接入 DeepSeek R1 官方 API 和本地部署 DeepSeek 系列模型两种方式。本文客观地对比分析了使用 Ollama 和 Botnow 本地运行 DeepSeek R1 等开源大模型的不同,以供用户实践参考。
Part 1 使用 Ollama 本地部署 DeepSeek R1 模型
一、安装前的环境准备
硬件概览:
型号:MacBook Pro
芯片:Apple M3 Pro
核总数:12(6 性能和 6 能效)
内存:18 GB
储存空间:1T
浏览器:
Google Chrome
二、DeepSeek 模型简介及尺寸说明
DeepSeek-V3 FP8:700G
DeepSeek-V3 是一款基于混合专家(MoE)架构的大规模语言模型,拥有 6710 亿参数,其中每个 token 激活 370 亿参数。专注于自然语言处理、知识问答、内容创作等通用任务,目标是实现高性能与低成本的平衡
DeepSeek-R1 FP8:700G
DeepSeek-R1 是基于 DeepSeek-V3-Base 模型构建的推理模型,通过强化学习和知识蒸馏技术提升了模型的推理能力。它是一个推理专用模型(系统 2 思维),专为数学、代码生成和复杂逻辑推理任务设计,通过大规模强化学习(RL)提升推理能力。
DeepSeek-R1-Distill-Qwen-7B BF16:15.23G
DeepSeek-R1-Distill 系列模型是在开源模型的基础上通过微调训练得到的,训练过程中使用了由 DeepSeek-R1 生成的样本数据。通过 DeepSeek-R1 660B 模型的推理蒸馏技术打造,在数学推理、代码生成等复杂任务中表现卓越,尤其擅长多步推导和跨领域问题解决
考虑到单机 Mac 的资源局限,这里选择“DeepSeek-R1-Distill-Qwen-7B”模型作为示例。
三、下载 ollama 到本地
下载链接:https://ollama.com/download

四、下载并运行 deepseek-r1:7b
ollama run deepseek-r1:7b

模型文件拉取完毕,会出现“Success”提示
五、测试运行
输入提示词“比较一下 3.8 和 3.11 哪个大,并给出分析过程”

运行“ollama -h”查看更多命令


Part 2 使用浏览器插件图形化体验本地模型
一、安装 Chrome 浏览器插件“Page Assist”
1. 打开 Google Chrome 浏览器,地址栏输入 chrome://extensions/ ,打开浏览器扩展程序
2. 搜索插件“Page Assist”,点击安装
二、 使用图形化界面运行 DeepSeek R1 模型
1. 从 Google 浏览器打开“Page Assist”插件
2. 选择前面下载的 deepseek-r1:7b 模型
3. 输入示例问题,如“如何找到下一个 DeepSeek 的创业项目”
4. 查看更多设置
Part 3 使用 Botnow 体验 DeepSeek R1 模型
一、使用 Botnow 接入的 DeepSeek R1 官方 API
1. 登录智能体平台 Botnow SaaS 版(域名:https://botnow.cn)
2. 进入“Bots”,点击“新建 Bot”
3. 模型设置选择“DeepSeek reasoner”模型
4. 输入示例提示词“如何实现载人登月,给出具体分析步骤”
二、使用 Botnow 本地部署 DeepSeek R1 模型
1. 登录智能体平台 Botnow SaaS 版(域名:https://botnow.cn)
2. 进入“模型管理”->“模型仓库”,点击“创建模型”
“DeepSeek-R1-Distill-Qwen-7B”模型文件拉取完毕后,可进行模型部署。
3. 进入“模型部署”,点击“创建模型服务”
4. 参考上一节创建 Bot,选择“DeepSeek-R1-Distill-Qwen-7B”模型
评论