Dify 入门篇(3)| 配置你的第一个 LLM:OpenAI/Claude/Ollama
Dify 入门准备篇:配置你的第一个 LLM:OpenAI/Claude/Ollama
无需代码基础,3 种方案任选,5 分钟让大模型为你所用!本文手把手教你打通 Dify 的“模型网关”,无论是云端 API 还是本地私有模型,从此无缝调用。
一、配置前必知:Dify 的模型网关设计
Dify 通过统一接口层屏蔽底层模型差异,无论接入何种模型,上层应用无需修改:
测试开发全景图:人工智能测试、智能驱动、自动化、测试开发、左移右移与DevOps的持续交付
二、方案 1:接入 OpenAI(云端 API)
适合场景:快速验证 · 需要 GPT-4 等高级模型
操作步骤:
获取 API Key
👉 登录 OpenAI平台 → 点击「Create new secret key」
Dify 控制台配置

测试连通性
点击「测试」 → 看到绿色 ✅ 即成功
三、方案 2:接入 Anthropic Claude(云端 API)
适合场景:处理超长文本(200K 上下文)
关键步骤:
申请 Claude 访问权限
👉 登录 Anthropic控制台 → 创建 Key
Dify 特殊配置
四、方案 3:接入 Ollama 本地模型(私有部署)
适合场景:数据敏感 · 零成本调用开源模型
操作流程:
步骤 1:部署 Ollama 服务
步骤 2:修改 Dify 的 docker-compose.yaml
步骤 3:重启服务并配置
控制台配置:
五、避坑指南:高频问题解决方案
❌ 错误 1:Error: Incorrect API key provided
检查点:
OpenAI/Claude 密钥是否过期
Claude 需在高级参数填写
Custom Model Name
❌ 错误 2:Connection refused to http://ollama:11434
排查步骤:
执行
docker network inspect dify-network
查看容器互通状态在 dify-ai 容器内测试:
❌ 错误 3:模型列表为空
解决方案:
在「模型供应商」页面 → 点击「同步模型」按钮
六、模型性能实测对比(RTX 3060 12GB)
提示:日常测试推荐 Haiku,生产环境用本地 Qwen 更安全
七、进阶技巧:自由切换多模型
场景:根据请求自动选择最优模型
配置方法:
工作流中添加「路由节点」
设置条件规则:
测试开发全景图:人工智能测试、智能驱动、自动化、测试开发、左移右移与DevOps的持续交付
结语:从此告别模型绑定
通过 Dify 的模型网关,你可以:
✅ 随时切换:GPT/Claude/本地模型一键替换
✅ 动态路由:根据场景智能调度最优模型
✅ 成本可控:混合使用云端与本地资源
下一步行动:
尝试在「提示词工坊」测试不同模型效果
为客服机器人绑定 Qwen 本地模型
探索模型市场 的 100+预置方案
评论