智能体 (AI Agent) 开发实战之【LangChain】(一) 接入大模型输出结果

LangChain 是一个强大的开源框架,专为构建与大语言模型(LLMs)相关的应用而设计。通过将多个 API、数据源和外部工具无缝集成,LangChain 能帮助开发者更高效地构建智能应用。
一、环境准备
安装 LangChain,langChain-core 等库,我安装时 LangChain 版本是:0.3.21,langChain-core 版本是当时最新版本:0.3.48。因为一些常用的大模型都遵循 OpenAI API 规范,还需要安装 OPENAI 相关库。如果使用国内的大模型也要安装相应的库如:DeepSeek 库。如以下相关截图:



二、编写代码接入开源大模型并输出结果
因相关原因,访问国外开源大模型有限制。我通过对比和实践,选择了国内的开源大模型 Qwen 并使用国内的一个平台 API 来实现接入大模型并输出结果。
1.导入必要的库和类
2.配置 ChatOpenAI 实例
3.构建消息列表
4.调用大模型并获取返回结果
5.ChatOpenAI 类的自定义配置参数说明
model_name:指定要使用的具体模型名称,例如 ChatOpenAI 中可以指定 model_name="gpt - 3.5 - turbo"
temperature:控制生成文本的随机性,取值范围在 0 到 1 之间,值越大生成的文本越随机
max_tokens:限制生成文本的最大 token 数量
stream:如果设置为 True(默认值是 False),模型将以流式输出的方式返回结果,即边生成边返回,而不是等整个生成过程结束后再返回,适用于需要实时获取生成结果的场景。
6.运行代码输出结果

三、总结
LangChain 提供了丰富的接口用于和不同的大模型集成和交互,可帮助开发者轻松地构建出功能强大的对话式智能应用。
版权声明: 本文为 InfoQ 作者【我和AI的成长】的原创文章。
原文链接:【http://xie.infoq.cn/article/bb60ee8864d93cce95dc1f477】。文章转载请联系作者。
评论