云上玩转 Qwen3 系列之二:PAI-LangStudio 搭建联网搜索和 RAG 增强问答应用
本文详细介绍了如何使用 LangStudio 和 Qwen3 构建基于 RAG 和联网搜索的 AI 智能问答应用。该应用通过将 RAG、web search 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了额外的联网搜索和特定领域知识库检索的能力,提升了智能回答的效果,较少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。
背景信息
Qwen3
作为 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家(MOE)模型。基于广泛的训练,Qwen3 在推理、指令跟随、代理能力和多语言支持方面取得了突破性的进展,具有以下关键特性:
独特支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。
显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ (在思考模式下)和 Qwen2.5 指令模型(在非思考模式下)。
擅长 Agent 能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。
支持 100 多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。
LangStudio
LangStudio 是依托阿里云 PAI 平台核心能力构建的面向企业级用户的一站式 LLM 大模型应用开发平台,它提供了灵活的可编程、评测和调试能力,帮助开发者快速构建端到端的 AI 应用。在智能问答应用方面,LangStudio 连通了离线知识库构建和在线应用开发两条链路,帮助用户轻松跨越从 demo 到生产的鸿沟。
通过 Qwen3 与 LangStudio 结合,既可以发挥 SOTA LLM 优秀的推理能力,也可以发挥平台产品在流程编排、开发调试、权限管控等方面的优势,帮助客户高效的构建适合生产部署的智能问答应用,在效果和成本上达到最好的平衡。
具体地说,本方案具有以下优势:
精准回答:通过 RAG 从知识库中提取领域专业知识,结合实时网络数据补充最新信息,最大限度提升回答准确度、减少幻觉。
灵活扩展:开发者可使用自定义模型和自定义知识库,并能灵活修改应用流 DAG 构成,以满足自身特有的业务需求。
安全可控:LangStudio 背靠阿里云 PAI 平台,通过将模型服务、知识库等放在用户私有网络中,并结合阿里云精细化的权限管控体系,达到最大程度的数据安全。
前提条件
已开通 阿里信息查询服务-IQS 注册账号并获取 api_key。
IQS 开通服务流程:https://help.aliyun.com/document_detail/2869993.html
获取 IQS 对应的访问凭证 api_key

LangStudio 向量数据库连接,支持使用向量数据库-Milvus/开源 Faiss。若您希望使用 Milvus 数据库,您需要先完成 Milvus 数据库的创建,详情请参见创建Milvus实例、实例管理。
说明
Faiss 通常用于测试环境,无需额外创建数据库即可使用。在生产环境中,建议您使用 Milvus 数据库,支持处理更大规模的数据。
已将 RAG 知识库语料上传至OSS中。
LangStudio 部署步骤
步骤一:Model Gallery 部署 Qwen3 模型及 Embedding 模型设置
1.1 部署 Qwen3 大模型
进入 PAI 控制台 > Model Gallery,选择 大语言模型 场景。

根据业务场景选择部署 Qwen3 模型,此实践中选择 Qwen3-8B。
以下是 Qwen3 系列不同模型的建议配置信息

以部署 Qwen3-8B 为例,以下状态表示部署正在进行中:

单击查看调用信息,记录部署后的服务访问地址(
base_url
)及 API Token(api_key
)。
1.2 部署 Embedding 模型
PAI 控制台 > Model Gallery 下,选择 Embedding 场景,部署 bge-m3 通用向量模型(与 Qwen3 兼容性最佳)。
记录服务地址及 Token,用于后续知识库索引构建。

步骤二:LangStudio 配置服务连接
2.1 创建连接-Qwen3 模型服务
通过 PAI 控制台 > 进入LangStudio > 连接 > 模型服务,单击新建连接。 。
关键参数:
模型名称: Qwen3-8B (需与部署名称一致)。
服务提供方:选择 PAI-EAS 模型服务,自动显示部署后的base_url
和api_key
。

2.2 创建连接-Embedding 模型
通过 PAI 控制台 > 进入LangStudio >连接 > 数据库
选择已部署的 bge-m3 模型,配置服务地址及密钥。

2.3 创建连接-联网搜索 IQS
通过 PAI 控制台 > 进入LangStudio > 连接 > 自定义连接
填写 IQS 的 api_key,名称设为 IQS_Conn。

步骤三:构建知识库索引
进入 LangStudio > 知识库索引,单击新建知识库索引。
关键配置:
数据源 OSS 路径:填写知识库语料的 OSS 路径(如oss://my-bucket/rag-data/
)。
Embedding 模型:选择步骤 1.2 中创建的 bge-m3 连接。
向量数据库:生产环境选择 向量数据库-Milvus,测试环境选择 Faiss。
启动索引构建,等待知识库构建任务完成。

步骤四:开发 Agent 应用流 & 调试与优化
4.1.开发 Agent 应用流
进入 LangStudio > 新建应用流:
模板选择 “基于 Web 搜索和 RAG 的聊天助手”。

关键节点配置:
节点-知识库检索:
索引名称:选择步骤三中创建的知识库。
Top K:建议设置为 5(根据知识库规模调整)。
节点-阿里云 IQS-联网搜索:
连接:选择
IQS_Conn
。

节点-大模型节点:
模型连接:选择步骤一的 Qwen3 模型服务。
系统提示词模板:可自定义,例如:
基于以下知识库内容和网络搜索结果,请用中文专业且简洁地回答用户问题:
知识库内容:{knowledge}
网络搜索结果:{web_results}
-用户问题:{question}

4.2. Qwen3 思考模式切换 (快思考与慢思考)
擅长 Agent 能力的 Qwen3,可以通过 LangStudio 的应用流,在思考和非思考模式下切换思考模式,将复杂的基于 Agent 开发任务中在 LangStudio 平台灵活应用。

4.3. 调试与优化
运行测试:
输入测试问题(如“最新科创板上市规则有哪些变化?”),观察模型生成的回答质量。
运行完成后,可通过查看链路功能,分析 Qwen3 大模型整合 RAG 检索结果与网络搜索的结果相关性。
优化策略:
知识库增强:若回答缺乏领域细节,扩充知识库语料并重建索引。
搜索过滤:在 IQS 中设置
time_period
参数,限定搜索时间范围(如past_year
)。提示词调优:增加格式约束(如“分点回答”“引用来源”),提升结果可读性。
步骤五:模型服务部署与 API 调用
5.1.生产部署:
在 LangStudio > 应用流页面单击右侧-部署,选择新建服务 > EAS 资源组。
资源分配:建议至少 2 实例(HA),配置具备公网访问的 VPC。

5.2. PAI API 调用:
请求示例(Python):
步骤六:监控与维护
应用流调试:使用 LangStudio 应用流中的运行对话框,输入所需查询的问题,观察查询结果内容。
日志查看监控:通过 PAI-EAS 控制台监控服务请求量、延迟及错误率。
知识库更新:定期上传新语料到 OSS,触发增量索引构建。
LLM 模型升级:关注 Qwen3 版本更新,通过 Model Gallery 部署新版本并在 LangStudio 中方便的切换。
附录:常见问题
Q:网络搜索结果不相关?
A:可通过结果内容附带的“查询链路”来查看 Tracing 联网信息是否正确。
相关链接
通过以上步骤,您可快速使用 LangStudio 构建基于 Qwen3 的高效增强 RAG+联网搜索的智能 Chat Agent 助手,满足专业场景需求。
评论