云上玩转 Qwen3 系列之三:PAI-LangStudio x Hologres 构建 ChatBI 数据分析 Agent 应用
本文详细介绍了如何使用 LangStudio 和 Qwen3 构建基于 MCP 协议的 Hologres ChatBI 智能 Agent 应用。该应用通过将 Agent、MCP Server 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了 MCP+OLAP 的智能数据分析能力,使用自然语言即可实现 OLAP 数据分析的查询效果,减少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。
背景信息
Qwen3
作为 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家 (MOE) 模型。基于广泛的训练,Qwen3 在推理、指令跟随、代理能力和多语言支持方面取得了突破性的进展,具有以下关键特性:
独特支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。
显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ (在思考模式下)和 Qwen2.5 指令模型(在非思考模式下)。
擅长 Agent 能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。可与 LangStudio 大模型开发平台无缝集成:结合 MCP Server 服务,增强智能数据分析能力。
支持 100 多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。
PAI-LangStudio - 大模型应用开发平台
大模型 & Agent 应用开发平台(PAI-LangStudio)是依托阿里云 PAI 产品核心能力构建的面向企业级用户的一站式大模型应用开发平台。简化了企业级大模型应用的开发流程,同时提供了灵活的可编程能力、实时调试能力与链路追踪的能力,帮助开发者快速构建端到端的 AI 应用。原生兼容支持通义系列 Qwen 系列大模型。LangStudio 专注于提供 LLM 全链路开发部署能力,可支持发布有状态、多 Agent 的复杂工作流发布部署成 PAI-EAS 模型服务,并在生产环境提供 API 应用服务。
LangStudio Agent 智能体支持调用 MCP Server 通过 HTTP with SSE 或 Streamable HTTP 传输方式使用 MCP 协议来发现和调用工具 Tool Use。
参考:https://help.aliyun.com/zh/pai/user-guide/langstudio/
MCP - 大模型协议
模型上下文协议(Model Context Protocol,MCP)是 Anthropic 于 2024 年推出的开源标准,旨在解决大模型与外部工具、数据源的集成难题。其核心作用是通过标准化接口架构,将 AI 模型的决策逻辑与外部资源解耦,形成 "智能大脑 + 外接四肢" 的协同模式。
参考:https://modelcontextprotocol.io/introduction
Hologres - 实时数仓
Hologres 是阿里云自研一站式实时数仓产品,不仅支持海量数据多维分析(OLAP)、高并发低延迟的在线数据服务(Serving),还与达摩院自研高性能向量计算软件库 Proxima 深度整合,支持高性能、低延时、简单易用的向量计算能力。
Hologres MCP Server
Hologres MCP 服务器作为 AI 代理与 Hologres 数据库之间的通用接口,支持 AI 代理与 Hologres 之间的无缝通信,帮助 AI 代理获取 Hologres 数据库元数据并执行 SQL 操作。
参考:https://github.com/aliyun/alibabacloud-hologres-mcp-server
前提条件
已创建专有网络 VPC、交换机和安全组。具体操作,请参见搭建IPv4专有网络和创建安全组。需将 Hologres MCP Server 实例和 LangStudio Agent 运行时配置于同一 Region 内。
对接阿里云 Function AI MCP 服务- Hologres MCP Serverhttps://cap.console.aliyun.com/template-detail?template=232
登录 PAI 控制台,在左侧导航栏单击工作空间列表(如无 已有工作空间列表)。在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。如您尚未创建工作空间,请创建工作空间。
PAI-LangStudio 应用流方案-企业部署步骤
步骤一:Model Gallery 部署 Qwen3 模型设置
1. 进入 PAI 控制台 > Model Gallery,选择 大语言模型 场景。

2. 根据业务场景选择部署合适的 Qwen3 模型,此实践中选择 Qwen3-8B。
以下是 Qwen3 系列不同模型的建议配置信息

Agent 节点需要使用到模型的工具调用能力,部署时需要参考模型文档确认打开 tool call 配置,以 SGLang 部署 Qwen3-8B 为例,在启动命令中增加相关配置:


以下状态表示部署正在进行中:

3. 单击查看调用信息,记录部署后的服务访问地址(`base_url`)及 API Token(`api_key`)。
步骤二:Hologres MCP Server 搭建应用
根据参考手册创建 Hologres 实例。(可使用现有 Hologres 实例)
https://help.aliyun.com/zh/hologres/getting-started/purchase-a-hologres-instance
创建 Hologres 数据库,参考手册导入公共样例数据集。
https://help.aliyun.com/zh/functioncompute/fc-3-0/mcp-server

选择 Region,选择访问 Hologres 实例的 RAM Role,填写 Hologres 实例的 Endpoint 端口和数据库,点击部署项目

项目部署完成后,即生成一个 MCP SSE (Server-Sent Events) 服务,
可以在访问地址处找到 MCP SSE 模式对应的域名 Endpoint。

在配置处找到 SSE 连接所需的 Bearer Token

为选择的 RAM 赋予数据的查询权限,
请参考 Hologres 权限模型,并连接 HoloWeb检查相应权限。
如果只是查询数据,推荐使用简单权限模型,并对 RAM Role 的账号授予 viewer 权限即可。
步骤三:LangStudio 使用模板构建数据分析 Hologres ChatBI Agent
在 LangStudio > 新建运行时 实例,Agent 智能体的运行调试依赖运行时 Runtime。

通过 PAI 控制台 > 进入 LangStudio > 新建连接 > 连接类型-通用 LLM 模型服务连接 > 服务提供方- PAI-EAS 模型服务,单击<确定>。

通过 PAI 控制台 > 进入LangStudio > 新建应用流 > 新建方式-从模板新建 > 选择模版-智能数据 Agent,单击<确定>。

确保函数计算对应的 MCP Server 与 LangStudio 属于在同一 Region。否则会导致 VPC 网络不通。
在应用流看板上,完成 数据分析 Agent 相关设置。详见 Agent 文档
选择 Agent 策略: FunctionCalling
模型设置:选择步骤 2 中创建的模型连接。
打开对话历史

按照如下模板配置 MCP 服务配置 (SSE 的域名 Endpoint / Bearer Token)
设置输入变量信息,包括系统提示词和 USER prompt,最大循环次数设置为 5 次,可以根据需要调整。

步骤四:通过 LangStudio 运行对话框架进行 Chat 数据分析验证
我们尝试一些问题


步骤五:通过 LangStudio 部署 EAS 模型服务,支持 API 调用模型推理能力

应用流开发调试完成后,单击右上角的部署,根据需要选择合适的机型以及专有网络,注意 EAS 实例需要使用与应用流中其他服务实例相同的 VPC,以保证安全和网络连通。点击确定 > 跳转到 PAI-EAS 模型服务 查看部署任务。
通过以上步骤,您可快速使用 LangStudio 构建基于 Qwen3 和 Hologres MCP Server 实现智能数据分析 ChatBI Agent 应用,满足专业分析场景需求。
相关链接
评论