云上玩转 Qwen3 系列之三:PAI-LangStudio x Hologres构建ChatBI数据分析Agent应用
本文详细介绍了如何使用 LangStudio 和 Qwen3 构建基于 MCP 协议的 Hologres ChatBI 智能 Agent 应用。该应用通过将 Agent、MCP Server 等技术和阿里最新的推理模型 Qwen3 编排在一个应用流中,为大模型提供了 MCP+OLAP 的智能数据分析能力,使用自然语言即可实现 OLAP 数据分析的查询效果,减少了幻觉。开发者可以基于该模板进行灵活扩展和二次开发,以满足特定场景的需求。
背景信息
Qwen3
作为 Qwen 系列最新一代的大语言模型,提供了一系列密集(Dense)和混合专家 (MOE) 模型。基于广泛的训练,Qwen3 在推理、指令跟随、代理能力和多语言支持方面取得了突破性的进展,具有以下关键特性:
- 独特支持在思考模式(用于复杂逻辑推理、数学和编码)和 非思考模式(用于高效通用对话)之间无缝切换,确保在各种场景下的最佳性能。
- 显著增强的推理能力,在数学、代码生成和常识逻辑推理方面超越了之前的 QwQ (在思考模式下)和 Qwen2.5 指令模型(在非思考模式下)。
- 擅长 Agent 能力,可以在思考和非思考模式下精确集成外部工具,在复杂的基于代理的任务中在开源模型中表现领先。可与 LangStudio 大模型开发平台无缝集成:结合 MCP Server 服务,增强智能数据分析能力。
- 支持100多种语言和方言,具有强大的多语言理解、推理、指令跟随和生成能力。
PAI-LangStudio - 大模型应用开发平台
大模型& Agent 应用开发平台(PAI-LangStudio)是依托阿里云 PAI 产品核心能力构建的面向企业级用户的一站式大模型应用开发平台。简化了企业级大模型应用的开发流程,同时提供了灵活的可编程能力、实时调试能力与链路追踪的能力,帮助开发者快速构建端到端的AI应用。原生兼容支持通义系列 Qwen 系列大模型。LangStudio 专注于提供 LLM 全链路开发部署能力,可支持发布有状态、多 Agent 的复杂工作流发布部署成 PAI-EAS 模型服务,并在生产环境提供 API 应用服务。
LangStudio Agent 智能体支持调用 MCP Server 通过 HTTP with SSE 或 Streamable HTTP 传输方式使用 MCP 协议来发现和调用工具 Tool Use。
参考:大模型应用开发LangStudio_人工智能平台 PAI(PAI)-阿里云帮助中心
MCP - 大模型协议
模型上下文协议(Model Context Protocol,MCP)是 Anthropic 于 2024 年推出的开源标准,旨在解决大模型与外部工具、数据源的集成难题。其核心作用是通过标准化接口架构,将 AI 模型的决策逻辑与外部资源解耦,形成 "智能大脑 + 外接四肢" 的协同模式。
参考:Introduction - Model Context Protocol
Hologres - 实时数仓
Hologres 是阿里云自研一站式实时数仓产品,不仅支持海量数据多维分析(OLAP)、高并发低延迟的在线数据服务(Serving),还与达摩院自研高性能向量计算软件库 Proxima 深度整合,支持高性能、低延时、简单易用的向量计算能力。
Hologres MCP Server
Hologres MCP 服务器作为 AI 代理与 Hologres 数据库之间的通用接口,支持 AI 代理与 Hologres 之间的无缝通信,帮助 AI 代理获取 Hologres 数据库元数据并执行 SQL 操作。
参考:GitHub - aliyun/alibabacloud-hologres-mcp-server
前提条件
- 已创建专有网络 VPC、交换机和安全组。具体操作,请参见搭建IPv4专有网络和创建安全组。需将 Hologres MCP Server 实例和 LangStudio Agent 运行时配置于同一 Region 内。
- 对接阿里云 Function AI MCP 服务- Hologres MCP Server阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台
- 登录 PAI 控制台,在左侧导航栏单击工作空间列表(如无 已有工作空间列表)。在工作空间列表页面中单击待操作的工作空间名称,进入对应工作空间内。如您尚未创建工作空间,请创建工作空间。
PAI-LangStudio 应用流方案-企业部署步骤
步骤一:Model Gallery 部署 Qwen3 模型设置
1. 进入 PAI 控制台 > Model Gallery,选择 大语言模型 场景。
2. 根据业务场景选择部署合适的 Qwen3 模型,此实践中选择 Qwen3-8B。
- 以下是 Qwen3 系列不同模型的建议配置信息
- Agent 节点需要使用到模型的工具调用能力,部署时需要参考模型文档确认打开 tool call 配置,以 SGLang部署 Qwen3-8B 为例,在启动命令中增加相关配置:
- 以下状态表示部署正在进行中:
3. 单击查看调用信息,记录部署后的服务访问地址(`base_url`)及 API Token(`api_key`)。
步骤二:Hologres MCP Server 搭建应用
1. 根据参考手册创建 Hologres 实例。(可使用现有 Hologres 实例)
Hologres实时数仓入门教程_实时数仓 Hologres(Hologres)-阿里云帮助中心
2. 创建Hologres数据库,参考手册导入公共样例数据集。
如何使用HoloWeb创建一键导入任务_实时数仓 Hologres(Hologres)-阿里云帮助中心
3. 登录阿里云-函数计算管控台,参考文档创建Holo MCP Server 服务
MCP服务_函数计算(FC)-阿里云帮助中心
4. 选择 Region,选择访问 Hologres 实例的 RAM Role,填写 Hologres 实例的 Endpoint 端口和数据库,点击部署项目
5. 项目部署完成后,即生成一个 MCP SSE (Server-Sent Events) 服务,
- 可以在访问地址处找到 MCP SSE 模式对应的域名 Endpoint。
- 在配置处找到 SSE 连接所需的 Bearer Token
6. 为选择的 RAM 赋予数据的查询权限,
- 请参考 Hologres 权限模型,并连接 HoloWeb 检查相应权限。
- 如果只是查询数据,推荐使用简单权限模型,并对 RAM Role 的账号授予 viewer 权限即可。
步骤三:LangStudio 使用模板构建数据分析 Hologres ChatBI Agent
1. 在 LangStudio > 新建运行时 实例,Agent 智能体的运行调试依赖运行时 Runtime。
2. 通过 PAI 控制台 > 进入 LangStudio > 新建连接 > 连接类型-通用LLM模型服务连接 > 服务提供方- PAI-EAS 模型服务,单击<确定>。
3. 通过 PAI 控制台 > 进入 LangStudio > 新建应用流 > 新建方式-从模板新建 > 选择模版-智能数据 Agent,单击<确定>。
确保函数计算对应的 MCP Server 与 LangStudio 属于在同一 Region。否则会导致 VPC 网络不通。
4. 在应用流看板上,完成 数据分析 Agent 相关设置。详见 Agent 文档
- 选择 Agent 策略: FunctionCalling
- 模型设置:选择步骤2中创建的模型连接。
- 打开对话历史
- 按照如下模板配置 MCP 服务配置 (SSE 的域名Endpoint / Bearer Token)
{"mcpServers": {"hologres-mcp-server": {"type": "sse","url": "https://xxx.xxx.run/sse","headers": {"Authorization": "Bearer xxxx"},"timeout": 30}}
}
- 设置输入变量信息,包括系统提示词和 USER prompt,最大循环次数设置为 5 次,可以根据需要调整。
步骤四:通过 LangStudio 运行对话框架进行 Chat 数据分析验证
我们尝试一些问题
MCP 提供了哪些工具呢
帮我看下数量最多的TOP10的客户
步骤五:通过 LangStudio 部署 EAS 模型服务,支持 API 调用模型推理能力
应用流开发调试完成后,单击右上角的部署,根据需要选择合适的机型以及专有网络,注意 EAS 实例需要使用与应用流中其他服务实例相同的 VPC,以保证安全和网络连通。点击确定 > 跳转到PAI-EAS模型服务 查看部署任务。
通过以上步骤,您可快速使用 LangStudio 构建基于 Qwen3 和 Hologres MCP Server 实现智能数据分析ChatBI Agent 应用,满足专业分析场景需求。
相关链接
- LangStudio产品文档
- Qwen3模型GitHub仓库
- MCP GitHub
- MCP+Hologres+LLM 搭建数据分析Agent