MCP(Model Context Protocol)与大模型一起运用
- MCP 是什么、为什么和 LLM 结合
- 三种常见架构范式
- 可运行的端到端示例:自建 MCP 服务器 + 用 OpenAI 工具调用自动桥接
- 进阶要点:多服务器聚合、安全与权限、调试与测试
如果你只想直接跑起来,可以从“端到端示例”开始。
一、MCP 是什么(和 LLM 为何要一起用)
- 定义:MCP(Model Context Protocol,模型上下文协议)是一套开放协议,让模型或模型应用可以以统一方式“挂载”工具、数据源与上下文(resources、tools、prompts、sampling 等能力)。常见传输为 stdio(本地进程)或 WebSocket。
- 为什么和大模型结合:
- 统一工具层:多种工具/数据源通过同一协议暴露,前端只写一次工具编排逻辑。
- 可移植:同一套“工具”可被不同模型/应用(OpenAI、Claude、Cursor、Claude Desktop 等 MCP 客户端)复用。
- 安全隔离:工具运行在 MCP 服务器进程里,最小暴露权限、最小凭据;客户端只通过协议调用。
- 可扩展:按需增加/替换 MCP 服务器,即插即用。
二、常见结合范式
- 范式 A:自研编排(你的应用 = MCP 客户端 + 任意 LLM)
- 你的应用连接一个或多个 MCP 服务器,自动把“服务器暴露的工具”转成 LLM 的 function-calling/tools。
- LL