构建 MCP 服务器:第一部分 — 资源入门
什么是模型上下文协议?
模型上下文协议(MCP) 是Claude等大型语言模型 (LLM) 与外部数据和功能安全交互的标准化方式。您可以将其想象成一个平视显示器,或者 AI 的 USB 端口——它提供了一个通用接口,允许任何兼容 MCP 的 LLM 连接到您的数据和工具。
MCP 提供了一个集中式协议,简化了 AI 即插即用服务的开发。与其他可能需要为每个 AI 模型定制实现的集成方法不同,MCP 提供了一种适用于不同 LLM 的标准化方法。
如果没有像 MCP 这样的接口,LLM 就只能局限于其内置功能和训练数据。有了 MCP,LLM 可以实现以下功能:
- 读取文件和数据库
- 执行命令
- 访问 API
- 与本地工具交互
- 还有更多!
所有这一切都是在用户的监督和许可下进行的,因此既强大又安全。
在本教程中,我们将从 MCP 的基本内容开始:资源。
什么是 MCP 资源?
资源是 MCP 向 LLM 公开只读数据的方式。任何包含可读取内容的内容都可称为资源,例如:
- 计算机上的文件
- 数据库记录
- API 响应
- 应用程序数据
- 系统信息
每个资源都有:
- 唯一的 URI(例如
file:///example.txt
或database://users/123
) - 显示名称
- 可选元数据(描述、MIME 类型)
- 内容(文本或二进制数据)
为什么要使用资源?
资源可让您以受控、标准化的方式向 LLM 公开数据。以下是一些实际示例:
文档服务器
// 公开您公司的文档 “docs://api/reference” -> API 文档 “docs://guides/getting-started” ->用户指南
用户:“您能解释一下我们的 API 速率限制策略吗?”
AI 助手:“让我查看一下 API 文档……根据文档,每分钟的请求数限制为 100 个……”
日志分析服务器
“logs://system/today” ->今天的系统日志 “logs://errors/recent” ->最近的错误信息
用户:“今天我们的系统出现了什么错误?”
AI 助手:“查看今天的日志,我发现了三个严重错误……”
客户数据服务器
“customers://profiles/summary” ->客户概览 “customers://feedback/recent” ->最新反馈
用户:“最近顾客反馈的总体情绪如何?”
A