【MCP服务】蓝耘元生代 | 蓝耘MCP平台来袭!DeepSeek MCP服务器玩转大模型集成
【作者主页】Francek Chen
【专栏介绍】 ⌈ ⌈ ⌈人工智能与大模型应用 ⌋ ⌋ ⌋ 人工智能(AI)通过算法模拟人类智能,利用机器学习、深度学习等技术驱动医疗、金融等领域的智能化。大模型是千亿参数的深度神经网络(如ChatGPT),经海量数据训练后能完成文本生成、图像创作等复杂任务,显著提升效率,但面临算力消耗、数据偏见等挑战。当前正加速与教育、科研融合,未来需平衡技术创新与伦理风险,推动可持续发展。
文章目录
- 前言
- 一、什么是MCP
- 二、蓝耘MCP平台简介
- 三、注册登录蓝耘MCP平台
- (一)注册蓝耘平台账号
- (二)进入蓝耘MCP广场
- 四、DeepSeek MCP服务器部署教程
- (一)安装
- (二)功能
- (三)增强的对话功能
- (四)使用 MCP Inspector 进行测试
- 五、DeepSeek MCP服务工具详情
- 小结
前言
在人工智能飞速发展的当下,大语言模型与外部数据源、工具的集成成为关键。模型上下文协议(MCP)应运而生,为大模型和数据源建立安全双向连接提供了标准化方案。蓝耘元生代智算云平台紧跟这一趋势,重磅推出“MCP广场”,集结众多热门 MCP 服务,致力于成为大模型与外部工具、数据源交互的核心枢纽。本文将详细介绍 MCP 的概念、蓝耘 MCP 平台,以及如何注册登录该平台和使用 DeepSeek MCP 服务器,助力开发者更好地利用这一创新技术,推动 AI 应用的高效落地。
一、什么是MCP
模型上下文协议(Model Context Protocol,MCP),是由 Anthropic 推出的开源协议,旨在实现大语言模型与外部数据源和工具的集成,用来在大模型和数据源之间建立安全双向的连接。
模型上下文协议是专为高效获得模型所需要上下文信息而设计的通用接口,可以将推动大语言模型应用的标准化和去中心化。该协议是提供了类似于 OpenAPI 的开放标准,定义了一套通用的通信协议、数据格式和规则,可以有简化开发、灵活、实时响应、安全合规、可扩展的特点,它通过相同的协议同时处理本地资源(例如数据库、文件、服务等)和远程资源(例如 Slack 或 GitHub 等 API)。
MCP 是一个开放协议,它标准化了应用程序向 LLM 提供上下文的方式。可以将 MCP 视为 AI 应用的 USB-C 端口。正如 USB-C 提供了一种标准化的方式将您的设备连接到各种外围设备和配件一样,MCP 提供了一种标准化的方式将 AI 模型连接到不同的数据源和工具。
二、蓝耘MCP平台简介
蓝耘元生代智算云平台重磅推出全新“MCP广场”,集结了千余款备受瞩目的热门 MCP 服务,致力于为开发者搭建起大模型与外部工具、数据源之间标准化交互的核心枢纽。平台秉持开源开放的先进理念,为 MCP 工具开发者提供专业的云上托管服务。通过不断对功能矩阵进行迭代升级,平台将深度推动大模型与 MCP 生态的协同发展、共同进化,为 Agent 及各类 AI 应用的快速落地提供强劲动力。
蓝耘 MCP 平台主页:https://mcp.lanyun.net/#/home
蓝耘 MCP 广场不久前迎来全新升级,着重从云上托管服务、语义检索模型以及工具集成这三大关键维度发力。平台现已拥有超过 240 项托管服务,全面覆盖搜索、学术研究、软件开发等丰富多元的场景,满足开发者在不同领域的多样化需求。新增的 MCP Server 管理工具,让开发者能够轻松实现一键式状态管控,操作更加便捷高效。语义检索模型具备强大的自然语言理解能力,可支持自然语言生成服务组合,为开发者带来全新的交互体验。同时,平台与 Cherry Studio 实现无缝集成,让开发流程如行云流水般高效流畅。从智能应用的精心构建,到数据可视化分析的精准呈现,升级后的蓝耘 MCP 广场将以更加高效、智能的服务,助力开发者踏上 MCP 服务调用的全新征程,开启无限可能。
三、注册登录蓝耘MCP平台
(一)注册蓝耘平台账号
点击注册链接:https://cloud.lanyun.net//#/registerPage?promoterCode=0131
输入手机号获取验证码,输入邮箱(这里邮箱会收到信息,要激活邮箱),设置密码,点击注册。如图3所示。
新用户福利:注册后可领取免费试用时长(20元代金券,可直接当余额来使用)。
若已经注册过帐号,点击下方“已有账号,立即登录”即可。
(二)进入蓝耘MCP广场
登录后进入首页,点击“MCP广场”,如图4所示。
接着进入 MCP 广场的商店。在这里,用户可以看到多种来自不同供应商的 MCP 服务,涵盖知识与记忆、时间与天气、安全审计等多个类别,如 MCP 时间服务器、MCP 天气服务器、Sentry 监控工具等,部分服务标注“已托管”。图5中展示的是蓝耘元生代 MCP 广场的服务器页面。
四、DeepSeek MCP服务器部署教程
这里我们选择 DeepSeek MCP 服务器介绍相关的部署操作过程。(DeepSeek MCP 服务器 - GitHub)
一个用于 DeepSeek API 的模型上下文协议(MCP)服务器,允许 DeepSeek 强大的语言模型与 Claude Desktop 等支持 MCP 的应用程序无缝集成。
(一)安装
1. 通过 Smithery 安装
要通过 Smithery 自动为 Claude Desktop 安装 DeepSeek MCP 服务器:
npx -y @smithery/cli install @dmontgomery40/deepseek-mcp-server --client claude
2. 手动安装
npm install -g deepseek-mcp-server
3. 与 Claude Desktop 一起使用
将以下内容添加到您的claude_desktop_config.json
文件中:
{"mcpServers": {"deepseek": {"command": "npx","args": ["-y","deepseek-mcp-server"],"env": {"DEEPSEEK_API_KEY": "your-api-key"}}}
}
(二)功能
注意:服务器通过将这些自然语言请求映射到适当的配置更改来智能处理。您还可以查询当前设置和可用模型:
- 用户:“有哪些可用的模型?”
回应:通过 models 资源显示可用模型及其功能列表。 - 用户:“我有哪些配置选项?”
回应:通过 model-config 资源列出所有可用配置选项。 - 用户:“当前的温度设置是多少?”
回应:显示当前的温度设置。 - 用户:“开始一个多轮对话。使用以下设置:模型:‘deepseek-chat’,不要过于有创意,并允许 8000 个令牌。”
回应:以指定设置开始一个多轮对话。
如果 R1 模型不可用时自动切换到备用模型
如果主模型 (R1, 在服务器中称为deepseek-reasoner
) 不可用,服务器会自动尝试使用 v3 (在服务器中称为deepseek-chat
)
注意:您也可以随时通过给出提示并说“使用deepseek-reasoner
”或“使用deepseek-chat
”来回切换
推荐 v3 用于一般用途,而 R1 由于速度和令牌使用的原因,推荐用于更技术性和复杂的查询
可用模型和配置的资源发现:
- 自定义模型选择
- 温度控制 (0.0 - 2.0)
- 最大令牌限制
- Top P 采样 (0.0 - 1.0)
- 存在惩罚 (-2.0 - 2.0)
- 频率惩罚 (-2.0 - 2.0)
(三)增强的对话功能
多轮对话支持:
- 保持整个交流过程中完整的消息历史和上下文
- 在整个对话过程中保留配置设置
- 自动处理复杂的对话流程和后续链
此功能对于以下两个关键用例特别有价值:
- 训练与微调:由于 DeepSeek 是开源的,许多用户正在训练自己的版本。多轮支持提供了正确格式化的对话数据,这对于训练高质量的对话模型至关重要。
- 复杂交互:对于生产使用,这有助于管理更长的对话,在这些对话中上下文非常关键:
- 多步骤推理问题
- 互动故障排除会话
- 详细的技术讨论
- 任何早期消息的上下文影响后续响应的情景
实现过程在幕后处理所有上下文管理和消息格式化,让您能够专注于实际的交互,而无需担心维护对话状态的技术细节。
(四)使用 MCP Inspector 进行测试
您可以使用 MCP Inspector 工具本地测试服务器:
1. 构建服务器:
npm run build
2. 使用 MCP Inspector 运行服务器:
# 确保指定构建服务器的完整路径
npx @modelcontextprotocol/inspector node ./build/index.js
检查器将在您的浏览器中打开并通过 stdio 传输连接到服务器。您可以:
- 查看可用工具
- 使用不同参数测试聊天完成情况
- 调试服务器响应
- 监控服务器性能
注意:服务器默认使用 DeepSeek 的 R1 模型(deepseek-reasoner),该模型为推理和一般任务提供最先进的性能。
五、DeepSeek MCP服务工具详情
- chat_completion
{"$schema": "http://json-schema.org/draft-07/schema#","additionalProperties": false,"properties": {"frequency_penalty": {"default": 0.1,"maximum": 2,"minimum": -2,"type": "number"},"max_tokens": {"default": 8000,"exclusiveMinimum": 0,"type": "integer"},"message": {"type": "string"},"messages": {"items": {"additionalProperties": false,"properties": {"content": {"type": "string"},"role": {"enum": ["system","user","assistant"],"type": "string"}},"required": ["role","content"],"type": "object"},"type": "array"},"model": {"default": "deepseek-reasoner","type": "string"},"presence_penalty": {"default": 0,"maximum": 2,"minimum": -2,"type": "number"},"temperature": {"default": 0.7,"maximum": 2,"minimum": 0,"type": "number"},"top_p": {"default": 1,"maximum": 1,"minimum": 0,"type": "number"}},"type": "object"
}
- multi_turn_chat
{"$schema": "http://json-schema.org/draft-07/schema#","additionalProperties": false,"properties": {"frequency_penalty": {"default": 0.1,"maximum": 2,"minimum": -2,"type": "number"},"max_tokens": {"default": 8000,"exclusiveMinimum": 0,"type": "integer"},"messages": {"anyOf": [{"type": "string"},{"items": {"additionalProperties": false,"properties": {"content": {"additionalProperties": false,"properties": {"text": {"type": "string"},"type": {"const": "text","type": "string"}},"required": ["type","text"],"type": "object"},"role": {"enum": ["system","user","assistant"],"type": "string"}},"required": ["role","content"],"type": "object"},"type": "array"}]},"model": {"default": "deepseek-chat","type": "string"},"presence_penalty": {"default": 0,"maximum": 2,"minimum": -2,"type": "number"},"temperature": {"default": 0.7,"maximum": 2,"minimum": 0,"type": "number"},"top_p": {"default": 1,"maximum": 1,"minimum": 0,"type": "number"}},"required": ["messages"],"type": "object"
}
小结
在 AI 飞速发展当下,大语言模型与外部集成关键,模型上下文协议(MCP)为此提供标准化方案。蓝耘元生代智算云平台推出“MCP 广场”,集结众多热门 MCP 服务,成为交互核心枢纽。平台主页可访问,且不断迭代升级,从云上托管、语义检索、工具集成等维度发力,有超 240 项托管服务,新增管理工具,集成 Cherry Studio。注册登录蓝耘平台后,可进入 MCP 广场选择服务。本文以 DeepSeek MCP 服务器为例,介绍其部署教程,包括安装方式、功能特点,如多轮对话支持等,还提及可用模型、配置资源发现及使用 MCP Inspector 测试服务器的方法,最后给出了 DeepSeek MCP 服务工具详情。
欢迎 点赞👍 | 收藏⭐ | 评论✍ | 关注🤗