Python-MCPServer开发
Python-MCPServer开发
使用FastMCP开发【SSE模式的MCPServer】,熟悉【McpServer编码过程】+【McpServer调试方法】
1-核心知识点
- 1-熟悉【SSE模式的MCPServer】开发
- 2-熟悉【stdio模式的MCPServer】开发
- 3-熟悉【启动MCPServer】的三种方式
- 3.1-直接启动:python mcp_server.py
- 3.2-代码中uv使用:subprocess.Popen([“uv”, “run”, server_file])
- 3.3-使用mcpInspector网页:mcp dev mcp_server.py
- 4-熟悉【Agent增强外部能力】的两种方式
- 4.1-调用tool:Agent(name=“Assistant”, instructions=“用中文回复”, tools=[get_weather])
- 4.2-调用tool:Agent(name=“Assistant”, instructions=“用中文回复”, mcp_servers=[mcp_server])
2-思路整理
1-McpServer须知
-
1-MCPServer已经可以对外提供服务了,这个不同于传统的API,虽然也运行在特殊端口了,但是不能通用postman进行调用
-
2-那有人质疑这个说法了,为什么使用mcpInspector网页调试就可以连通?
- 可以理解为:mcpInspector联通的是Agent,只是查看Agent上有哪些Resources/Prompts/Tools…并且可以通过Agent和McpServer进行交互,而不是Rest请求
-
3-MCPServer_SSE和MCPServer_stdio如何进行快速区分:
- 1-stdio-适用于同一台机器上(进程间通讯,通讯不经过HTTP协议,超级快)->要求:你要有可运行文件【Python文件】或者【Java的Jar包】
- 2-SSE适用于所有环境,通过IP进行HTTP通讯->基本没有要求,无脑就全部使用这种
-
4-再次澄清:MCPServer_SSE虽然可以部署,有大网IP或者域名,但是依然不能通用postman进行调用
- post调用的接口->要求是@Controller标记或者FastAPI开发的API接口
- agent调用的接口->要求是@mcp.tool标记(可能对外就不是API接口)
- 总结:可以理解@mcp.tool标记后是一种特殊的API,只能被Agent调用
-
5-SSE和stdio在代码上有什么区别?
- 1-McpServer的编写上只有一个区别【mcp.run(transport=“sse/stdio”)】
- 2-Agent在连接的时候使用【McpServerstdio】和【McpServerSSE】进行McpServer构建
- 3-【mcp.run(transport=“sse”)】后,服务【可以被任何远程】的Agent进行访问(此时先不谈鉴权的问题)
- 4-【mcp.run(transport=“stdio”)】后,服务【只可以被本地进程】的Agent进行访问(此时先不谈鉴权的问题)
2-McpServer核心思路
1-【mcp.run(transport=“sse”)】后,服务【可以被任何远程】的Agent进行访问(此时先不谈鉴权的问题)
2-【mcp.run(transport=“stdio”)】后,服务【只可以被本地进程】的Agent进行访问(此时先不谈鉴权的问题)
- 1-编写传统的Service业务代码
- 2-在Service业务代码头上添加@tool装饰器,即可实现FastMCP的Tool功能
- 3-在Service业务代码头上添加@mcp.tool()装饰器,即可实现FastMCP的McpServer功能
- 4-主程序指定运行方法-stdio进程启动(此时MCPServer已经可以对外提供服务了,这个不同于传统的API,虽然也运行在特殊端口了,但是不能通用postman进行调用)
- 1-直接启动:python mcp_server.py
- 2-代码中uv使用:subprocess.Popen([“uv”, “run”, server_file])
- 3-使用mcpInspector网页:mcp dev mcp_server.py
- 5-Agent调试McpServer
- 1-指定LLM
- 2-指定Agent(McpServerList+角色定位)
- 3-Runner.run(Agent+LLM+问题)交互
3-McpServer和McpClient关系
- 1-McpClient只是一个概念,在使用Python进行开发的时候根本就没有任何关于McpClient的类
- 2-McpClient就是McpServer连接过程的过程
4-Agent+LLM+McpServers
-
1-LLM和Agent最初是独立创建的,两者之间没有关系
- LLM指明用哪家大模型
- Agent指明用哪些McpServerList
-
2-LLM和Agent是通过Runner.run(Agent+LLM+问题)进行关联
-
3-Agent+LLM如何进行交互(要不要进行最后的总结)是通用(result.output获取的时候进行逻辑编排的)
-
如果我们自己做MCP编排,可能就是在这个地方进行核心逻辑编写
-
5-MCPServer核心代码
- 1-在Service业务代码头上添加@tool装饰器,即可实现FastMCP的Tool功能
# 假设 mcp 已经正确导入
try:from mcp import tool
except ImportError:# 如果 mcp 未找到,模拟一个 tool 装饰器def tool(func):return func# 在 Service 业务代码头上添加 @tool 装饰器
@tool
async def get_city_list(self) -> list:"""获取所有的城市信息。返回:str: 所有的城市信息列表"""logging.info(f"获取所有的城市信息")city_list = []for city in self.CITY_WEATHER_DATA:city_list.append(city)return city_list
- 2-在Service业务代码头上添加@mcp.tool()装饰器,即可实现FastMCP的McpServer功能
from mcp.server.fastmcp import FastMCPfrom city_01_service import CityDataServer# 1-初始化 MCP 服务器
mcp = FastMCP("CityDataServer")# 2-初始化城市信息服务器(业务代码+@tool装饰器)
city_server = CityDataServer()# 3-在 Service 业务代码头上添加@mcp.tool()装饰器
@mcp.tool()
# 获取所有城市列表
async def get_city_list():"""获取所有城市列表。返回:str: 所有城市列表"""city_list = await city_server.get_city_list()return city_list# 4-主程序指定运行方法-stdio/sse进程启动
if __name__ == "__main__":mcp.run(transport='stdio/sse')
3-参考网址
- MCP官网的开发样例:https://github.com/openai/openai-agents-python/blob/main/examples/mcp/sse_example/main.py
- 个人代码实现仓库:https://gitee.com/enzoism/python_mcp_client_server
4-上手实操
1-空工程初始化环境
mkdir my_project
cd my_project
python -m venv .venv
2-激活环境
# Windows
source .venv/Scripts/activate# Mac
source .venv/bin/activate
3-添加依赖
对应的依赖是在激活的环境中
# uv用于后续MCP Inspector的连接
pip install uv httpx mcp
4-ToolFunction核心代码
import asyncio
import osfrom agents import (Agent,RunConfig,Runner,function_tool,set_tracing_disabled,
)
from dotenv import load_dotenvfrom model_providers.deepseek import DeepSeekModelProvider# 1-环境变量加载相关
load_dotenv()
BASE_URL = os.getenv("BASE_URL") or ""
API_KEY = os.getenv("API_KEY") or ""
MODEL_NAME = os.getenv("MODEL_NAME") or ""
if not BASE_URL or not API_KEY or not MODEL_NAME:raise ValueError("请通过环境变量或代码设置EXAMPLE_BASE_URL、EXAMPLE_API_KEY、EXAMPLE_MODEL_NAME。")# 2-跳过大模型的链路追踪
set_tracing_disabled(disabled=True)"""
本例使用自定义提供程序调用Runner.run()的部分,并直接调用OpenAI进行其他操作。
步骤:
1. 【实例化LLM】ModelProvider对象-并构建RunConfig
2. 【实例化Agent】创建一个Agent。
3. 在调用Runner.run()结合【LLM】+【Agent】进行问答
注意,在本例中,我们假设您没有从platform.openai.com获取API密钥,因此禁用了跟踪。
如果您有API密钥,您可以选择设置`OPENAI_API_KEY`环境变量或调用set_tracing_export_api_key()来设置跟踪特定的密钥。
"""# 3-定义一个工具函数
@function_tool
def init_weather_tool_function(city: str):print(f"[debug] getting weather for {city}")return f"The weather in {city} is sunny."async def run_mcp_tool_function():# 1-【实例化LLM】ModelProvider对象-并构建RunConfigrun_config = RunConfig(model_provider=DeepSeekModelProvider(BASE_URL, API_KEY, MODEL_NAME))# 2-【实例化Agent】创建一个Agentagent = Agent(name="Assistant",instructions="使用工具回答大模型的问题",tools=[init_weather_tool_function])# 3.1-调用工具回答问题message = "杭州的天气怎么样?"print(f"\n\n【大模型请求案例】-> {message}")result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)print(result.final_output)# 3.2-获取Agent对话的结果-没有配置RunConfig使用的是OpenAI的默认模型# result = await Runner.run(# agent,# "给我讲一个笑话吧!",# )# print(result.final_output)if __name__ == "__main__":asyncio.run(run_mcp_tool_function())
5-McpServer核心代码
1-【mcp.run(transport=“sse”)】后,服务【可以被任何远程】的Agent进行访问(此时先不谈鉴权的问题)
2-【mcp.run(transport=“stdio”)】后,服务【只可以被本地进程】的Agent进行访问(此时先不谈鉴权的问题)
import random
import randomfrom mcp.server.fastmcp import FastMCP# Create server
mcp = FastMCP("Echo Server")# 1-MCP工具1-数字加和
@mcp.tool()
def add(a: int, b: int) -> int:"""Add two numbers"""print(f"[MCP工具1-数字加和] add({a}, {b})")return a + b# 2-MCP工具2-随机选定的字符
@mcp.tool()
def get_secret_word() -> str:"""获取随机单词"""print("[MCP工具2-随机选定的字符] get_secret_word()")return random.choice(["apple", "banana", "cherry"])if __name__ == "__main__":mcp.run(transport="sse/stdio")
6-Agent调试McpServer
hitokoto_02_api.py
:API直接调用service对外暴露rest请求
import asyncio
import osfrom agents import Agent, Runner, RunConfig, set_tracing_disabled
from agents.mcp import MCPServer, MCPServerStdio
from agents.model_settings import ModelSettings
from dotenv import load_dotenvfrom model_providers.deepseek import DeepSeekModelProvider# 1-环境变量加载相关
load_dotenv()
BASE_URL = os.getenv("BASE_URL") or ""
API_KEY = os.getenv("API_KEY") or ""
MODEL_NAME = os.getenv("MODEL_NAME") or ""
if not BASE_URL or not API_KEY or not MODEL_NAME:raise ValueError("请通过环境变量或代码设置EXAMPLE_BASE_URL、EXAMPLE_API_KEY、EXAMPLE_MODEL_NAME。")# 2-跳过大模型的链路追踪
set_tracing_disabled(disabled=True)"""
本例使用自定义提供程序调用Runner.run()的部分,并直接调用OpenAI进行其他操作。
步骤:
1. 【实例化LLM】ModelProvider对象-并构建RunConfig
2. 【实例化Agent】创建一个Agent。
3. 在调用Runner.run()结合【LLM】+【Agent】进行问答
- 1)直接和大模型对话
- 2)调用MCPServer_SSE模式-[MCP工具1-数字加和]
- 3)调用MCPServer_SSE模式-[MCP工具2-随机选定的字符]
"""async def run_mcp_server(mcp_server: MCPServer):# 1-【实例化LLM】ModelProvider对象-并构建RunConfigrun_config = RunConfig(model_provider=DeepSeekModelProvider(BASE_URL, API_KEY, MODEL_NAME))# 2-【实例化Agent】创建一个Agentagent = Agent(name="Assistant",instructions="使用工具回答大模型的问题",mcp_servers=[mcp_server],model_settings=ModelSettings(tool_choice="required"),)# 3.1-直接和大模型对话message = "给我讲一个笑话吧!"print(f"\n\n【大模型请求案例】-> {message}")result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)print(result.final_output)# 3.2-调用MCPServer_SSE模式-[MCP工具1-数字加和]message = "What's the weather in Tokyo?"print(f"\n\n【大模型请求案例】-> {message}")result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)print(result.final_output)# 3.3-调用MCPServer_SSE模式-[MCP工具2-随机选定的字符]message = "What's the secret word?"print(f"\n\n【大模型请求案例】-> {message}")result = await Runner.run(starting_agent=agent, input=message, run_config=run_config)print(result.final_output)async def init_mcp_server() -> MCPServerStdio:# 1-创建 MCP 服务器连接实例,但不立即运行(python mcp_server_xx.py)this_dir = os.path.dirname(os.path.abspath(__file__))python_exec_path = os.path.join(this_dir, ".venv/Scripts/python.exe")mcp_server_stdio_file = os.path.join(this_dir, "mcp05_stdio.py")weather_server = MCPServerStdio(name="weather",params={"command": python_exec_path,"args": [mcp_server_stdio_file],"env": {},},# 缓存工具列表以减少延迟,不需要每次连接时重新获取工具列表cache_tools_list=True)# 2-手动连接到MCP服务器print("正在连接到MCP服务器...")await weather_server.connect()print("MCP服务器连接成功!")# 3-等待服务器连接成功并获取MCP服务可用工具列表tools = await weather_server.list_tools()print("\n可用工具列表: ")for tool in tools:print(f" - {tool.name}: {tool.description}")return weather_serverif __name__ == "__main__":# 1-获取McpServerserver = asyncio.run(init_mcp_server())# 2-运行McpServerasyncio.run(run_mcp_server(server))