【LLM学习】【Ollama】四、MCP
在 Ollama 多轮对话中集成 MCP,并将结果嵌入上下文
本文基于一个最小可用的 CLI 项目,演示如何在 Ollama 的多轮对话中集成 MCP(消息控制协议风格的指令),并把 MCP 的执行结果注入到对话历史里,让大模型在后续轮次中“记得”这些结果并可直接引用。
项目地址:https://github.com/MiaoJieF/LLM_mcp
一、目标
- 持久化多轮对话上下文
- 识别并处理 MCP 指令:
/time
和/bmi 身高 体重
- 将 MCP 执行结果写回对话历史,供模型后续引用
- 通过简单 CLI 进行交互
二、模块划分
ollama_client.py
:与 Ollama HTTP API 交互mcp_handler.py
:解析与执行 MCP 指令(时间查询、BMI 计算)conversation_manager.py
:维护对话上下文,路由 MCP 与普通对话,并把 MCP 结果写入历史main.py
:命令行入口,设定系统提示、读取用户输入
三、MCP 的识别与执行
MCP 的识别策略非常直观:所有以 /
开头的输入都作为候选 MCP 指令;具体支持的指令在 mcp_handler.py
中逐一匹配与处理。