基于本机知识库 + 豆包(火山引擎)+ MCP的落地方案
一、总体架构
- 推理模型:使用豆包(火山引擎方舟)大模型,通过
chat/completions
接口调用(兼容 OpenAI 风格)。 - 向量库:本地部署 Qdrant 或 Chroma,向量化模型用 Doubao-embedding 系列。
- 检索层:采用混合检索(向量召回 + 关键词 BM25/Elastic),再用豆包做轻量重排。
- MCP 工具层:将「知识库检索/写入」「文件系统」「外部搜索」封装为 MCP Server 工具,对外暴露标准接口。
- Agent 逻辑:基于 RAG 流程(检索→压缩→生成→校对→引用),通过 MCP 工具调用统一调度。
- 安全:密钥管理、最小权限、身份集中治理,避免凭证碎片化。
二、实施步骤
1. 接入豆包 API
- 在火山方舟控制台生成 API Key,配置接入点。
- 对话接口:
POST https://ark.cn-beijing.volces.com/api/v3/chat/completions
- 向量化接口:
POST https://a