
若已成功在本地部署了 DeepSeek 模型(例如通过 vscode-llm
、ollama
或私有 API 服务),在 VS Code 中调用本地模型进行代码撰写、检视和优化的完整流程如下:
1. 准备工作:确认本地模型服务状态
-
模型服务类型:
- 若使用 HTTP API 服务(如 FastAPI/Flask 封装),假设服务地址为
http://localhost:8000
。
- 若使用 ollama 部署,模型名称为
deepseek
,调用命令为 ollama run deepseek
。
- 若使用 vscode-llm 等本地扩展,需确保扩展已配置模型路径。
-
验证服务可用性: