cherryStudio连接MCP服务器
cherryStudio安装
cherryStudio的安装可直接去官网进行安装即可
硅基流动 | CherryStudio
安装完成后打开的界面是这样的
cherrystudio 模型支持
cherrystudio作为一个客户端,可支持多种模型,并可支持线上模型和本地部署模型
线上模型支持
线上模型需要用户申请对应模型的api_key,以deepseek为例
首先去deepseek官网DeepSeek申请api_key,然后按照下述步骤填写
接下来即可正常使用deepseek模型了
线下模型支持
线下模型不需要api_key,但cherryStudio仅支持使用ollama部署的本地模型,具体部署方式可参考零基础本地部署Qwen3模型(ollama+Open-WebUI)-CSDN博客
本地部署的模型需要首先开启模型服务后才能使用cherryStudio进行连接,在powsheelsheel或cmd运行以下命令以开启本地模型服务
ollama start
然后打开 cherryStudio按照以下步骤连接本地部署的模型服务即可
cherrystudio MCP支持
依赖安装
第一次使用cherryStudio需要安装一些依赖包,按照下述步骤进行找到对应位置
如果依赖包没有安装,这里应该是红色的,它提示你需要安装哪些依赖,以及安装的位置,如下以我的为例,我需要安装uv.exe以及bun.exe两个依赖包(大部分情况都是安装这两个依赖的),安装的路径也在下边有提示
接下来我们需要手动下载这两个依赖,然后把他们拷贝到上述提示的路径下
cherryStudio所有连接的模型均可在以下位置找到
un.exe安装
参考官网安装方式
Installation | uv
打开powershell(注意是powershell不是cmd,powershell打开方式和cmd一样,快捷键win+r输入powershell),然后输入以下命令
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
安装完成后会有提示安装的位置(如C:\Users\Administrator\.local\bin),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)
bun.exe安装
bun的安装仍旧参考官网
安装 | Bun中文文档 | Bun中文网
打开powershell,然后输入以下命令
powershell -c "irm bun.sh/install.ps1|iex"
安装完成后也会有提示安装的位置(如C:\Users\xxx\.bun\bin\bun.exe),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)
连接MCP服务器
除了我们自己编写mcp以外,官方目前也已经提供了数千种mcp-server
modelcontextprotocol/servers: Model Context Protocol Servers
你也可以在cherryStudio中找到该仓库,点击“设置”、点击“更多mcp”,点击第一项的红色方框
除此以外,国内阿里的ModelScope平台目前也支持了许多mcp-server,点击红色方框即可查看
这些都是已经写好的mcp-server,就像是一个工具,我们只需将其下载导入即可使用
接下来我们将介绍如何使用mcp-server
操作本地文件夹的mcp server
该mcp-server的仓库地址如下:servers/src/filesystem at main · modelcontextprotocol/servers
我们在仓库即可找到对应的使用方式,我们以npx调用方式为例,将以下json内容修改填写进cherryStudio即可
以下是具体步骤
以下是需要粘贴的json,大家自取,内容很简单,command表示使用什么工具调用的该mcp-server,args表示调用该mcp-server需要的参数,由于是操作本地文件夹的mcp-server,当然需要有一个操作的目的文件夹,本人的路径为“E:\AI\test”
{"mcpServers": {"filesystem": {"isActive": true,"command": "npx","args": ["-y","@modelcontextprotocol/server-filesystem","E:\AI\test"],"name": "filesystem"}}
}
保存后开启
接下来即可使用该mcp-server了
以下是我自己的尝试demo,我让它帮我在定义的文件夹里写一个快排,它成功创建并写入了,但是很遗憾不能运行