本地部署Ollama DeepSeek-R1:8B,接入Cherry Studio
本地部署Ollama DeepSeek-R1:8B,接入Cherry Studio
本教程为本地部署ollama 环境,运行deepseek-r1:8B 模型,并完成cherry studio接入调用。
实现无网环境也可提问模型
一、ollama 环境安装
通过网盘分享的文件:OllamaSetup.exe
链接: https://pan.baidu.com/s/1aVMyzZP78bNzI2hfU2EykQ?pwd=1234 提取码: 1234
给大家提供了安装包,双击即可安装
二、运行deepseek-r1:8B模型
1. 启动模型,打开终端、查看命令
命令介绍如下:
- serve:用于启动Ollama服务,启动后可用于后续调用模型等操作,是使用Ollama其他功能的基础前提。例如在需要利用Ollama提供的模型服务时,首先要用该命令开启服务。
- create:能从Modelfile创建一个模型。Modelfile可以定义模型的各种属性和配置信息,开发者可以依据这些自定义模型。
- show:此命令可查看特定模型的详细信息,如模型的版本、创建时间、配置参数等内容。
- run:运行指定的模型,与模型进行交互。输入提示信息,获取模型生成的结果,就像使用聊天机器人那样,是使用模型完成具体任务的关键命令。
- pull和push:
pull 命令可以从模型注册中心拉取模型到本地;
push 命令则相反,可将本地创建或修改后的模型推送到注册表分享或备份。 - list和ps :
list 用于列出本地所有可用的模型;
ps 用于列出当前正在运行的模型,可以帮助用户管理和监控模型的运行状态。 - rm:删除指定的模型,可以释放磁盘空间,如果模型不再使用或者想要更新等情况,可使用该命令删除。
2. 拉取运行模型
- 拉取模型
ollama pull deepseek-r1:8b
- 运行模型
ollama run deepseek-r1:8b
- 提问测试
三、接入cherry studio
四、测试
优缺点
- 优点:当然本地部署方便做一些测试、以及无网环境进行提问,比如信号屏蔽后考试,可以使用本地模型进行测试。
- 缺点:本地部署的8b模型,提问响应速度较慢,勉强使用
大家电脑配置较高的话,可以拉取更高配置模型,如32B
当然能花钱解决的问题都不是问题,下面我们接入硅基流动,现在注册赠送14元额度,约2000万tokens, 方便我们测试
接入硅基流动
硅基流动,提供了很多优秀的满配模型,登录即送14元额度,方便我们调用