deepSeek本地部署,详细教程,Ollama安装
首先下载个ollama就能解决本地部署的问题,非常简单
1.安装2.Ollama
Ollama 官网地址
直接下载完成后,安装即可,如果下载慢,可以上个梯子
安装完成后他默认下载到c盘,需要更改查看我另外一篇教程
Ollama移动到其他盘_怎么把ollama安装到别的盘-CSDN博客
2.下载模型
验证ollama是否安装成功
ollama -v
然后打开
Ollama 官网 ,寻找合适的模型,选择deepseek-r1
然后选择模型大小规模,亲测3060显卡(电脑内存32g)能跑到14b,1650显卡电脑内存16g)能跑7b,响应速度还不错
然后模型选择方面个人认为,14b的表现比较不错,问的问题都回给你回答,并且具有比较好的思考能力,7b,8b的模型这块的效果不是很好,,然后到了32b,如果你问的话,不符合规定,deepseek思考完之后会选择给你拒绝回答,当然具体选择那个模型看个人电脑配置,以及网络环境,电脑配置比较低的建议搞个1.5b尝试一下,
选择1.5b模型,复制该命令
ollama run deepseek-r1:1.5b
打开控制台,复制进去回车键,会自动下载,并且使用模型
等下载完成后,应该会直接出现光标输入框,因为我这边已经下载过了,所以就直接运行模型了,如果下载完成后没有运行模型则继续执行该命令
ollama run deepseek-r1:1.5b
最后说一下下载网络慢的问题,首先先把梯子关了,然后如果就是说一开始下载的时候能达到3,4m或者1,2m那样,后面越下载越慢的情况就是会掉到10几kb,100多kb的时候,这个时候直接中断程序,ctrl + c 键盘组合键,然后重新执行,即可解决问题
ollama run deepseek-r1:1.5b
然后要做前端可视化的话
可以去查一下Open-WebUI,本地部署一下就可以了
如果对deepseek局域网使用感兴趣的话,可以查看我另外一篇文章
ollama开放局域网_ollama模型如何开放到内网-CSDN博客