在windows10上,部署DeepSeek模型在本地电脑
1、背景
最近,DeepSeek爆火,先进的算法、卓越的能力,表现出众,其凭一己之力推动国内Ai大模型跨越式发展。作为一款现象级的Ai产品,用户量暴增,最近服务器又被攻击,使用DeepSeek,经常出现服务器繁忙,将DeepSeek部署在本地电脑就方便很多。
2、Ollama 部署工具介绍
2.1、Ollama 与 DeepSeek的关系
Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者 能够在本地环境快速部署、启动、管理和实验最新大语言模型,包括如DeepSeek 、Llama 3、Phi 3、Mistral、Gemma等开源的大型语言模型。
Ollama目前支持以下大语言模型:https://ollama.com/library (去此地址上查看)
因此,Ollama与DeepSeek的关系:DeepSeek 是大语言模型,而Ollama是大语言模型(不限于 DeepSeek 模型)便捷的管理和运维工具。
2.2、Ollama
Ollama 重要网址:
官方网站:https://ollama.com/
Github: https://github.com/ollama/ollama
Ollama 是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的工具。支持macOS、Linux和Windows多个平台运行。
3、安装和配置
3.1、安装
Ollama 的macOS、Linux和Windows多个平台的安装包地址:
https://github.com/ollama/ollama/releases
下载 OllamaSetup.exe ,按照默认方式,下一步下一步即可。
3.2、配置
安装完成没有提示。 接下来配置环境变量!
Ollama的安装过程,与安装其他普通软件并没有什么两样,安装完成之后,有几个常用的系统环境变量参数建议进行设置:
OLLAMA_MODELS:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:\Users\<username>\ollama\models,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:\OllamaModels),避免 C 盘空间吃紧
OLLAMA_HOST:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问
OLLAMA_PORT:Ollama 服务监听的默认端口,默认为11434,如果端口有冲突,可以修改设置成其他端口(如:8080等)
OLLAMA_ORIGINS:HTTP 客户端请求来源,半角逗号分隔列表,若本地使用无严格要求,可以设置成星号,代表不受限制
OLLAMA_KEEP_ALIVE:大模型加载到内存中后的存活时间,默认为5m ,即 5 分钟(如:纯数字如 300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活);我们可设置成24h,即模型在内存中保持 24 小时,提高访问速度
OLLAMA_NUM_PARALLEL:请求处理并发数量,默认为1,即单并发串行处理请求,可根据实际情况进行调整
OLLAMA_MAX_QUEUE:请求队列长度,默认值为512,可以根据情况设置,超过队列长度请求被抛弃
OLLAMA_DEBUG:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题
OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中
环境变量中,配置如下:
OLLAMA_HOST=0.0.0.0:11434
OLLAMA_ORIGINS=*
OLLAMA_MODELS=D:\ollama\models
3.3 重启
配置完成后,一定要重启 Ollama 。
首先,在右下角找到 Ollama ,右键选择 Quit Ollama
,Ollama 停止运行。
接着,在开始菜单中搜索 Ollama ,点击启动。
看看右下角 是不是已经启动ollama。
4、 测试
4.1、命令测试
C:\Users\ext>ollama
C:\Users\ext>ollama -v
4.2、问测试
浏览器访问 http://127.0.0.1:11434/
,出现 Ollama is running代表成功。
5、部署 DeepSeek模型
5.1、DeepSeek模型
访问地址: https://ollama.com/search
DeepSeek 模型版模型有很多,1.5b、7b、8b、14b、32b、70b或671b,这里有很多版本可选,模型越大,要求电脑内存、显卡等的配置越高。比如电脑是4060的显卡,选择8b的模型。
5.2、DeepSeek模型版本选择
版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)llama run deepseek-r1:1.5b
版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要.7GB空余空间) llama run deepseek-r1:7b
版本:8b,(需要4.9GB空余空间) llama run deepseek-r1:8b
版本:14b,(需要9GB空余空间) llama run deepseek-r1:14b
版本:32b,(需要20GB空余空间)llama run deepseek-r1:32b
版本:70b,(需要43GB空余空间) llama run deepseek-r1:70b
版本:671b,(需要404GB空余空间) llama run deepseek-r1:671b
5.3、下载安装
1)选择版本号,点击复制右侧代码。
2) 粘贴到PowerShell(管理员)运行框,然后回车。(这里会默认安装在指定的磁盘,注意C盘空间)
3) 出现下载等待窗口,等待下载完成。
4) 下载完成后稍微等待,看到success,即部署完成。
5) 部署完成,send a message,输入内容即可开始对话。
5.4、玩起来
你可以在框里输入中文或者英文(运行的时候基本上会把内存和CPU干满,除非你的配置真的很高。自行斟酌哦!)
这个是42GB的模型出来的内容:
AI写了这么多,我就不复述了!
下面这个是4.7GB的模型出来的内容:
你更喜欢哪一个呢?
5.5、离线之后如何重新进入DeepSeek对话?
很火小伙伴在关闭PowerShell之后就不知道怎么重新进入了,这时候就需要按照这个教程:
首先在Windows【开始菜单】点击【鼠标右键】-打开【Windows PowerShell】或者【终端】(以下简称“终端”)
在终端里输入【ollama list】查看你安装的模型,复制一下你安装的模型的【NAME】,我这里是【deepseek-r1:70b】(如果你安装了多个模型,这里就相当于选择不同的模型进行对话了)
ollama list
接着输入【ollama run 模型名称(NAME)】,我这里是【ollama run deepseek-r1:70b】
ollama run 模型名称(NAME)
我这里是
ollama run deepseek-r1:7b
就能进入到DeepSeek的对话框了!
6、Chatbox前端搭建
通过上面的操作,已经部署好DeepSeek,但每次使用都要在终端管理员里操作,相当繁琐。这里可以借助Chatbox,实现网页或客户端操作。
6.1、下载安装Chatbox
Chatbox官网:https://chatboxai.app/ 。 进入官网下载安装Chatbox客户端。
安装就不细说了。…
6.2、点击设置,选择 Ollama API
6.3、填写参数
API域名:http://127.0.0.1:11434/
模型:选择 deepseek-r1
模型
保存即可
6.4、部署完成,就可以正常使用了。
通过以上操作,DeepSeek就部署在本地电脑上了,有些不方便公开的数据,比如实验数据,可以通过部署大模型到本地的方式进行处理,不用担心数据泄露。
DeepSeek 登顶苹果中国地区和美国地区应用商店下载排行榜,在美区下载榜上超越了 ChatGPT。其推理能力的强大就不多说了,留给大家自行探索。