【DeepSeek本地部署详细教程】
DeepSeek本地部署详细教程
国内大语言模型DeepSeek在自然语言处理、代码生成和多轮对话等任务中表现出色,备受关注。但在使用时,可能会遇到服务器繁忙的问题。将其部署到本地,可摆脱对云端服务的依赖,享受AI便利。
一、部署前准备
- 硬件要求:
- 显卡:GTX 1060(6GB)及以上,推荐RTX3060及以上,显卡性能影响DeepSeek的生成速度。
- 内存:容量8GB,推荐16GB及更高。
- 存储空间:C盘剩余20GB,推荐使用NVMe固态硬盘。
- 工具准备:Ollama,这是一个开源的本地大模型运行工具,能帮助我们在本地部署和运行大语言模型 ,使用命令行操作,方便快捷,并且支持多种模型。
二、安装Ollama
- 打开Ollama官网:https://ollama.com/ 。
- 点击页面上的“Download”下载按钮,下载对应操作系统的Ollama安装包。如果浏览器没有自动开始下载,可右键点击“
Download for Windows
”(假设是Windows系统,其他系统类似),复制链接地址,然后使用下载工具下载。 - 下载完成后,双击下载的安装文件,按照安装向导的提示完成安装。
- 验证安装是否成功:按下
Win+R
键,打开“运行”对话框,输入“cmd
”并回车,打开命令提示符窗口。在命令提示符窗口中输入“ollama -v
”,如果显示Ollama的版本信息,则说明安装成功。
三、下载DeepSeek模型
- 再次打开Ollama官网(https://ollama.com/ ),点击页面上方的“Models”。
- 在模型列表中找到“deepseek - r1”并点击进入。
- 根据自己的硬件配置选择合适的模型版本。模型参数规模以B(Billion,十亿)表示,数值越高,模型越复杂,理解和生成能力越强,但对系统性能要求越高,生成内容速度越慢 :
- 1.5B:文件约3GB,适合体验/尝鲜场景,不太推荐。
- 7B:文件8GB,适合普通内容创作及开发测试场景,推荐16GB内存 + 8GB显存,适配大多数用户。
- 8B:在7B基础上更精细,适合对内容要求更高更精的场景,也适合大多数用户。
- 14B:文件提升至16GB,建议12核CPU + 32GB内存 + 16GB显存,适合专业及深度内容创作场景。更高参数规模因硬件要求过高、生成速度过慢,不做推荐 。
- 选择好版本后,点击右侧的复制按钮,复制生成的命令。例如,如果选择的是7B版本,复制的命令可能类似“ollama run deepseek-r1:7b” 。
- 启动命令行窗口(可以通过在开始菜单搜索“CMD”找到并打开)。
- 在命令行窗口内点击右键,粘贴刚才复制的命令,然后按回车键执行。此时,系统会开始下载所选版本的DeepSeek模型,下载过程中请耐心等待,不要关闭窗口。
四、部署完成与使用
- 模型下载完成后,会自动进入工作状态。在命令行的“>>>”提示符后,直接输入你想问的问题,即可使用DeepSeek进行交互。
- 以后每次想要使用DeepSeek时,只需要打开命令提示符窗口,输入之前在官网上复制的那串下载模型的命令(例如“ollama run deepseek-r1:7b” ),然后在“>>>”后输入问题即可。
五、常见问题及解决方案
- 下载速度慢:可能是网络问题,尝试更换网络环境,或者检查是否有网络限制。如果是Ollama源的问题,可以尝试配置国内的镜像源,但这需要一定的技术操作,不建议新手轻易尝试。
- 模型下载失败:确保命令输入正确,并且网络连接稳定。如果多次下载失败,可能是模型文件损坏或服务器问题,可以稍后再试,或者联系Ollama官方支持。
- 运行时出错:确认是否按照要求配置了合适的硬件,并且安装了最新的显卡驱动。如果是命令行输入错误,仔细检查输入的命令是否正确。