当前位置: 首页 > news >正文

windows系统本地部署DeepSeek模型

文章目录

  • 安装ollama
  • 下载DeepSeek R1模型
  • 可视化部署Web UI

安装ollama

首先到ollama官网,下载ollama。

image-20250223120251260

根据电脑系统选择对应的版本进行安装,安装之后打开命令行工具,输入以下命令:

ollama --version

当在命令行显示以下页面,说明ollama安装成功

image-20250223121951926

下载DeepSeek R1模型

安装完成之后打开ollama官网,选择Deepseek-R1

image-20250223120620387

然后根据自己的电脑配置选择合适的版本,点击左侧选择模型大小,然后点击右侧复制命令下载要部署的模型

image-20250223121626257

这里是各个版本所需要的电脑最低配置

image-20250223130718430

在命令行输入安装命令:

ollama run deepseek-r1:7b # 安装7B模型

image-20250223122400807

当看到如下界面,说明已经安装成功,此时可以向他提问问题

image-20250223122511433

以上就在本地部署Deepseek成功了,以下是在命令行的常用命令:

# 启动模型对话
ollama run deepseek-r1:7b # 根据自己部署的模型调整参数
# 退出模型
/bye
# 查看本地模型列表
ollama list
# 停止Ollama服务
ollama stop
# 更新模型版本
ollama pull deepseek-r1:[版本号]
# 删除本地模型
ollama rm deepseek-r1:[版本号]
# 查看模型详情,显示模型支持的模态
ollama show deepseek-r1:[版本号] --modalities
# 启动Ollama服务
ollama serve
# 查看帮助文档
ollama help
# 复制模型副本
ollama cp deepseek-r1:[版本号] 模型名称

到此DeepSeek在本地已经部署成功,但是每次提问都要在命令行,看起来不美观而且不是我们常用的使用方式,此时我们可以使用图形化工具调用本地部署的deepseek,就像在官网上使用deepseek一样

可视化部署Web UI

第一步:打开Chatbox官网,下载安装Chatbox AI

image-20250223122918315

安装成功之后打开Chatbox,选择使用自己的API Key或本地部署模型

image-20250223123330521

这里因为我们是使用Ollama部署的本地模型,所以选择Ollama API

image-20250223123438754

当看到以下配置页面时,按照下图所显示的配置即可,这里解释一下每个选项都是什么意思:

  • API 域名:因为我们本地部署了DeepSeek模型,相当于使用本地IP地址+端口来调用我们本地部署的模型
  • 模型:选择我们在本地部署的模型名称(我部署的是7B的,所以这里显示的是7B模型)
  • 上下文的消息数量上限:相当于你和大模型对话时的“短期记忆容量”。比如设置为10,就意味着它能记住你们最近的10条对话内容。如果超过这个数,它就会像金鱼一样,开始忘记最早聊过的东西。这个参数能够防止与大模型对话太久导致电脑资源占用过多卡死,也能避免它记忆太多内容导致跑题
  • 严谨与想象:它就像控制机器人脑洞大小的开关,如果选择偏向于“严谨”,那么模型说话就会一板一眼,像学霸答题一样,但也可能会有些无聊;如果选择偏向于“想象”,那么模型开始放飞自我,说话天马行空,适合编故事,但也可能满嘴跑火车,这里就根据自己需要来适当选择(可以按照图示默认就好)

image-20250223124920226

在显示设置这里,可以设置默认回答语言,以及字体大小等设置

image-20250223125139209

在对话栏设置里有一个“新对话的默认提示”,它的作用相当于你每次打开新聊天时,塞给AI一个隐形小纸条,纸条上写着你最常提的要求:比如:

  • “默认使用中文回答”
  • “回答要简短并且带有出处”
  • “涉及名称要用简写”

注意:这里要求别写太多(建议$\leq$3条),否则AI可能混乱。

image-20250223125715554

当以上配置成功之后,就可以在本地使用刚刚部署的DeepSeek-7B模型了

求别写太多(建议$\leq$3条),否则AI可能混乱。

[外链图片转存中…(img-sh7mcS1a-1740917471399)]

当以上配置成功之后,就可以在本地使用刚刚部署的DeepSeek-7B模型了

image-20250223125942225

相关文章:

  • 大模型 参数 use_cache 怎么用? 与 KV Cache 是什么关系?
  • Qt 的 Lambda 捕获局部变量导致 UI 更新异常的分析与解决
  • netty18罗汉——布袋罗汉(encoder)
  • 如何在Python用Plot画出一个简单的机器人模型
  • llama-factory || AutoDL平台
  • ASP.NET Core 3.1 修改个别API返回JSON序列化格式
  • MySQL整体架构
  • Docker - 网络
  • 用冒泡排序法模拟qsort函数
  • LabVIEW中三种PSD分析VI的区别与应用
  • 微调训练方法概述:Fine-tuning、Prompt-tuning、P-tuning 及其他高效技术
  • pwa的基本使用
  • 2W8000字 LLM架构文章阅读指北
  • pytorch2.6.0版本测试YOLOv5中detect.py错误解决办法
  • http报文的content-type参数和spring mvc传参问题
  • 高频 SQL 50 题(基础版)_550. 游戏玩法分析 IV
  • 系统架构设计师—计算机基础篇—系统性能评价
  • 深度学习pytorch之4种归一化方法(Normalization)原理公式解析和参数使用
  • 小结:BGP协议
  • AtCoder Beginner Contest 001(A - 積雪深差、B - 視程の通報、C - 風力観測、D - 感雨時刻の整理)题目翻译
  • 商城网站怎样做/关键词什么意思
  • 东营企业网站制作/台州网站制作维护
  • 响应式网站是做列表/618网络营销策划方案
  • 百度网站客服电话人工服务/网站seo服务
  • the7.3 wordpress/windows优化工具
  • 国外网站为啥速度慢/怎么接广告赚钱