当前位置: 首页 > news >正文

在windows10上,部署DeepSeek模型在本地电脑

1、背景

最近,DeepSeek爆火,先进的算法、卓越的能力,表现出众,其凭一己之力推动国内Ai大模型跨越式发展。作为一款现象级的Ai产品,用户量暴增,最近服务器又被攻击,使用DeepSeek,经常出现服务器繁忙,将DeepSeek部署在本地电脑就方便很多。
在这里插入图片描述

2、Ollama 部署工具介绍

2.1、Ollama 与 DeepSeek的关系

Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者 能够在本地环境快速部署、启动、管理和实验最新大语言模型,包括如DeepSeek 、Llama 3、Phi 3、Mistral、Gemma等开源的大型语言模型。

Ollama目前支持以下大语言模型:https://ollama.com/library (去此地址上查看)

因此,Ollama与DeepSeek的关系:DeepSeek 是大语言模型,而Ollama是大语言模型(不限于 DeepSeek 模型)便捷的管理和运维工具。

2.2、Ollama

Ollama 重要网址:

官方网站:https://ollama.com/
Github: https://github.com/ollama/ollama

Ollama 是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的工具。支持macOS、Linux和Windows多个平台运行。

3、安装和配置

3.1、安装

Ollama 的macOS、Linux和Windows多个平台的安装包地址:

https://github.com/ollama/ollama/releases

下载 OllamaSetup.exe ,按照默认方式,下一步下一步即可。
在这里插入图片描述

3.2、配置

安装完成没有提示。 接下来配置环境变量!

Ollama的安装过程,与安装其他普通软件并没有什么两样,安装完成之后,有几个常用的系统环境变量参数建议进行设置:

OLLAMA_MODELS:模型文件存放目录,默认目录为当前用户目录(Windows 目录:C:\Users\<username>\ollama\models,MacOS 目录:~/.ollama/models,Linux 目录:/usr/share/ollama/.ollama/models),如果是 Windows 系统建议修改(如:D:\OllamaModels),避免 C 盘空间吃紧
OLLAMA_HOST:Ollama 服务监听的网络地址,默认为127.0.0.1,如果允许其他电脑访问 Ollama(如:局域网中的其他电脑),建议设置成0.0.0.0,从而允许其他网络访问
OLLAMA_PORT:Ollama 服务监听的默认端口,默认为11434,如果端口有冲突,可以修改设置成其他端口(如:8080等)
OLLAMA_ORIGINS:HTTP 客户端请求来源,半角逗号分隔列表,若本地使用无严格要求,可以设置成星号,代表不受限制
OLLAMA_KEEP_ALIVE:大模型加载到内存中后的存活时间,默认为5m ,即 5 分钟(如:纯数字如 300 代表 300 秒,0 代表处理请求响应后立即卸载模型,任何负数则表示一直存活);我们可设置成24h,即模型在内存中保持 24 小时,提高访问速度
OLLAMA_NUM_PARALLEL:请求处理并发数量,默认为1,即单并发串行处理请求,可根据实际情况进行调整
OLLAMA_MAX_QUEUE:请求队列长度,默认值为512,可以根据情况设置,超过队列长度请求被抛弃
OLLAMA_DEBUG:输出 Debug 日志标识,应用研发阶段可以设置成1,即输出详细日志信息,便于排查问题
OLLAMA_MAX_LOADED_MODELS:最多同时加载到内存中模型的数量,默认为1,即只能有 1 个模型在内存中

环境变量中,配置如下:

在这里插入图片描述

OLLAMA_HOST=0.0.0.0:11434

在这里插入图片描述

OLLAMA_ORIGINS=*

在这里插入图片描述

OLLAMA_MODELS=D:\ollama\models

3.3 重启

配置完成后,一定要重启 Ollama 。

首先,在右下角找到 Ollama ,右键选择 Quit Ollama ,Ollama 停止运行。
在这里插入图片描述
接着,在开始菜单中搜索 Ollama ,点击启动。
在这里插入图片描述

看看右下角 是不是已经启动ollama。

4、 测试

4.1、命令测试

C:\Users\ext>ollama

C:\Users\ext>ollama -v

在这里插入图片描述

4.2、问测试

浏览器访问 http://127.0.0.1:11434/ ,出现 Ollama is running代表成功。
在这里插入图片描述

5、部署 DeepSeek模型

5.1、DeepSeek模型

访问地址: https://ollama.com/search
在这里插入图片描述

在这里插入图片描述

DeepSeek 模型版模型有很多,1.5b、7b、8b、14b、32b、70b或671b,这里有很多版本可选,模型越大,要求电脑内存、显卡等的配置越高。比如电脑是4060的显卡,选择8b的模型。
在这里插入图片描述

5.2、DeepSeek模型版本选择

在这里插入图片描述


版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)llama run deepseek-r1:1.5b

版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要.7GB空余空间) llama run deepseek-r1:7b

版本:8b,(需要4.9GB空余空间) llama run deepseek-r1:8b

版本:14b,(需要9GB空余空间) llama run deepseek-r1:14b

版本:32b,(需要20GB空余空间)llama run deepseek-r1:32b

版本:70b,(需要43GB空余空间) llama run deepseek-r1:70b

版本:671b,(需要404GB空余空间) llama run deepseek-r1:671b

5.3、下载安装

1)选择版本号,点击复制右侧代码。

在这里插入图片描述

2) 粘贴到PowerShell(管理员)运行框,然后回车。(这里会默认安装在指定的磁盘,注意C盘空间)

在这里插入图片描述

3) 出现下载等待窗口,等待下载完成。

在这里插入图片描述

4) 下载完成后稍微等待,看到success,即部署完成。

在这里插入图片描述

5) 部署完成,send a message,输入内容即可开始对话。

在这里插入图片描述

5.4、玩起来

你可以在框里输入中文或者英文(运行的时候基本上会把内存和CPU干满,除非你的配置真的很高。自行斟酌哦!)

这个是42GB的模型出来的内容:
在这里插入图片描述

AI写了这么多,我就不复述了!

下面这个是4.7GB的模型出来的内容:
在这里插入图片描述
你更喜欢哪一个呢?

5.5、离线之后如何重新进入DeepSeek对话?

很火小伙伴在关闭PowerShell之后就不知道怎么重新进入了,这时候就需要按照这个教程:
首先在Windows【开始菜单】点击【鼠标右键】-打开【Windows PowerShell】或者【终端】(以下简称“终端”)
在这里插入图片描述
在终端里输入【ollama list】查看你安装的模型,复制一下你安装的模型的【NAME】,我这里是【deepseek-r1:70b】(如果你安装了多个模型,这里就相当于选择不同的模型进行对话了)

ollama list

接着输入【ollama run 模型名称(NAME)】,我这里是【ollama run deepseek-r1:70b】

ollama run 模型名称(NAME)

我这里是
ollama run deepseek-r1:7b

在这里插入图片描述
就能进入到DeepSeek的对话框了!

6、Chatbox前端搭建

通过上面的操作,已经部署好DeepSeek,但每次使用都要在终端管理员里操作,相当繁琐。这里可以借助Chatbox,实现网页或客户端操作。

6.1、下载安装Chatbox

Chatbox官网:https://chatboxai.app/ 。 进入官网下载安装Chatbox客户端。
在这里插入图片描述

安装就不细说了。…

6.2、点击设置,选择 Ollama API

在这里插入图片描述

6.3、填写参数

API域名:http://127.0.0.1:11434/
模型:选择 deepseek-r1 模型
保存即可
在这里插入图片描述

6.4、部署完成,就可以正常使用了。

在这里插入图片描述

通过以上操作,DeepSeek就部署在本地电脑上了,有些不方便公开的数据,比如实验数据,可以通过部署大模型到本地的方式进行处理,不用担心数据泄露。

DeepSeek 登顶苹果中国地区和美国地区应用商店下载排行榜,在美区下载榜上超越了 ChatGPT。其推理能力的强大就不多说了,留给大家自行探索。

相关文章:

  • 【钱包】【WEB3】【Flutter】一组助记词如何推导多个账号钱包
  • Unity 淡入淡出
  • agent和android怎么结合:健康助手,旅游助手,学习助手
  • 【插入排序】Insert_Sort
  • 电机控制::软件架构::微型软件架构
  • 基于开源Odoo、SKF Phoenix API与IMAX-8数采网关的圆织机设备智慧运维实施方案 ——以某纺织集团圆织机设备管理场景为例
  • I²C简介
  • OSPF协议五种网络类型中DR和BDR选举说明
  • Linux内核实时机制4 - 实时改造优化 - PREEMPT_RT方案
  • Linux学习笔记之深入理解进程调度
  • 3、cadence从零开始让一个VCO起振——如何调频
  • 复现log4j2的jndi注入成功反弹shell
  • SQL进阶技巧:如何统计用户跨端消费行为?
  • (leetcode 1749 前缀和)1749. 任意子数组和的绝对值的最大值
  • 【嵌入式Linux应用开发基础】进程实战开发
  • 华为固态电池引发的思索
  • 2.18寒假
  • 06:高级命令
  • DeepSeek驱动下的数据仓库范式转移:技术解耦、认知重构与治理演进
  • 解析JUC包底层源码实现
  • 卢正已任上海市司法局党委委员、副局长
  • 中铁房地产24.7亿元竞得上海松江新城宅地,溢价率20.42%
  • 山东14家城商行中,仅剩枣庄银行年营业收入不足10亿
  • 比特币价格时隔三个月再度站上10万美元
  • 人民日报整版调查:中小学春秋假,如何放得好推得开?
  • “救护车”转运病人半路加价,从宝鸡到西安往返都要多收钱