当前位置: 首页 > news >正文

使用Ollama本地部署DeepSeek

以下是几种DeepSeek本地部署更详细的步骤:

Ollama+Chatbox部署法

安装Ollama

访问官网:

打开浏览器,前往Ollama官方网站。页面如下:

下载安装包:

  • 在官网页面,依据电脑操作系统类型,如Windows、MacOS或Linux,选择对应的安装包进行下载。

点击下面的按钮,这里选择自己的电脑的版本,我这里是windows的

之后就会进行下载了。

当然,如果官网下载比较慢的话,可以通过百度网盘获取

链接: https://pan.baidu.com/s/1970Py8uuLmCLWMozRV0UJw?pwd=chuv 提取码: chuv

安装Ollama:

下载完成后,双击安装包启动安装程序。按照安装向导的提示逐步完成安装。

验证安装:

打开电脑的命令提示符(CMD)或终端,输入“ollama help”并按下回车键。若软件安装成功,将不会显示任何错误信息。

下载DeepSeek模型

  • 访问Ollama官网模型页面:再次回到Ollama官网。https://ollama.com/search

  • 搜索Deepseek-r1:在网页上方的搜索框中输入“Deepseek-r1”进行搜索。

  • 选择模型规模:点击搜索结果中的Deepseek-r1进入详情界面,根据电脑的硬件配置,参考模型大小配置参考表格,选择合适的模型规模,范围从1.5b到671b。

这里的 “1.5b”“7b” 等中的 “b” 通常代表 “billion”(十亿),指的是模型的参数数量。

参数数量是衡量语言模型规模的一个重要指标,参数越多,模型通常能够学习和表示更复杂的知识和语言模式,但同时对计算资源的需求也更高。以下是不同参数规模对应可能的电脑配置(仅供参考,实际可能因具体应用场景等有所不同):

模型参数规模CPUGPU内存存储
1.5b多核高性能 CPU(如 Intel Core i7 及以上或 AMD Ryzen 7 及以上)显存 4GB 及以上的中低端 GPU(如 NVIDIA GeForce GTX 1050Ti 等)16GB 及以上50GB 及以上
7b多核高性能 CPU(如 Intel Xeon 系列或 AMD EPYC 系列等)显存 8GB 及以上的中高端 GPU(如 NVIDIA GeForce RTX 2070 等)32GB 及以上100GB 及以上
8b多核高性能 CPU(如 Intel Xeon 系列或 AMD EPYC 系列等)显存 8 - 12GB 的中高端 GPU(如 NVIDIA GeForce RTX 3070 等)32GB 及以上100GB 及以上
14b多核高性能 CPU(如 Intel Xeon Platinum 系列或 AMD EPYC 7000 系列等)显存 16GB 及以上的高端 GPU(如 NVIDIA A10 等)64GB 及以上200GB 及以上
32b多核高性能 CPU(如 Intel Xeon Platinum 系列或 AMD EPYC 7000 系列等)显存 32GB 及以上的高端 GPU(如 NVIDIA A100 等)128GB 及以上500GB 及以上
70b多核高性能 CPU(如 Intel Xeon Platinum 系列或 AMD EPYC 7000 系列等)多块显存 32GB 及以上的高端 GPU(如多块 NVIDIA A100 等)256GB 及以上1TB 及以上
671b超级计算机级别的 CPU 集群大规模 GPU 集群(如多组 NVIDIA A100 组成的集群)TB 级数 TB 及以上
  • 复制下载命令:在选定的模型规模右侧,复制页面提供的下载命令。

  • 下载模型:回到命令提示符窗口或终端,将刚刚复制的命令粘贴到窗口中,然后按下回车键,模型便会开始下载。

在windows搜索命令提示符,

然后执行刚刚复制的:ollama run deepseek-r1:1.5b

等待下载完成即可。

之后就可以进行提问了

配置可视化图文交互界面Chatbox

  • 访问Chatbox官网:打开浏览器,访问Chatbox官方网站。

  • 选择使用方式:Chatbox提供本地客户端和网页版两种使用方式,可按需选择。

不过我们还是选择下载到本地的方式,放在桌面方便我们的使用。

下载成功之后,双击进行安装

选择安装路径,这里忘记截图了。

下一步之后,就安装完成了,点击完成即可。

如果下载比较慢的话,可以从百度链接获取

通过网盘分享的文件:Chatbox-1.9.1-Setup.exe

链接: https://pan.baidu.com/s/1ldrrMsjHiY_GHilkzMdOIw?pwd=4db4 提取码: 4db4

  • 选择模型提供方:在Chatbox中,点击“使用自己的API Key或本地模型”,进入模型提供方选择界面后,选择“Ollama API”。

  • 配置Ollama远程链接:根据Chatbox提供的教程进行配置,对于Windows操作系统,通常需要配置环境变量并重启Ollama程序。

  • 选择DeepSeek模型:重启Ollama程序后,关闭并重新打开Chatbox设置界面,在设置界面中选择DeepSeek模型,然后点击保存。

  • 新建对话并使用模型:在Chatbox中新建对话,即可开始使用DeepSeek模型。

写在最后

最后:我是Walker,一个热爱分享编程知识的程序员,希望能够帮助到你!

相关文章:

  • 中国在 AI 上超越美国,需要另辟蹊径
  • LeetCode hot 100—最小栈
  • Android第三次面试总结(网络篇)
  • 线性回归与投影的关系
  • SpringBoot + Mybatis Plus 整合 Redis
  • 文本检测-文本内容审核-文本过滤接口如何用PHP调用?
  • 大华HTTP协议在智联视频超融合平台中的接入方法
  • 每日一题---翻转二叉树
  • 软件项目设计思维:从用户痛点到数字世界的优雅解构
  • 黑马商城完成随笔
  • 文心大模型4.5及X1重磅上线,真实测评
  • svg画图
  • MySQL复合查询
  • RocketMQ学习
  • 二次型 → 矩阵的正定性 → 特征值
  • 详解软件设计原则
  • python调用百度人脸识别接口
  • 第十一次CCF-CSP认证(含C++源码)
  • TensorFlow 基本原理与使用场景
  • 【SpringBatch】01简单入门
  • 美国务卿鲁比奥将前往土耳其参加俄乌会谈
  • 夜读|尊重生命的棱角
  • 国家林草局原党组成员、副局长李春良接受审查调查
  • 真人秀《幸存者》百万美元奖金,25年间“缩水”近一半
  • 旭辉控股集团主席林中:债务重组是活下来的前提,自营开发业务收缩至少数核心城市
  • 科创板年内第3家!健信超导IPO获受理,拟募资8.65亿