当前位置: 首页 > news >正文

deepSeek本地部署,详细教程,Ollama安装

首先下载个ollama就能解决本地部署的问题,非常简单

1.安装2.Ollama

Ollama  官网地址

直接下载完成后,安装即可,如果下载慢,可以上个梯子

安装完成后他默认下载到c盘,需要更改查看我另外一篇教程

Ollama移动到其他盘_怎么把ollama安装到别的盘-CSDN博客

2.下载模型

验证ollama是否安装成功

ollama -v

然后打开

Ollama 官网 ,寻找合适的模型,选择deepseek-r1

然后选择模型大小规模,亲测3060显卡(电脑内存32g)能跑到14b,1650显卡电脑内存16g)能跑7b,响应速度还不错

然后模型选择方面个人认为,14b的表现比较不错,问的问题都回给你回答,并且具有比较好的思考能力,7b,8b的模型这块的效果不是很好,,然后到了32b,如果你问的话,不符合规定,deepseek思考完之后会选择给你拒绝回答,当然具体选择那个模型看个人电脑配置,以及网络环境,电脑配置比较低的建议搞个1.5b尝试一下,

选择1.5b模型,复制该命令

ollama run deepseek-r1:1.5b

打开控制台,复制进去回车键,会自动下载,并且使用模型

等下载完成后,应该会直接出现光标输入框,因为我这边已经下载过了,所以就直接运行模型了,如果下载完成后没有运行模型则继续执行该命令

ollama run deepseek-r1:1.5b

最后说一下下载网络慢的问题,首先先把梯子关了,然后如果就是说一开始下载的时候能达到3,4m或者1,2m那样,后面越下载越慢的情况就是会掉到10几kb,100多kb的时候,这个时候直接中断程序,ctrl + c 键盘组合键,然后重新执行,即可解决问题

ollama run deepseek-r1:1.5b

然后要做前端可视化的话

可以去查一下Open-WebUI,本地部署一下就可以了

如果对deepseek局域网使用感兴趣的话,可以查看我另外一篇文章

ollama开放局域网_ollama模型如何开放到内网-CSDN博客

相关文章:

  • 机器学习入门-读书摘要
  • 数据结构 树的存储和遍历
  • 一口气入门前端——HTML5入门
  • 内网穿透简单使用
  • QEMU参数与使用
  • nginx播放视频(auth_request鉴权)
  • 人工智能行为识别之slowfast源码解读
  • Linux Mem -- MTE in AArch64 Linux
  • 树莓集团全国拓展:产业园服务与人才培养的协同发展
  • 【开源项目】数字孪生武汉~超经典智慧城市CIM/BIM数字孪生可视化项目——开源工程及源码
  • DeepSeek操作Excel,实现图表自动化生成
  • 实用教程:用微服务搭建你的2025项目
  • HDFS应用-后端存储cephfs-文件存储和对象存储数据双向迁移
  • Node.js NativeAddon 构建工具:node-gyp 安装与配置完全指南
  • uni-app中常用的指令语句有哪些?
  • 获取 Windows 视频时长的正确方式——Windows Shell API 深度解析
  • vscode C/C++ CMake 调试
  • huggingface.co 网站无法访问的解决办法
  • TestHubo基础教程-创建项目
  • 如何评估云原生GenAI应用开发中的安全风险(上)
  • 专访|金七猫奖得主:以非遗为舟,在现实题材中疗愈与成长
  • 南京艺术学院博导、雕塑家尹悟铭病逝,年仅45岁
  • 《风林火山》千呼万唤始出来,戛纳首映后口碑崩盘?
  • 一箭六星,朱雀二号改进型遥二运载火箭发射成功
  • 孟夏韵评《无序的学科》丨误读与重构的文化漂流
  • 3月中国减持189亿美元美债、持仓规模降至第三,英国升至第二