当前位置: 首页 > news >正文

Linux 本地部署 Deepseek-R1 大模型!

DeepSeek-R1 的发布,掀起了一场风暴!

开源、强大、本地可部署,真正私有的 AI 助手,不受网络、隐私等限制,数据安全感直接拉满!

今天,手把手带你在 Linux 上本地部署 DeepSeek-R1,关注我们,让你的 AI 彻底自主!

第一步:环境准备

必备硬件

操作系统:Ubuntu 22.04 / CentOS 7+

CPU处理器:建议 Intel i7 / AMD Ryzen 5 以上

内存:最少 16GB,推荐 32GB 以上,保证模型不卡顿

硬盘:至少 50GB SSD(模型存储+缓存)

GPU显卡:NVIDIA RTX 3090 / A100 / H100(24GB 显存更流畅)

基础软件安装:

Ubuntu / Debian 系统

update && sudo apt upgrade -ysudo apt install -y git wget curl python3 python3-venv python3-pip 

CentOS / RHEL 系统

sudo yum update -ysudo yum install -y git wget curl python3 python3-venv python3-pip 

温馨提示:

如果没有 GPU,也可以用 CPU 运行,但速度会慢很多。

第二步:安装 GPU 依赖

安装 NVIDIA 驱动

nvidia-smi  # 确保系统正确识别 NVIDIA GPU

如果没有 NVIDIA 驱动,请安装:

sudo apt install -y nvidia-driver-525
sudo reboot

安装 CUDA & cuDNN(GPU 用户必装)

wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-repo-ubuntu2204_11.8.0-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204_11.8.0-1_amd64.deb
sudo apt update
sudo apt install -y cuda

安装 cuDNN:

wget https://developer.download.nvidia.com/compute/cudnn/redist/cudnn-linux-x86_64-8.6.0.163_cuda11-archive.tar.xz
tar -xvf cudnn-linux-x86_64-8.6.0.163_cuda11-archive.tar.xz
sudo cp -P cudnn-linux-x86_64-8.6.0.163_cuda11-archive/include/* /usr/local/cuda/include/
sudo cp -P cudnn-linux-x86_64-8.6.0.163_cuda11-archive/lib/* /usr/local/cuda/lib64/

验证 CUDA 是否安装成功:

nvcc --version

第三步:安装 Ollama 管理大模型

1. 安装 Ollama

curl -fsSL https://ollama.ai/install.sh | sh

2. 检查安装是否成功

ollama help 
# 如果看到帮助信息输出,恭喜你,Ollama 安装成功! 

第四步:下载与部署 DeepSeek-R1

1. 选择合适的模型版本,下面代码中的 “1.5b” 是普通电脑能跑起来的。

ollama pull deepseek-r1:1.5b
1.5B 版本:轻量级,适合普通用户 7B 版本:兼顾性能和速度 13B 版本:高性能,适合 AI 发烧友

2. 开始运行

ollama run deepseek-r1:1.5b

成功后可能是这样

$ ollama pull deepseek-r1:1.5b
pulling manifest
pulling 6e9f90f02bb3... 100% ▕██████████████████████████▏ 9.0 GB
pulling 369ca498f347... 100% ▕██████████████████████████▏  387 B
pulling 6e4c38e1172f... 100% ▕██████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕██████████████████████████▏  148 B
pulling 3c24b0c80794... 100% ▕██████████████████████████▏  488 B
verifying sha256 digest
writing manifest
success

第五步:安装 Chatbox:方便使用

访问 Chatbox 官网 https://chatboxai.app/zh#download 下载 Linux 版本,或使用网页版。

配置 Chatbox 连接本地 DeepSeek-R1,然后开始聊天

打开 Chatbox,进入设置页面 选择 "Ollama API" 作为模型提供方 输入模型名称:deepseek-r1:1.5b

常见问题解决方案

1. 模型下载失败?

检查网络连接

关闭防火墙或检查代理设置

2. 运行卡顿?

降低模型版本(如 1.5B)

关闭其他后台进程

确保 GPU 正确启用 nvidia-smi

3. API 连接失败?

检查 Chatbox 是否正确配置 API 地址

确保 Ollama 正在运行

相关文章:

  • Oracle 深入理解Lock和Latch ,解析访问数据块全流程
  • Java集合框架(知识整理)
  • TSMaster【第四篇:目击之术——总线测量窗口精解】
  • 一文讲解Redis中的混合持久化
  • Touchgfx 编写下载算法文件(.stldr)
  • 【Alertmanager】alertmanager告警多种通知方式--企业微信告警、钉钉告警、电话和短信告警
  • 单链表相关操作(基于C语言)
  • 【Linux基础】Linux下常用的系统命令
  • 工业路由器和工业交换机,打造高效稳定的工业网络?
  • 达梦统计信息
  • 龙臻:独立电影的创新力量与国际认可
  • ArcGIS Pro中等高线的生成与应用详解
  • 【Unity】Unity clone 场景渲染的灯光贴图异位问题
  • 网页五子棋——对战后端
  • 全面指南:使用JMeter进行性能压测与性能优化(中间件压测、数据库压测、分布式集群压测、调优)
  • 学习aigc
  • 深度学习每周学习总结Y1(Yolov5 调用官方权重进行检测 )
  • 驱动开发WDK(1)-环境准备和初始程序。详细教程
  • 低概率发生调用`pthread_cond_wait`的线程没有被唤醒
  • 一种简单有效的分析qnx+android智能座舱项目中的画面闪烁的方法(8155平台)
  • 美国关税压力下,日本经济一年来首次萎缩
  • 苏轼“胡为适南海”?
  • 经济日报评外卖平台被约谈:行业竞争不能背离服务本质
  • 美国调整对华加征关税
  • 日本前卫艺术先驱群展上海:当具体派相遇古树古宅
  • 费高云不再担任安徽省人民政府副省长