当前位置: 首页 > news >正文

DeepSeek技术提升,Linux本地部署全攻略

文章目录

  • 1.Ollama部署
    • 1.1 安装Ollama
    • 1.2 配置Ollama
    • 1.3 下载deepseek模型
  • 2.安装MaxKB可视化页面
    • 2.1 下载镜像
    • 2.2 运行容器
    • 2.3 配置MaxKB
  • 3.配置Chatbox AI可视化页面

1.Ollama部署

Ollama下载地址

根据自己需求选择版本下载在这里插入图片描述

1.1 安装Ollama

  1. 下载安装脚本并执行
curl -fsSL https://ollama.com/install.sh | sh

1.2 配置Ollama

  1. 配置模型默认存储位置

可以把模型放在数据盘下

#创建目录
[root@10-60-236-43 ~]# mkdir -p /opt/ollama/models

#授予权限
[root@10-60-236-43 ~]# chown -R ollama.ollama /opt/ollama
[root@10-60-236-43 ~]# chmod 755 /opt/ollama
#修改service文件
[root@10-60-236-43 ~]# vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_MODELS=/opt/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

[Install]
WantedBy=default.target

#新增三行参数解释
Environment="OLLAMA_MODELS=/opt/ollama/models"   #模型存放得路径
Environment="OLLAMA_HOST=0.0.0.0" #表示接受来自任何网络接口的连接。
Environment="OLLAMA_ORIGINS=*"  #表示允许来自任何来源的跨域请求。

#重新加载,重启
[root@10-60-236-43 ~]# vim /etc/systemd/system/ollama.service
[root@10-60-236-43 ~]# systemctl daemon-reload ; systemctl start ollama
[root@10-60-236-43 ~]# systemctl status ollama
  1. 访问web页面

http://IP:11434/

出现Ollama is running即可
在这里插入图片描述

  1. 检查模型目录
[root@10-60-236-43 opt]# ll ollama/models/
total 0
drwxr-xr-x 2 ollama ollama 6 Feb 25 11:27 blobs
#出现blobs表示模型目录也修改成

1.3 下载deepseek模型

deepseek模型下载地址

根据自己硬件情况下载对应得模型
在这里插入图片描述

  • 模型介绍及硬件需求
模型参数特点适用场景GPU 显存需求CPU 核心数内存需求
1.5B轻量级模型,参数量少,模型规模小适用于轻量级任务,如短文本生成、基础问答等4GB(4-bit 量化)4 核8GB
7B平衡型模型,性能较好,硬件需求适中适合中等复杂度任务,如文案撰写、表格处理、统计分析等8GB(4-bit 量化)8 核16GB
8B性能略强于 7B 模型,适合更高精度需求适合需要更高精度的轻量级任务,如代码生成、逻辑推理等10GB(4-bit 量化)8 核24GB
14B高性能模型,擅长复杂任务,如数学推理、代码生成可处理复杂任务,如长文本生成、数据分析等16GB(4-bit 量化)12 核32GB
32B专业级模型,性能强大,适合高精度任务适合超大规模任务,如语言建模、大规模训练、金融预测等24GB(4-bit 量化 + 多卡)16 核64GB
70B顶级模型,性能最强,适合大规模计算和高复杂任务适合高精度专业领域任务,如多模态任务预处理48GB(4-bit 量化 + 4 卡)32 核128GB
671B超大规模模型,适用于对准确性和性能要求极高的场景适用于大型科研机构进行前沿科学研究、大型企业进行复杂的商业决策分析等无单机方案,需分布式集群256 核以上512GB+
  1. 安装模型

根据模型的大小,等待的时间不同

[root@10-60-236-43 ~]# ollama run deepseek-r1:14b
#注:我下载完这个模型之后 直接运行了 问了几个问题发现可以使用 我就退出了

在这里插入图片描述

  1. 查看模型
[root@10-60-236-43 ~]# ollama list
NAME               ID              SIZE      MODIFIED
deepseek-r1:14b    ea35dfe18182    9.0 GB    2 minutes ago
  1. 体验模型
[root@10-60-236-43 ~]# ollama run deepseek-r1:14b
>>> 你好
<think>
</think>
你好!很高兴见到你,有什么我可以帮忙的吗?
>>> /bye to exit.

2.安装MaxKB可视化页面

此步骤是创建一个web可视化页面,让所有人访问使用的,如果只是自己用在本地装个客户端即可。请看第3步

2.1 下载镜像

[root@10-60-236-43 ~]# docker pull registry.fit2cloud.com/maxkb/maxkb

2.2 运行容器

[root@10-60-236-43 ~]# docker run -d --name=maxkb --restart=always -p 8080:8080 -v /opt/maxkb/postgresql-data:/var/lib/postgresql/data -v /opt/maxkb/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
8aa309ce8fa15fc38b378815a1d4b67a3dffc41809d53d0bd251085c86b6041f

2.3 配置MaxKB

  1. 访问IP:8080端口

默认账号:admin/MaxKB@123…

  1. 添加模型
    在这里插入图片描述

  2. 选择Ollama

在这里插入图片描述

  1. 填写对应信息

在这里插入图片描述

  1. 创建应用

在这里插入图片描述
在这里插入图片描述

  1. 配置应用

在这里插入图片描述
在这里插入图片描述

  1. 测试deepseek

在这里插入图片描述

3.配置Chatbox AI可视化页面

Chatbox AI地址

  1. 根据自己情况选择
    这里我选择了Windows客户端,是中文的
    在这里插入图片描述

  2. 配置Chatbox

第一次运行会弹出框,选择配置自己的API
在这里插入图片描述

  1. 选择Ollama API

在这里插入图片描述

  1. 配置自己Ollama的地址。云主机提前放开11434

模型下拉框选择咱们下载的模型,可以通过ollama list查看
在这里插入图片描述

  1. 使用deepseek

在这里插入图片描述

成功部署

相关文章:

  • 【面试手撕】多线程/并发编程
  • 在 compare-form.vue 中添加 compareDate 隐藏字段,并在提交时自动填入当前时间
  • [OS] 基于RR(Round Robin)算法的CPU调度
  • ubuntu20.04 突破文件数限制
  • 前言:什么是大模型微调
  • 企业级大模型应用的Java-Python异构融合架构实践
  • 本地部署大模型: LM Studio、Open WebUI 与 Chatbox 全面对比以及选型指南
  • 在windows下安装windows+Ubuntu16.04双系统(上)
  • 公共数据授权运营模式研究(总体框架、主要模式及发展趋势)
  • linux下软件安装、查找、卸载
  • QT入门--QMainWindow
  • 2025年2月,TVBOX接口最新汇总版
  • C#实现本地AI聊天功能(Deepseek R1及其他模型)。
  • 五、 Spring Framework基础:Spring Data JPA基本用法与 Repository 接口
  • 在 Windows 上配置 Ollama 服务并开放局域网访问
  • Spring MVC框架二:创建第一个MVC程序
  • Redis-列表结构实操
  • labview实现有符号位16进制转二进制补码转真值
  • 数据结构与算法面试专题——桶排序
  • 前端浏览器开发中的浏览器兼容问题【持续更新】
  • 夜读丨母亲为燕子打开家门
  • 工商银行杭州金融研修院原院长蒋伟被“双开”
  • 长三角首次,在铁三赛事中感受竞技与生态的共鸣
  • 习近平复信中国丹麦商会负责人
  • 陈吉宁龚正黄莉新胡文容等在警示教育基地参观学习,出席深入贯彻中央八项规定精神学习教育交流会
  • 哪种“网红减肥法”比较靠谱?医学专家和运动专家共同解答