当前位置: 首页 > news >正文

DeepSeek本地化部署【window下安装】【linux下安装】

一、window 本地安装指导

1.1、下载window安装包

https://ollama.com/download/OllamaSetup.exe

1.2、点击下载好的安装包进行安装

检测安装是否成功:

C:\Users\admin>ollama -v
ollama version is 0.5.7

有上面的输出,则证明已经安装成功。

配置系统的环境变量

# 配置ollama监听网址,这里表示监听所有网卡
OLLAMA_HOST=0.0.0.0:11434
# 下载的大模型存放路径
OLLAMA_MODELS=F:\ollama_model

这里最后重启下电脑,使得设置的环境变量生效。

1.3、运行需要的大模型

在ollama官网搜索,deepseek,这里选择deepseek-coder来进行部署

在这里插入图片描述

并且选择1.3b参数的模型进行部署(资源有限,先保证能用)。

运行命令为:

ollama run deepseek-coder

二、linux本地安装指导

ollama api使用指南:

https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/1.%20Ollama%20API%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.md

2.1、下载安装ollama

1、安装ollama模型

curl -fsSL https://ollama.com/install.sh | sh

修改

/etc/systemd/system/ollama.service

添加上环境变量即可

OLLAMA_HOST=0.0.0.0:11434

重新启动ollama服务

sudo systemctl daemon-reload
sudo systemctl restart ollama

2.2、下载模型

ollama run deepseek-r1:1.5b

2.3、测试模型

curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:1.5b",
  "prompt": "你是一个高级运维工程师。你的职责",
  "stream": false
}'


curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-coder:latest",
  "messages": [
    {
      "role": "user",
      "content": "为什么草是绿的?"
    }
  ],
  "stream": false
}'



curl http://localhost:11434/v1/chat/completions -d '{
    "model": "deepseek-coder:latest",
  "messages": [
    {
      "role": "user",
      "content": "使用java实现一个冒泡排序算法"
    }
  ],
  "stream": false
}'

三、IDEA接入私有化部署的Deepseek大模型

安装CodeGPT插件

3.1、在插件市场搜索CodeGPT,并进行安装。

在这里插入图片描述

3.2、配置codeGPT

在这里插入图片描述

安装上述图片描述进行配置。

其中URL:部署Deepseek的服务器的IP地址和端口

请求体中model参数是你安装那个deepseek大模型的名称。可以通过ollama list来列出已经安装的大模型。

[root@iZbp156z1grx9j03c0zl8tZ ~]# ollama list
NAME                     ID              SIZE      MODIFIED
deepseek-coder:latest    3ddd2d3fc8d2    776 MB    About an hour ago

如果通过ollama安装了多个大模型,你可以指定其他大模型,但是名称要跟使用上面命令列出的模型名称保持一致。

指定刚刚配置的模型为我们的编码助手。

在这里插入图片描述

3.3、测试功能是否可用

在这里插入图片描述

经过测试,发现已经可以通过codeGPT插件调用Deepseek的大模型了。

四、Deepseek本地部署的大模型API调用

可以参考下面的文档进行使用

ollama api使用指南:

https://github.com/datawhalechina/handy-ollama/blob/main/docs/C4/1.%20Ollama%20API%20%E4%BD%BF%E7%94%A8%E6%8C%87%E5%8D%97.md

此外,ollama 还支持通过openAI格式的接口调用,

如对话接口:

http://8.136.125.228:11434/v1/chat/completions

在这里插入图片描述

相关文章:

  • 如何使用DeepSeek学习新技能?
  • Redis 数据类型 List 列表
  • 消息队列之-RabbitMq 学习
  • 无人机遥感图像拼接及处理实践技术:生态环境监测、农业、林业等领域,结合图像拼接与处理技术,能够帮助我们更高效地进行地表空间要素的动态监测与分析
  • MySQL 篇 - Java 连接 MySQL 数据库并实现数据交互
  • 【观测先锋·制造业卓越可观测建设案例】 中顺洁柔—基于Bonree ONE实现AI大模型高级一体化可观测运维监控解决方案
  • QT设备树,具有设备树过滤功能
  • 什么是计算机中的 “终端”?
  • LeetCode《算法通关手册》 1.2 数组排序
  • 基于springboot+vue的考研学习分享平台设计与实现
  • 最新华为 HCIP-Datacom(H12-821)
  • Cisco Fabric Manager 5.0:统一数据的可见性和控制
  • 文心一言与gpt,核心原理对比
  • Python项目31:待办事项列表应用1.0(命令行界面+Json+类+初学者必做)
  • 基于Odoo的数据中台建设:助力企业数据驱动决策
  • CentOS-Stream 9更换RT实时内核
  • 代码aaa
  • 【Unity】搭建泛型事件框架,可广泛应用于中小型的游戏项目!!!
  • STM32启动过程概述
  • TCP/IP 四层模型数据的封装过程
  • 查幽门螺杆菌的这款同位素长期被海外垄断,秦山核电站实现突破
  • 征稿启事|澎湃·镜相第三届非虚构写作大赛暨2026第六届七猫现实题材征文大赛
  • 现场丨在胡适施蛰存等手札与文献间,再看百年光华
  • 透视社会组织创新实践中的花开岭现象:与乡村发展的融合共进
  • 体坛联播|博洛尼亚时隔51年再夺意杯,皇马逆转马洛卡
  • 国际能源署:全球电动汽车市场强劲增长,中国市场继续领跑