当前位置: 首页 > news >正文

ollama部署deepseek实操记录

1. 安装 ollama

1.1 下载并安装

官网 https://ollama.com/

Linux安装命令  https://ollama.com/download/linux


curl -fsSL https://ollama.com/install.sh | sh

安装成功截图

3. 开放外网访问

1、首先停止ollama服务:systemctl stop ollama
2、修改ollama的service文件:/etc/systemd/system/ollama.service
在[Service]下边增加一行:Environment="OLLAMA_HOST=0.0.0.0:8080",端口根据实际情况修改
3、重载daemon文件 systemctl daemon-reload
4、启动ollama服务 systemctl start ollama

Ollama在windows环境中如何支持通过IP来访问接口
1、首先停止ollama服务的允许。由于windows下安装的ollama不是一个标准的windows service,所以只能直接杀掉两个ollama进程。
2、为当前windows系统添加环境变量:电脑-属性-高级系统设置-环境变量
变量:OLLAMA_HOST,值:0.0.0.0:11434
3、关掉已打开的命令行窗口,打开新命令行,用ollama serve或者ollama start来启动ollama服务,此时ollama服务在启动时将读取环境变量中的OLLAMA_HOST,支持IP端口访问

4. 修改模型存储位置

Windows环境

环境变量-系统变量-新建

变量名:OLLAMA_MODELS

变量值:D:\Ollama

Linux环境默认存储路径为: /usr/share/ollama/.ollama/models


假如我要将下载存储路径修改为 /data/ollama

#步骤一:创建目录 sudo mkdir /data/ollama
 
#步骤二:将目标路径的所属用户和组改为root
sudo chown -R ollama:ollama /data/ollama
 
#步骤三:将其文件权限更换为777
sudo chmod -R 777 /data/ollama
 
#步骤四:打开ollama.service文件
sudo vi /etc/systemd/system/ollama.service
 
#步骤五:进行修改并添加环境(注意路径要改成自己设置的, 其它的默认, 此处仅添加了 Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434")
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/hum/.local/bin:/home/hum/anaconda3/bin:/home/hum/anaconda3/condabin:/home/hum/anaconda3/bin:/usr/local/sbin:/usr/local/bi
n:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_MODELS=/data/ollama"
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target

#步骤六:

重载daemon文件 sudo systemctl daemon-reload
启动ollama服务 sudo systemctl start ollama

2. 部署deepseek模型   deepseek-r1:1.5b

 ollama run deepseek-r1:1.5b

显得比较弱

3. 本地部署 chatbox 接入 ollama

Chatbox AI: Your AI Copilot, Best AI Client on any device, Free Download

4. 使用

5. 后台进程将其它几个版本下载下来

cd /data/ollama

nohup ollama pull deepseek-r1:671b > d0.log 2>&1 &



nohup ollama pull deepseek-r1:14b > d14.log 2>&1 &



nohup ollama pull deepseek-r1:32b > d32.log 2>&1 &


nohup ollama pull deepseek-r1:70b > d70.log 2>&1 &

相关文章:

  • 设备智能AI语音交互,ESP32-S3芯片方案应用,物联网无线联动控制
  • Next.js【详解】CSS 样式方案
  • C#搜索算法大冒险:在数据海洋里找宝藏
  • 什么是神经网络?
  • Docker 镜像标签使用
  • ICRA-2025 | 具身导航如何跨越地形障碍?SARO:通过视觉语言模型实现地形穿越
  • Debian系发行版通用软件彻底卸载指南
  • 游戏引擎学习第102天
  • C语言——排序(冒泡,选择,插入)
  • leetcode18-四数之和
  • 百度舆情优化:百度下拉框中的负面如何清除?
  • Golang学习历程【第七篇 闭包type defer panic recover了解time包】
  • Redis中的某一热点数据缓存过期了,此时有大量请求访问怎么办?
  • Docker 镜像的构建与管理(二)
  • 比亚迪“璇玑架构”和特斯拉FSD的比较
  • 第一章:Matlab 基础入门
  • Spring Boot整合DeepSeek实现AI对话
  • python-leetcode 25.环形链表
  • 番外03:前端面试八股文-javaScript
  • 服务器防护(ubuntu)
  • 海外考古大家访谈|斯文特·帕波:人类进化遗传学的奠基者
  • 新华社评论员:在推进中国式现代化的宽广舞台上绽放青春光彩
  • 思政课也精彩,“少年修齐讲堂”开讲《我的中国“芯”》
  • 女冰队长于柏巍,拒绝被年龄定义
  • 北京亦庄启动青年人才创新创业生态示范区
  • 国台办:台商台企有信心与国家一起打赢这场关税战