当前位置: 首页 > news >正文

linux安装ollama

俩种方式都可


一、linux通过docker安装ollama镜像

1.下载安装ollama镜像

# 安装 Docker
sudo yum install docker
sudo systemctl start docker

#docker查看所有容器
docker ps -a  # 查看所有容器

# docker查看指定容器
docker ps -a |grep ollama

# 创建模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chmod -R 777 /data/ollama_models  # 确保容器有写入权限

# 启动容器并挂载目录
docker run -d \
  --name ollama \
  -v /data/ollama_models:/root/.ollama \  # 将主机目录挂载到容器内
  -p 11434:11434 \
  ollama/ollama

#修改默认模型存储路径
如果不想挂载 /root/.ollama,可通过环境变量指定其他路径:
docker run -d \
  --name ollama \
  -v /custom/models:/data/ollama_models \  # 自定义挂载点
  -e OLLAMA_MODELS=/data/ollama_models \   # 指定容器内路径
  -p 11434:11434 \
  ollama/ollama


# 停止容器
docker stop ollama

# 启动
docker start ollama

# 重启动
docker restart ollama

#如果ollama正在运行并且不需要ollama了,删除
docker stop ollama && docker rm ollama

2.检查目录挂载 (-v) 是否生效 

#检查目录挂载 (-v) 是否生效
方法 1:使用 docker inspect 查看挂载信息
docker inspect ollama | grep -A 5 Mounts

方法2:
# 进入容器内部
docker exec -it ollama bash

# 查看目录是否存在
ls -l /data/ollama_models

# 尝试创建测试文件(验证写入权限)
touch /data/ollama_models/test.txt
exit

# 返回主机检查文件是否同步
ls -l /custom/models/test.txt

3. 检查环境变量 (-e) 是否生效

方法 1:使用 docker inspect 查看环境变量
docker inspect ollama | grep -A 10 Env
预期输出
"Env": [
    "OLLAMA_MODELS=/data/ollama_models",
    "PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
]




方法 2:在容器内打印环境变量
docker exec -it ollama sh -c 'echo $OLLAMA_MODELS'
预期输出/data/ollama_models

4.下载大模型

进入容器内操作或直接通过 REST API 下载模型:

方法 1:进入容器内操作  

大模型占用内存一般较高,最好查一下电脑配置是否能带动大模型

docker exec -it ollama ollama pull llama2  # 下载 llama2 模型

模型会自动保存到挂载的目录 /data/ollama_models

方法 2:通过主机直接调用
curl -X POST http://localhost:11434/api/pull -d '{"name": "llama2"}'

5. 验证模型下载

# 查看已下载模型
docker exec -it ollama ollama list

# 检查主机目录内容
ls /data/ollama_models/models

6. 运行模型

# 在容器内交互式运行
docker exec -it ollama ollama run llama2

# 通过 API 调用
curl http://localhost:11434/api/generate -d '{"model": "llama2", "prompt": "你好"}'

二、linux本地安装ollama

1. 下载并安装 Ollama

# 下载 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 启动 Ollama 服务
sudo systemctl enable ollama
sudo systemctl start ollama

#停止ollama服务
sudo systemctl stop ollama

2. 设置环境变量指定模型目录

默认情况下,Ollama 会将模型存储在 ~/.ollama 目录。要更改此位置:

# 创建新的模型存储目录(例如 /data/ollama_models)
sudo mkdir -p /data/ollama_models
sudo chown -R $USER:$USER /data/ollama_models

# 设置环境变量(临时生效)
export OLLAMA_MODELS=/data/ollama_models

# 使环境变量永久生效
echo "export OLLAMA_MODELS=/data/ollama_models" >> ~/.bashrc
source ~/.bashrc

3. 重启 Ollama 服务使更改生效

sudo systemctl restart ollama

4. 验证安装并下载模型

# 检查服务状态
systemctl status ollama

# 下载模型(会自动保存到指定目录)
ollama pull llama2

# 运行模型
ollama run llama2

5. (可选) 修改 systemd 服务文件永久设置

如果通过环境变量不生效,可以修改服务文件:

sudo vi /etc/systemd/system/ollama.service
在 [Service] 部分添加:

Environment="OLLAMA_MODELS=/data/ollama_models"
然后重新加载并重启服务:

sudo systemctl daemon-reload
sudo systemctl restart ollama

6.查看ollama日志
 

1. 查看详细日志
首先获取更详细的错误信息:

sudo journalctl -u ollama -n 50 --no-pager
或直接运行 Ollama 查看输出:

sudo /usr/local/bin/ollama serve

7. 检查 ollama 用户是否存在

运行以下命令检查用户和组是否已创建:

id ollama  # 检查用户是否存在
grep ollama /etc/group  # 检查用户组是否存在

如果不存在,可以手动创建:
sudo useradd -r -s /bin/false ollama  # 创建系统用户(无登录权限)

注意事项:

    1. 确保指定的目录有足够的存储空间

    2. 目录权限要正确,Ollama 进程需要有读写权限

    3. 不同版本的 Ollama 可能有不同的配置方式

相关文章:

  • 【湖南大学】2025我们该如何看待DeepSeek
  • 【KNN算法详解(用法,优缺点,适用场景)及应用】-CSDN博客
  • 基于springboot体育俱乐部预约管理系统(源码+lw+部署文档+讲解),源码可白嫖!
  • C++的多态 - 下
  • 架构思维: 数据一致性的两种场景深度解读
  • MySQL SQL 优化的10个关键方向
  • 时间复杂度和空间复杂度
  • JGraphT 在 Spring Boot 中的应用实践
  • JavaScript之Json数据格式
  • git 本地创建了版本 怎么推送到远端
  • 代理模式的优缺点是什么?
  • SpringMVC的简单介绍
  • JAVA刷题记录: 专题四 前缀和
  • Swift 解 LeetCode 250:搞懂同值子树,用递归写出权限系统检查器
  • 什么是大型语言模型(LLM)?哪个大模型更好用?
  • 力扣316去除重复字母-单调栈
  • python 3.9 随机生成 以UTF-8 编码 的随机中文
  • 基于大模型的GCSE预测与治疗优化系统技术方案
  • Ubuntu中MATLAB启动图标设置
  • Opencv计算机视觉编程攻略-第十一节 三维重建
  • 山西做网站/seo课程培训要多少钱
  • 日文网站建设/网络黄页推广软件
  • 嘉兴外贸网站制作/郑州网络营销公司哪家好
  • 高端网站建设设计公司排名/百度指数网址是什么
  • 网络游戏名/seo收费标准多少
  • 专门做外贸的网站/推广app大全