openEuler2403安装Ollama
文章目录
- openEuler2403安装Ollama
- 一、前言
- 1.简介
- 2.环境
- 二、正文
- 1.环境准备
- 1)硬件配置
- 2)防火墙
- 2.安装Ollama
- 3.模型
- 4.设置
- 5.常用指令
openEuler2403安装Ollama
一、前言
1.简介
Ollama 是一个开源的本地大模型运行工具,支持一键下载、运行和管理多种开源大语言模型(如 Llama、Qwen、Mistral 等),无需复杂配置即可在本地进行交互式对话或 API 调用。
2.环境
Linux 发行版:openEuler-24.03-LTS-SP2-x86_64-dvd.iso
Ollama 版本:0.12.0
Ollama 官网:https://ollama.com/
Ollama 下载:https://ollama.com/download/linux
Ollama 模型:https://ollama.com/search
虾壳 Github 下载加速:https://xiake.pro/
openEuler常用操作指令:https://blog.csdn.net/u011424614/article/details/150942929
openEuler中LVM调整实现home与root分区空间平衡:https://blog.csdn.net/u011424614/article/details/150961763
VirtualBox安装openEuler24.03:https://blog.csdn.net/u011424614/article/details/150725588
VMware安装openEuler24.03:https://blog.csdn.net/u011424614/article/details/150723134
二、正文
1.环境准备
1)硬件配置
- CPU >= 16 Core
- RAM >= 16 GiB
2)防火墙
- 可禁用防火墙,或配置开放的端口,后者比较安全
# 关闭防火墙
systemctl stop firewalld.service
# 开机禁用防火墙
systemctl disable firewalld.service
# 防火墙状态
systemctl status firewalld.service
2.安装Ollama
- Ollama 下载页面:https://ollama.com/download/linux
- 执行命令
# 执行官网安装脚本(非常慢)
curl -fsSL https://ollama.com/install.sh | sh# 国内加速
# 虾壳 Github 下载加速:https://xiake.pro/
# 替换加速站:https://ghproxy.cn
# 提示出错或失败,多安装几次
export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download"
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|$OLLAMA_MIRROR|g" | sh
- API 接口:127.0.0.1:11434
3.模型
- Ollama 模型:https://ollama.com/search
4.设置
- 允许其它设备访问
tee > /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin" "OLLAMA_HOST=0.0.0.0:11434"[Install]
WantedBy=default.target
EOF
- 重启服务
systemctl daemon-reload
systemctl restart ollama
systemctl status ollama
journalctl -u ollama -f
5.常用指令
- systemd 服务管理
操作 | 命令 | 说明 |
---|---|---|
启动服务 | systemctl start ollama | 启动 Ollama 服务 |
停止服务 | systemctl stop ollama | 停止服务(释放端口和资源) |
重启服务 | systemctl restart ollama | 重新加载配置或更新后使用 |
查看状态 | systemctl status ollama | 检查运行状态和日志摘要 |
启用开机自启 | systemctl enable ollama | 设置服务随系统启动 |
禁用开机自启 | systemctl disable ollama | 取消开机自启 |
查看完整日志 | journalctl -u ollama -f | 实时跟踪日志(-f 为持续输出) |
自定义配置 | 编辑 /etc/systemd/system/ollama.service | 修改监听IP、端口等参数 |
重载配置 | systemctl daemon-reload | 修改服务文件后必须执行 |
- Ollama 指令
指令 | 作用 | 示例 |
---|---|---|
ollama pull <模型名> | 下载指定模型(支持标签如 :8b , :latest ) | ollama pull qwen3:8b |
ollama run <模型名> | 启动交互式对话(自动下载未安装的模型) | ollama run qwen3:8b |
ollama list | 列出本地已下载的模型 | ollama list |
ollama rm <模型名> | 删除本地模型 | ollama rm qwen3:8b |
ollama serve | 启动本地API服务(默认端口11434) | ollama serve |
ollama create <自定义名> | 基于Modelfile创建自定义模型 | ollama create my-llama -f ./Modelfile |
ollama show <模型名> | 显示模型详细信息(参数、模板等) | ollama show qwen3:8b |
ollama ps | 查看正在运行的模型进程 | ollama ps |
ollama logs | 输出模型运行日志(调试用) | ollama logs --follow |
- 例如:安装并运行
qwen3:8b
ollama run qwen3:8b