Linux 上 Ollama 部署为系统服务
在 Linux 上将 Ollama 部署为系统服务
本文档介绍了如何在 Linux 系统上将 Ollama 部署为一个后台服务(systemd 服务),并配置相关环境变量,以确保其稳定运行。文档中使用的用户名为 test
,请根据实际情况替换为你自己的用户。
📁 目录
- 创建 systemd 服务文件
- 服务管理命令
- 配置环境变量
- 验证部署
创建 systemd 服务文件
使用 sudo
编辑器创建一个新的 systemd 服务文件:
sudo vi /etc/systemd/system/ollama.service
将以下内容粘贴到该文件中(请根据你的实际路径进行调整):
[Unit]
Description=Ollama LLM Server
After=network.target[Service]
Type=simple
User=test
ExecStart=/home/test/ai/ollama/bin/ollama serve
Restart=on-failure
RestartSec=5
Environment=PATH=/usr/local/bin:/usr/bin:/bin:/home/test/ai/ollama/bin[Install]
WantedBy=multi-user.target
说明:
User=test
表示以test
用户身份运行服务。ExecStart
使用的是 Ollama 的绝对路径,请确保路径正确。Environment
设置了 PATH,确保系统能找到 Ollama 可执行文件。Restart=on-failure
表示如果服务崩溃,会自动重启。
保存并退出编辑器。
编辑文件以后,使用 systemctl daemon-reload 生效以上文件
服务管理命令
启动、停止和查看 Ollama 服务状态的常用命令如下:
# 启动服务
sudo systemctl start ollama.service# 停止服务
sudo systemctl stop ollama.service# 查看服务状态
sudo systemctl status ollama.service# 设置开机自启
sudo systemctl enable ollama.service# 取消开机自启
sudo systemctl disable ollama.service
配置环境变量
为了方便使用 Ollama 命令,并设置模型存储路径等参数,建议在用户主目录下的 .bashrc
文件中添加以下环境变量:
vi ~/.bashrc
添加如下内容:
# 将 Ollama 添加到 PATH
export PATH=$PATH:/home/test/ai/ollama/bin# 允许跨域请求(用于 API 调用)
export OLLAMA_ORIGINS=*# 自定义模型存储路径
export OLLAMA_MODELS=/opt/app/test/ollamamodels# 设置监听地址和端口
export OLLAMA_HOST=0.0.0.0:11434
保存后立即生效:
source ~/.bashrc
验证部署
1. 启动服务
sudo systemctl start ollama.service
2. 查看服务状态
sudo systemctl status ollama.service
你应该看到类似以下输出,表示服务正在运行:
● ollama.service - Ollama LLM ServerLoaded: loaded (/etc/systemd/system/ollama.service; disabled; vendor preset: enabled)Active: active (running) since ...
3. 测试访问
你可以通过浏览器或 curl
命令测试是否能访问 Ollama 的 API 接口:
curl http://localhost:11434/api/tags
你应该得到一个 JSON 格式的模型列表响应。
✅ 总结
至此,你已经成功地将 Ollama 部署为一个系统服务,并配置了必要的环境变量。现在你可以:
- 通过
systemctl
控制服务启停; - 在任意位置调用
ollama
命令; - 指定模型存储路径;
- 支持远程访问 API。
如需进一步优化,可以结合 Nginx 或 Traefik 进行反向代理,实现 HTTPS 访问等高级功能。
如需帮助或反馈问题,请联系管理员或参考 Ollama 官方文档。