当前位置: 首页 > news >正文

Linux 上 Ollama 部署为系统服务

在 Linux 上将 Ollama 部署为系统服务

本文档介绍了如何在 Linux 系统上将 Ollama 部署为一个后台服务(systemd 服务),并配置相关环境变量,以确保其稳定运行。文档中使用的用户名为 test,请根据实际情况替换为你自己的用户。


📁 目录

  1. 创建 systemd 服务文件
  2. 服务管理命令
  3. 配置环境变量
  4. 验证部署

创建 systemd 服务文件

使用 sudo 编辑器创建一个新的 systemd 服务文件:

sudo vi /etc/systemd/system/ollama.service

将以下内容粘贴到该文件中(请根据你的实际路径进行调整):

[Unit]
Description=Ollama LLM Server
After=network.target[Service]
Type=simple
User=test
ExecStart=/home/test/ai/ollama/bin/ollama serve
Restart=on-failure
RestartSec=5
Environment=PATH=/usr/local/bin:/usr/bin:/bin:/home/test/ai/ollama/bin[Install]
WantedBy=multi-user.target

说明:

  • User=test 表示以 test 用户身份运行服务。
  • ExecStart 使用的是 Ollama 的绝对路径,请确保路径正确。
  • Environment 设置了 PATH,确保系统能找到 Ollama 可执行文件。
  • Restart=on-failure 表示如果服务崩溃,会自动重启。

保存并退出编辑器。


编辑文件以后,使用 systemctl daemon-reload 生效以上文件

服务管理命令

启动、停止和查看 Ollama 服务状态的常用命令如下:

# 启动服务
sudo systemctl start ollama.service# 停止服务
sudo systemctl stop ollama.service# 查看服务状态
sudo systemctl status ollama.service# 设置开机自启
sudo systemctl enable ollama.service# 取消开机自启
sudo systemctl disable ollama.service

配置环境变量

为了方便使用 Ollama 命令,并设置模型存储路径等参数,建议在用户主目录下的 .bashrc 文件中添加以下环境变量:

vi ~/.bashrc

添加如下内容:

# 将 Ollama 添加到 PATH
export PATH=$PATH:/home/test/ai/ollama/bin# 允许跨域请求(用于 API 调用)
export OLLAMA_ORIGINS=*# 自定义模型存储路径
export OLLAMA_MODELS=/opt/app/test/ollamamodels# 设置监听地址和端口
export OLLAMA_HOST=0.0.0.0:11434

保存后立即生效:

source ~/.bashrc

验证部署

1. 启动服务

sudo systemctl start ollama.service

2. 查看服务状态

sudo systemctl status ollama.service

你应该看到类似以下输出,表示服务正在运行:

● ollama.service - Ollama LLM ServerLoaded: loaded (/etc/systemd/system/ollama.service; disabled; vendor preset: enabled)Active: active (running) since ...

3. 测试访问

你可以通过浏览器或 curl 命令测试是否能访问 Ollama 的 API 接口:

curl http://localhost:11434/api/tags

你应该得到一个 JSON 格式的模型列表响应。


✅ 总结

至此,你已经成功地将 Ollama 部署为一个系统服务,并配置了必要的环境变量。现在你可以:

  • 通过 systemctl 控制服务启停;
  • 在任意位置调用 ollama 命令;
  • 指定模型存储路径;
  • 支持远程访问 API。

如需进一步优化,可以结合 Nginx 或 Traefik 进行反向代理,实现 HTTPS 访问等高级功能。


如需帮助或反馈问题,请联系管理员或参考 Ollama 官方文档。

相关文章:

  • 飞算JavaAI编程助手在IDEA中的安装教程:本地安装、离线安装、在线安装方法大全
  • 【Redis】Redis核心探秘:数据类型的编码实现与高速访问之道
  • 114. 二叉树展开为链表 --- 头插法(js)
  • SQL关键字三分钟入门: 表结构管理与分区设计。(ALTER、MODIFY、CHANGE、DEFAULT、VALUES、LESS THAN、RANGE)
  • 湖北理元理律师事务所:法律框架下的债务优化与生活重建双轨支持
  • 量子级网络通信系统:超维架构下的开发与星际级交互实现,突破传统边界的异构网络通信矩阵系统设计
  • Telerik生态整合:Kendo UI for Angular组件在WinForms应用中的深度嵌入(二)
  • 【算力网络】算网安全
  • 工程师生活:清除电热水壶(锅)水垢方法
  • 记一次jdk版本引起的生产问题
  • 详解鸿蒙Next仓颉开发语言中的全屏模式
  • 【技巧】使用frpc安全地内网穿透ssh访问内网机器
  • AWS数据库迁移实战:本地MySQL零停机上云方案
  • DL___线性神经网络
  • 处理器特性有哪些?
  • 【HarmonyOS Next之旅】DevEco Studio使用指南(三十五) -> 配置构建(二)
  • C语言笔记(鹏哥)上课板书+课件汇总(KMP算法的动态规划简易处理+字符函数和字符串函数)
  • 【C++特殊工具与技术】联合:节省空间的类
  • QT6与VS下实现没有CMD窗口的C++控制台程序
  • vue3-ts-qrcode :安装及使用记录 / 配置项 / 效果展示
  • wordpress4.8优化/seo和sem的区别是什么
  • 如何用ps做网站导航/今日新闻快讯10条
  • 0基础网站建设教程/接外包网站
  • 给金融的做网站 犯法吗/寻找客户资源的网站
  • 网站悬浮窗口/怎么推广软件让别人下载
  • 石家庄网站制作哪家好/怎么自己开网站