当前位置: 首页 > news >正文

openEuler2403安装Ollama

文章目录

  • openEuler2403安装Ollama
  • 一、前言
    • 1.简介
    • 2.环境
  • 二、正文
    • 1.环境准备
      • 1)硬件配置
      • 2)防火墙
    • 2.安装Ollama
    • 3.模型
    • 4.设置
    • 5.常用指令

openEuler2403安装Ollama

一、前言

1.简介

Ollama 是一个开源的本地大模型运行工具,支持一键下载、运行和管理多种开源大语言模型(如 Llama、Qwen、Mistral 等),无需复杂配置即可在本地进行交互式对话或 API 调用。

2.环境

Linux 发行版:openEuler-24.03-LTS-SP2-x86_64-dvd.iso

Ollama 版本:0.12.0

Ollama 官网:https://ollama.com/

Ollama 下载:https://ollama.com/download/linux

Ollama 模型:https://ollama.com/search

虾壳 Github 下载加速:https://xiake.pro/

openEuler常用操作指令:https://blog.csdn.net/u011424614/article/details/150942929

openEuler中LVM调整实现home与root分区空间平衡:https://blog.csdn.net/u011424614/article/details/150961763

VirtualBox安装openEuler24.03:https://blog.csdn.net/u011424614/article/details/150725588

VMware安装openEuler24.03:https://blog.csdn.net/u011424614/article/details/150723134

二、正文

1.环境准备

1)硬件配置

  • CPU >= 16 Core
  • RAM >= 16 GiB

2)防火墙

  • 可禁用防火墙,或配置开放的端口,后者比较安全
# 关闭防火墙
systemctl stop firewalld.service
# 开机禁用防火墙
systemctl disable firewalld.service
# 防火墙状态
systemctl status firewalld.service

2.安装Ollama

  • Ollama 下载页面:https://ollama.com/download/linux

在这里插入图片描述

  • 执行命令
# 执行官网安装脚本(非常慢)
curl -fsSL https://ollama.com/install.sh | sh# 国内加速
# 虾壳 Github 下载加速:https://xiake.pro/
# 替换加速站:https://ghproxy.cn
# 提示出错或失败,多安装几次
export OLLAMA_MIRROR="https://ghproxy.cn/https://github.com/ollama/ollama/releases/latest/download"
curl -fsSL https://ollama.com/install.sh | sed "s|https://ollama.com/download|$OLLAMA_MIRROR|g" | sh
  • API 接口:127.0.0.1:11434

3.模型

  • Ollama 模型:https://ollama.com/search

在这里插入图片描述

4.设置

  • 允许其它设备访问
tee > /etc/systemd/system/ollama.service <<EOF
[Unit]
Description=Ollama Service
After=network-online.target[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin" "OLLAMA_HOST=0.0.0.0:11434"[Install]
WantedBy=default.target
EOF
  • 重启服务
systemctl daemon-reload
systemctl restart ollama
systemctl status ollama
journalctl -u ollama -f

5.常用指令

  • systemd 服务管理
操作命令说明
启动服务systemctl start ollama启动 Ollama 服务
停止服务systemctl stop ollama停止服务(释放端口和资源)
重启服务systemctl restart ollama重新加载配置或更新后使用
查看状态systemctl status ollama检查运行状态和日志摘要
启用开机自启systemctl enable ollama设置服务随系统启动
禁用开机自启systemctl disable ollama取消开机自启
查看完整日志journalctl -u ollama -f实时跟踪日志(-f 为持续输出)
自定义配置编辑 /etc/systemd/system/ollama.service修改监听IP、端口等参数
重载配置systemctl daemon-reload修改服务文件后必须执行
  • Ollama 指令
指令作用示例
ollama pull <模型名>下载指定模型(支持标签如 :8b, :latestollama pull qwen3:8b
ollama run <模型名>启动交互式对话(自动下载未安装的模型)ollama run qwen3:8b
ollama list列出本地已下载的模型ollama list
ollama rm <模型名>删除本地模型ollama rm qwen3:8b
ollama serve启动本地API服务(默认端口11434)ollama serve
ollama create <自定义名>基于Modelfile创建自定义模型ollama create my-llama -f ./Modelfile
ollama show <模型名>显示模型详细信息(参数、模板等)ollama show qwen3:8b
ollama ps查看正在运行的模型进程ollama ps
ollama logs输出模型运行日志(调试用)ollama logs --follow
  • 例如:安装并运行 qwen3:8b
ollama run qwen3:8b
http://www.dtcms.com/a/394633.html

相关文章:

  • 苍穹外卖项目实战(day11-1)-记录实战教程、问题的解决方法以及完整代码
  • 【Linux命令从入门到精通系列指南】mv 命令详解:文件与目录移动、重命名及安全操作的终极实战手册
  • 【C语言】深入解析阶乘求和算法:从代码实现到数学原理
  • 图形库的基础--svg
  • 令牌桶算法
  • FPGA开发环境配置
  • 特别分享:怎么用coze搭建智能体?
  • Linux 管道
  • NumPy 系列(四):numpy 数组的变形
  • 【Zod 】数据校验新范式:Zod 在 TypeScript 项目中的实战指南
  • 「React实战面试题」useEffect依赖数组的常见陷阱
  • 系统架构设计师部分计算题解析
  • 3.1 BP神经网络结构(反向传播算法)
  • 2026:具身智能软件——开发者工具、范式与方向
  • linux收集离线安装包及依赖包
  • ✅ Python租房数据分析系统 Django+requests爬虫+Echarts可视化 贝壳网全国数据 大数据
  • FREERTOS任务TCB与任务链表的关系-重点
  • C++入门(内含命名空间、IO、缺省参数、函数重载、引用、内联函数、auto关键字、新式范围for循环、关键字nullptr的超全详细讲解!)
  • 红黑树的介绍
  • NumPy 系列(六):numpy 数组函数
  • 手写链路追踪-日志追踪性能分析
  • 数据库自增字段归零(id)从1开始累加
  • 轻量级本地化解决方案:实现填空题识别与答案分离的自动化流程
  • P1104 生日-普及-
  • CMake如何添加.C.H文件
  • 实时数据如何实现同步?一文讲清数据同步方式
  • 六、Java框架
  • 施耐德 M340 M580 数据移动指令 EXTRACT
  • 4. 引用的本质
  • 专业历史知识智能体系统设计与实现