当前位置: 首页 > news >正文

【Docker】Docker环境下快速部署Ollama与Open-WebUI:详细指南

Docker环境下快速部署Ollama与Open-WebUI:详细指南

在本篇文章中,我们将深入探讨如何在Docker中高效部署 OllamaOpen-WebUI,并解决在实际使用中常见的问题,确保你的模型服务稳定高效地运行。


一、Ollama 和 Open-WebUI 快速部署

1. 启动 Ollama

我们首先使用 Docker 运行 Ollama,确保它具备 GPU 加速功能:

docker run --name=ollama \--volume /home/user/.ollama:/root/.ollama \--network=bridge \-p 11434:11434 \--runtime=nvidia \--gpus all \--detach=true \ollama/ollama serve
  • --runtime=nvidia --gpus all:启用 GPU 加速(如果没有 GPU,可将其删除)。
  • --volume /home/user/.ollama:/root/.ollama:持久化数据存储在主机目录。
  • --network=bridge:设置为桥接模式,确保网络隔离。

2. 启动 Open-WebUI

接下来,我们部署 Open-WebUI:

docker run -d -p 3000:8080 \--add-host=host.docker.internal:host-gateway \-v open-webui:/app/backend/data \--name open-webui \--restart always \-e ENABLE_OPENAI_API=False \ghcr.io/open-webui/open-webui:main
  • -p 3000:8080:将容器端口 8080 映射到主机端口 3000。
  • -e ENABLE_OPENAI_API=False:关闭 OpenAI API(可根据需求开启)。
  • --restart always:确保 Open-WebUI 崩溃后自动重启。

二、Ollama 模型调用示例

在 Ollama 容器中,我们可以轻松运行模型:

docker exec -it ollama ollama run llama2
  • ollama run llama2:指定调用的模型(此处为 llama2)。

三、常见错误与解决方法

错误一:忘记 Open-WebUI 账号密码

如果你忘记了 Open-WebUI 的账号密码,需清除数据:

docker volume rm open-webui

⚠️ 注意:这将清除所有数据,请谨慎操作!


错误二:模型版本不兼容

如果在尝试运行模型(如 Qwen3:32b)时,出现如下错误:

Error: pull model manifest: 412:
The model you are attempting to pull requires a newer version of Ollama.

这意味着 Ollama 版本已过期,无法兼容最新模型。

解决方法:升级 Ollama

1. 停止并删除旧版本容器
docker stop ollama
docker rm ollama
2. 拉取最新的 Ollama 镜像
docker pull ollama/ollama:latest
3. 使用最新版本启动 Ollama
docker run --name=ollama \--volume /home/user/.ollama:/root/.ollama \--network=bridge \-p 11434:11434 \--runtime=runc \--detach=true \ollama/ollama serve
4. 确保版本升级成功
docker exec -it ollama ollama --version
  • 输出最新版本号即表示升级成功。
5. 再次运行 Qwen3:32b 模型
docker exec -it ollama ollama run qwen3:32b

四、最佳实践:提高模型部署稳定性

  1. 始终保持 Ollama 和 Open-WebUI 镜像为最新版本

    docker pull ollama/ollama:latest
    docker pull ghcr.io/open-webui/open-webui:main
    
  2. 使用持久化数据卷,防止数据丢失:

    -v /home/user/.ollama:/root/.ollama
    -v open-webui:/app/backend/data
    
  3. 定期备份重要配置和模型文件


五、总结

本文详细讲解了如何在 Docker 环境中部署 Ollama 和 Open-WebUI,并分析了常见错误和解决方法。无论你是刚入门 Docker 还是已经有一定经验,这篇指南都能帮助你快速构建稳定的模型服务。

相关文章:

  • 框架篇八股(自用)
  • GraspVLA:基于Billion-级合成动作数据预训练的抓取基础模型
  • TDengine编译成功后的bin目录下的文件的作用
  • MapReduce 模型
  • 使用 `aiohttp` 构建高效的异步网络爬虫系统
  • 原型和原型链
  • 5月12日作业
  • 【图像处理基石】如何入门AI计算机视觉?
  • Hue面试内容整理-后端框架
  • codeforcesE. Anna and the Valentine‘s Day Gift
  • 全维度解析AI大模型学习:从理论范式到产业革命
  • 【论文阅读】Dip-based Deep Embedded Clustering with k-Estimation
  • 【计算机视觉】OpenCV项目实战:基于face_recognition库的实时人脸识别系统深度解析
  • HTTP和HTTPS模块
  • vsomeip环境搭建保姆级教程
  • FCB文件疑问+求助:01 百度网盘视频自动生成AI笔记pdf会出现对应fcb文件-作用待详解
  • K8s 图形界面管理kubesphere
  • 基于大模型预测胸椎管狭窄诊疗全流程的研究报告
  • Oracles数据库通过存储过程调用飞书接口推送群组消息
  • 华三路由器单臂路由配置
  • “80后”德州市接待事务中心副主任刘巍“拟进一步使用”
  • 检疫期缩减至30天!香港优化内地进口猫狗检疫安排
  • 最高降九成!特朗普签署降药价行政令落地存疑,多家跨国药企股价收涨
  • 比特币挖矿公司GRYP股价涨超171%:将与特朗普儿子创设的公司合并
  • 英媒:英国首相住所起火,目前无人伤亡
  • 韩国总统选战打响:7人角逐李在明领跑,执政党临阵换将陷入分裂