部署open-webui到本地
方法一:使用Docker Compose(推荐)
1. 进入项目目录(git 克隆)
命令:git clone https://github.com/open-webui/open-webui.git
cd open-webui
2. 复制环境配置文件
cp .env.example .env
3. 编辑环境配置
打开 .env
文件,主要配置以下内容:
# Ollama服务地址
OLLAMA_BASE_URL=http://host.docker.internal:11434# 数据库配置
DATABASE_URL=sqlite:///./data/open-webui.db# 管理员账户
WEBUI_SECRET_KEY=your-secret-key-here
4. 启动服务
docker-compose up -d
方法二:使用Docker直接运行
1. 拉取镜像
docker pull ghcr.io/open-webui/open-webui:main
2. 运行容器
docker run -d \--name open-webui \-p 3000:8080 \-v open-webui:/app/backend/data \-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \-e WEBUI_SECRET_KEY=your-secret-key-here \ghcr.io/open-webui/open-webui:main
方法三:本地开发模式
1. 安装依赖
# 安装Python依赖
pip install -r requirements.txt# 安装前端依赖
cd frontend
npm install
2. 启动后端服务
# 在项目根目录
python -m uvicorn app.main:app --host 0.0.0.0 --port 8080
3. 启动前端服务
# 在frontend目录
npm run dev
验证部署
1. 检查Ollama服务
# 测试Ollama是否正常运行
curl http://localhost:11434/api/tags
2. 访问WebUI
打开浏览器访问:http://localhost:3000
3. 创建管理员账户
首次访问时,系统会提示创建管理员账户。
常见问题解决
1. 如果Ollama连接失败
确保Ollama服务正在运行:
# 启动Ollama
ollama serve
2. 如果端口被占用
修改Docker运行命令中的端口映射:
docker run -d \--name open-webui \-p 3001:8080 \ # 改为3001端口...
3. 如果数据库连接失败
检查数据库配置,确保路径正确且有写入权限。
使用建议
1. 模型管理
在WebUI中,您可以:
- 下载和管理不同的模型
- 配置模型参数
- 创建自定义模型配置
2. 用户管理
- 创建多个用户账户
- 设置不同的权限级别
- 管理用户会话
3. 安全配置
- 设置强密码
- 配置HTTPS(生产环境)
- 定期备份数据
生产环境部署
如果您计划在生产环境使用,建议:
- 使用HTTPS:配置SSL证书
- 设置反向代理:使用Nginx或Apache
- 配置防火墙:限制访问端口
- 定期备份:备份数据库和配置文件
- 监控日志:设置日志监控和告警
部署完成后,您就可以通过Web界面来管理和使用您的Ollama模型了!如果遇到任何问题.