【LLM】Open WebUI 使用指南:详细图文教程
Open WebUI 是一个开源的、可扩展且用户友好的自托管 AI 平台,专为生成式人工智能模型交互而设计。 Open WebUI 旨在为用户提供一个简单易用、功能强大且高度定制化的界面,使其能够轻松与各种 AI 模型(如文本生成、图像生成、语音识别等)进行交互。
一、安装与初始化配置
扩展阅读:基于 Ollama 部署 DeepSeek-R1 本地大模型
1. Docker 部署(含 GPU 加速)
步骤说明:
- 打开终端,执行以下命令:
docker run -d --gpus all -p 3000:8080 \ --add-host=host.docker.internal:host-gateway \ -v open-webui:/app/backend/data \ --name open-webui \ --restart always \ ghcr.io/open-webui/open-webui:cuda
- 等待镜像拉取完成,通过
docker ps
检查容器状态
二、基础对话功能详解
1. 切换聊天模型
操作步骤:
- 登录后点击左上角模型选择框
- 从下拉列表选择已连接的模型(如 Llama3-70B)
- 输入问题开始对话:
open webui 是什么?