ragflow本地部署教程linux Ubuntu系统
以下是一份在 Ubuntu 系统上本地部署 RAGFlow 的详细教程。
一、基础环境准备
1.硬件要求
–CPU ≥ 4核
–RAM ≥ 16 GB
–磁盘空间 ≥ 50 GB(建议 SSD)
2.系统配置
更新系统
sudo apt update && sudo apt upgrade -y
设置内核参数(Elasticsearch 必需)
sudo sysctl -w vm.max_map_count=262144
echo “vm.max_map_count=262144” | sudo tee -a /etc/sysctl.conf # 永久生效
二、安装 Docker 与 Docker Compose
1.卸载旧版本(如有)
sudo apt remove docker docker-engine docker.io containerd runc
2.安装依赖与 Docker
sudo apt install apt-transport-https ca-certificates curl gnupg-agent software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
sudo add-apt-repository “deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable”
sudo apt update
sudo apt install docker-ce docker-ce-cli containerd.io
3.安装 Docker Compose v2.26.1+
sudo curl -L “https://github.com/docker/compose/releases/download/v2.26.1/docker-compose- ( u n a m e − s ) − (uname -s)- (uname−s)−(uname -m)” -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
4.配置国内镜像加速
创建 /etc/docker/daemon.json:
Json {
“registry-mirrors”: [“https://docker.1panel.live”, “https://dockerproxy.cn”]
}
重启服务:
sudo systemctl daemon-reload
sudo systemctl restart docker
三、部署 RAGFlow
1.克隆仓库
git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker
chmod +x ./entrypoint.sh # 授予执行权限
2.启动服务(默认使用 CPU 版本)
docker compose -f docker-compose.yml up -d
注:GPU 加速需使用 docker-compose-gpu.yml(需已安装 NVIDIA 驱动) 。
3.验证服务状态
docker logs -f ragflow-server # 出现 “RAGFlow is running!” 即成功
4.访问 Web UI
浏览器打开:http://<服务器IP>:8080(默认端口 8080,可在 .env 中修改 SVR_HTTP_PORT) 。
四、配置 Ollama 本地模型
1.安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
2.修改配置文件(监听所有 IP)
sudo vim /etc/systemd/system/ollama.service
添加两行:
Ini [Service]
Environment=“OLLAMA_HOST=0.0.0.0:11434”
Environment=“OLLAMA_MODELS=/path/to/ollama_cache” # 自定义模型存储路径
重启服务:
sudo systemctl daemon-reload
sudo systemctl restart ollama
3.下载模型(如 DeepSeek-R1)
ollama run deepseek-ai/deepseek-r1:latest
⚙️ 五、RAGFlow 模型与知识库配置
1.Web UI 中添加 Ollama 模型
–登录 RAGFlow → 右上角头像 → 模型供应商 → 选择 Ollama
–填写信息:
•模型名称:deepseek-r1(与 ollama list 名称一致)
•基础 URL:http://<服务器IP>:11434
•最大 Token:4096
2.设置系统模型
–聊天模型:选择刚添加的 deepseek-r1
–嵌入模型:推荐 shaw/dmeta-embedding-zh:latest(需先通过 Ollama 下载)
3.创建知识库
–知识库 → 新建知识库 → 上传文档(支持 Word/PDF/Excel 等)
–配置解析方法(按文档类型选择模板)
4.新建助理并测试
–聊天 → 新建助理 → 绑定知识库 → 开始问答测试
⚠️ 六、常见问题解决
•端口冲突:修改 ragflow/docker/.env 中的 SVR_HTTP_PORT,重启服务。
•镜像拉取慢:确保 Docker 镜像加速配置生效(见第二.4步)。
•Ollama 连接失败:检查防火墙是否放行 11434 端口,确认 OLLAMA_HOST 配置正确。
•模型加载错误:确认 Ollama 模型名称与 RAGFlow 中填写一致,且已下载完成。
💎 总结
本教程覆盖了从系统配置到模型集成的全流程,关键点包括:
1.内核参数 vm.max_map_count 对 Elasticsearch 至关重要;
2.Docker 镜像加速可大幅提升部署效率;
3.Ollama 需配置为 0.0.0.0 监听以实现跨容器通信;
4.知识库支持的文档类型丰富,解析方法需匹配文件格式。