基于Ubuntu2410部署LobeChat服务端数据库版本
LobeChat
- Compose安装
- 配置知识库
官网
LobeChat 是一个开源的高性能聊天机器人框架,旨在为用户提供灵活、功能丰富的 AI 聊天平台。 它支持语音合成、多模态交互,并拥有可扩展的插件系统,允许用户根据需要添加功能。 此外,LobeChat 提供了一键免费部署私人 ChatGPT/LLM 网页应用程序的功能,使用户能够轻松搭建自己的智能聊天助手
✨ 特点
-
分支对话
引入一种更自然、更灵活的与 AI 聊天的方式。借助分支对话,您的讨论可以像人类对话一样朝多个方向进行。从任何消息创建新的对话分支,可以自由探索不同的路径,同时保留原始上下文。
两种强大模式供选择:- 延续模式:无缝扩展当前讨论,同时保留有价值的背景信息
- 独立模式:根据之前的任何消息重新开始新的主题
-
知识库
LobeChat 支持文件上传和知识库功能。您可以上传各种类型的文件,包括文档、图片、音频和视频,以及创建知识库,方便用户管理和搜索文件。此外,您还可以在对话过程中使用文件和知识库功能,从而实现更丰富的对话体验。 -
视觉模型识别
LobeChat 现已支持 OpenAI 最新的gpt-4-vision视觉识别模型,这是一种能够感知视觉的多模态智能。用户可以轻松将图片上传或拖放到对话框中,智能体将能够识别图片内容并据此进行智能对话,从而打造更加智能、更加多样化的聊天场景。 -
TTS和STT语音
LobeChat 支持文本转语音 (TTS) 和语音转文本 (STT) 技术,使我们的应用程序能够将文本消息转换为清晰的语音输出,让用户能够像与真人交谈一样与我们的对话代理进行互动。用户可以从多种声音中选择与代理配对。
此外,TTS 为喜欢听觉学习或希望在忙碌时接收信息的用户提供了绝佳的解决方案。在 LobeChat 中,我们精心挑选了一系列优质语音选项(OpenAI Audio、Microsoft Edge Speech),以满足不同地区和文化背景的用户的需求。用户可以选择适合个人喜好或特定场景的语音,从而获得个性化的沟通体验。 -
LobeChat 支持使用服务器端和本地数据库。可以根据需要选择合适的部署方案:
本地数据库:适合希望更好地控制数据和保护隐私的用户。LobeChat 使用 CRDT(无冲突复制数据类型)技术实现多设备同步。这是一项实验性功能,旨在提供无缝的数据同步体验。
服务器端数据库:适合那些想要更便捷使用体验的用户。LobeChat 支持 PostgreSQL 作为服务器端数据库。有关如何配置服务器端数据库的详细文档,请访问配置服务器端数据库。 -
多用户管理
LobeChat支持多用户管理,并提供两种主要的用户认证和管理方案,以满足不同的需求:- next-auth:LobeChat 集成了next-auth灵活、强大的身份验证库,支持多种身份验证方式,包括OAuth、邮箱登录、凭证登录等。通过next-auth,您可以轻松实现用户注册、登录、会话管理、社交登录等功能,保证用户数据的安全和隐私。
- Clerk:对于需要更高级用户管理功能的用户,LobeChat还支持Clerk,一个现代化的用户管理平台。Clerk提供更丰富的功能,例如多因素身份验证(MFA)、用户配置文件管理、登录活动监控等。借助Clerk,您可以获得更高的安全性和灵活性,轻松应对复杂的用户管理需求。
-
自定义主题
作为一款以设计为导向的应用,LobeChat 非常注重用户的个性化体验,因此推出了灵活多样的主题模式,包括白天的浅色模式和夜间的深色模式。除了切换主题模式外,一系列的颜色自定义选项还允许用户根据自己的喜好调整应用的主题颜色。无论是喜欢素净的深蓝色、活泼的桃红色还是专业的灰白色,用户都可以在 LobeChat 中找到自己喜欢的颜色选择。
Compose安装
系统环境:Ubuntu 24.10(192.168.200.160)
Ollama安装参考博文
安装docker环境,自带compose
apt -y install apt-transport-https ca-certificates curl software-properties-common
curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
add-apt-repository "deb [arch=amd64] https://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
apt-get -y install docker-ce
cat > /etc/docker/daemon.json << EOF
{
"registry-mirrors": ["https://registry-mirrors.yunyuan.co"],
"insecure-registries" : ["0.0.0.0/0"]
}
EOF
systemctl daemon-reload
systemctl restart docker
- 执行以下命令初始化部署环境,目录 lobe-chat-db 将用于存放你的配置文件和后续的数据库文件
mkdir lobe-chat-db && cd lobe-chat-db
- 获取并执行部署脚本:
脚本支持以下部署模式,请根据你的需求选择相应的模式- 本地模式(默认):仅能在本地访问,不支持局域网 / 公网访问,适用于初次体验;
- 端口模式:支持局域网 / 公网的 http 访问,适用于无域名或内部办公场景使用;
- 域名模式:支持局域网 / 公网在使用反向代理下的 http/https 访问,适用于个人或团队日常使用;
bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
root@huhy:~/lobe-chat-db# bash <(curl -fsSL https://lobe.li/setup.sh) -l zh_CN
docker-compose.yml 100%[=================================================>] 6.38K 6.05KB/s in 1.1s
init_data.json 100%[=================================================>] 35.41K 32.8KB/s in 1.1s
searxng-settings.yml 100%[=================================================>] 64.83K 221KB/s in 0.3s
.env 100%[=================================================>] 1.11K --.-KB/s in 0s
请选择部署模式:
(0) 域名模式(访问时无需指明端口),需要使用反向代理服务 LobeChat, MinIO, Casdoor ,并分别分配一个域名;
(1) 端口模式(访问时需要指明端口,如使用IP访问,或域名+端口访问),需要放开指定端口;
(2) 本地模式(仅供本地测试使用)
如果你对这些内容疑惑,可以先选择使用本地模式进行部署,稍后根据文档指引再进行修改。
https://lobehub.com/docs/self-hosting/server-database/docker-compose
(0,1,2) [2]: 1
✔️ 已更新部署模式配置
注意,当前识别到内网 IP,如果需要外部访问,请替换为公网 IP 地址
LobeChat部署IP/域名 [已自动识别 192.168.200.160]: 192.168.200.160
是否要重新生成安全密钥?
(y/n) [y]:
重新生成安全密钥...
安全密钥生成结果如下:
LobeChat:
- URL: http://192.168.200.160:3210
- Username: user
- Password: 97ceb33c2b
Casdoor:
- URL: http://192.168.200.160:8000
- Username: admin
- Password: 97ceb33c2b
Minio:
- URL: http://192.168.200.160:9000
- Username: admin
- Password: 1e90de7f
您已经完成了所有配置。请运行以下命令启动LobeChat:
docker compose up -d
请确保服务器以下端口未被占用且能被访问:3210, 9000, 9001, 8000
- 界面浏览器访问:http://ip:3210
- 进行登录:密钥由脚本获取
- Username: user
- Password: 97ceb33c2b
- 配置Ollama模型连接
PS C:\Users\huhy> ollama list
NAME ID SIZE MODIFIED
bge-large:latest b3d71c928059 670 MB 2 weeks ago
deepseek-r1:32b 38056bbcbb2d 19 GB 2 weeks ago
deepseek-r1:14b ea35dfe18182 9.0 GB 2 weeks ago
deepseek-r1:8b 28f8fd6cdc67 4.9 GB 2 weeks ago
deepseek-r1:7b 0a8c26691023 4.7 GB 2 weeks ago
deepseek-r1:1.5b a42b25d8c10a 1.1 GB 2 weeks ago
配置知识库
知识库默认使用openai
- 用途: 使用不同的嵌入模型(Embedding)生成文本的向量表示,用于语义搜索
- 选项: 支持的模型提供商:zhipu/github/openai/bedrock/ollama
- 部署建议: 如果需要自定义,使用环境变量配置默认嵌入模型
environment: DEFAULT_FILES_CONFIG=embedding_model=openai/embedding-text-3-small
- 新建助手,并自定义
- 关联知识库即可