本地知识库工具FASTGPT的安装与搭建
FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,将智能对话与可视化编排完美结合,让 AI 应用开发变得简单自然。无论您是开发者还是业务人员,都能轻松打造专属的 AI 应用。
今天来试着搭建下,使用docker安装比较简单,推荐使用docker安装。
看下推荐配置,fastgpt还分了不同的版本,一般的电脑配置都可以。
1、首先贴上git地址与文档地址
https://github.com/labring/FastGPT
https://doc.tryfastgpt.ai/docs/intro/
2、docker、docker-compose的安装部署参考Ubuntu上docker、docker-compose的安装,win的wsl也适用。
3、下载代码
git clone https://github.com/labring/FastGPT
4、下载config文件,也可直接新建文件将下面代码复制进去。
// 已使用 json5 进行解析,会自动去掉注释,无需手动去除
{
"feConfigs": {
"lafEnv": "https://laf.dev", // laf环境。 https://laf.run (杭州阿里云) ,或者私有化的laf环境。如果使用 Laf openapi 功能,需要最新版的 laf 。
"mcpServerProxyEndpoint": "" // mcp server 代理地址,例如: http://localhost:3005
},
"systemEnv": {
"vectorMaxProcess": 10, // 向量处理线程数量
"qaMaxProcess": 10, // 问答拆分线程数量
"vlmMaxProcess": 10, // 图片理解模型最大处理进程
"tokenWorkers": 30, // Token 计算线程保持数,会持续占用内存,不能设置太大。
"hnswEfSearch": 100, // 向量搜索参数,仅对 PG 和 OB 生效。越大,搜索越精确,但是速度越慢。设置为100,有99%+精度。
"customPdfParse": {
"url": "", // 自定义 PDF 解析服务地址
"key": "", // 自定义 PDF 解析服务密钥
"doc2xKey": "", // doc2x 服务密钥
"price": 0 // PDF 解析服务价格
}
}
}
5、接着下载docker-compose.yml文件
curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/deploy/docker/docker-compose-pgvector.yml
也可像上一步一样新建一个yml文件,直接粘贴进去。
6、docker 拉取镜像,启动
sudo docker-compose up -d
7、默认端口3000,默认账号root 密码 1234,密码可在docker-compose.yml文件中修改。记得修改后重启即可。最好将地址映射成https的地址。
8、接着咱们来配置本地部署的大模型工具ollama
按照如图所示依次填写。
然后再在模型配置页面添加ollama下面安装好的模型即可。
这就是我搭建的整个过程,大家在搭建的过程中有什么问题的话欢迎留言,大家一起讨论学习。