当前位置: 首页 > news >正文

MaxKB结合DeepSeek快速构建客服企业知识库

第一章:MaxKB部署

在这里插入图片描述

MaxKB = Max Knowledge Base,是一款基于大语言模型和 RAG
的开源知识库问答系统,广泛应用于智能客服、企业内部知识库、学术研究与教育等场景。
maxkb官网,首先我们先部署一个maxkb,官网支持离线、在线等方式部署,详细可以查看官网教程,这里介绍一下在线部署

1 部署要求
服务器配置

部署服务器要求:

操作系统:Ubuntu 22.04 / CentOS 7.6(7.4版本亲测也可以) 64 位系统 CPU/内存:4C/8GB 以上
磁盘空间:100GB

端口要求

在线部署 MaxKB 需要开通的访问端口说明如下:
22 SSH 安装、升级及管理使用
8080 Web 服务端口 默认 Web 服务访问端口,可根据实际情况进行更改

2 在线快速部署

MaxKB 支持一键启动,仅需执行以下命令:
这里注意,官网的部署命令在实操过程中发现docker会跟服务器网络有隔离,如果你的ollama与maxkb不在一个网络,配置的时候会提示API域名无效,经过验证需要再docker启动命令上加
–network host 来共享主机网络。

Linux 操作系统

以下/home可以改为自己实际目录,看数据盘在哪个目录。

docker run -d --name=maxkb --network host --restart=always -p 8080:8080 -v /home/.maxkb:/var/lib/postgresql/data -v /home/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb
Windows 操作系统

windows未验证,请自行尝试!

docker run -d --name=maxkb --restart=always -p 8080:8080 -v C:/maxkb:/var/lib/postgresql/data -v C:/python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb

待所有容器状态显示为healthy后,可通过浏览器访问 MaxKB:

最后把下面地址映射出来即可。实际也可以自己修改8080端口,不再赘述。

http://目标服务器 IP 地址:8080

默认登录信息 用户名:admin 默认密码:MaxKB@123…

第二章:ollama部署

ollama部署其实很简单,两个命令就行了。
ollama官网下载
linux服务器执行下面命令开始下载ollama

curl -fsSL https://ollama.com/install.sh | sh

下载完成后访问ollama官网查找自己喜欢的大模型,比如deepseek
模型选择
在这里插入图片描述
如下载 14B的语句

ollama run deepseek-r1:14b

复制命令执行后就可以了。但是默认下载的是占用根目录空间,linux更改ollama路径可以参考下面的方法。

这里要注意,我们经常需要把ollama安装在数据盘,所以需要更改下载的路径,以下是修改ollama默认路径的方法和开启全网段访问

1、创建新的模型存储目录:
    首先,创建一个新的目录作为模型存储路径。例如,创建/data/ollama/models目录: sudo mkdir -p /home/ollama/models

  1. 更改目录权限: 确保新目录的权限设置正确,允许Ollama访问和写入:
sudo chown -R ollama:ollama /home/ollama/models
sudo chmod -R 775 /home/ollama/models

3、修改Ollama服务配置文件
  编辑服务配置文件: 使用文本编辑器(如vim)编辑Ollama服务的配置文件:

sudo vi /etc/systemd/system/ollama.service

修改配置内容:
    在[Service]部分的Environment字段后,添加新的Environment字段,指定新的模型路径:
    Environment=“OLLAMA_MODELS=/data/ollama/models”
    完整的配置示例如下:

[Service]
Environment="OLLAMA_MODELS=/data/ollama/models"
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"

重载配置并重启Ollama服务重载系统服务配置:

sudo systemctl daemon-reload

重启Ollama服务:

sudo systemctl restart ollama.service

查看服务状态:

sudo systemctl status ollama
#启动deepseek
ollama run deepseek-r1:14b

第三章:MaxKB配置ollama

配置模型

在这里插入图片描述
在这里插入图片描述
本地的api key 随便填个字符即可。如果遇到提示API 域名无效,参考第一章相关内容。

创建知识库

在这里插入图片描述
根据后续界面上传本地文档
在这里插入图片描述
等待分段后,点击开始导入。

等待索引成功后添加应用就可以关联这个知识库了。

创建应用

在这里插入图片描述
在这里插入图片描述

剩下就是选择刚刚配置的大模型,编写一些话术,不再赘述。然后就可以点击应用进行预览,设置api key ,这样就可以对外开放安全的api了。
在这里插入图片描述
也可以直接复制他的内嵌代码到想要集成的应用里面
在这里插入图片描述
接下来点击演示就可以开始对话测试了

至此结束,祝各位顺利完成部署。

创作不易,望一键三连。

相关文章:

  • MySQL 用户与权限管理详解:从角色解锁到安全加固
  • Codemirror编辑器中引入其他语言支持的方式
  • 图形界面控件编程(iOS)
  • 文档进行embedding,Faiss向量检索
  • 数据集笔记:LTA static datasets
  • js实现pdf文件路径预览和下载
  • React Server Components:高性能React开发
  • 【2025年22期免费获取股票数据API接口】实例演示五种主流语言获取股票行情api接口之沪深A股历史成交分布数据获取实例演示及接口API说明文档
  • C#获取本机串口列表
  • 性能测试 学习基础
  • 一招解决Pytorch GPU版本安装慢的问题
  • Node.js 报错 ENOBUFS 处理方案
  • golang从入门到做牛马:第一篇-我与golang的缘分,go语言简介
  • Chain of Draft: 借鉴人类草稿思维让大型语言模型更快地思考
  • createrepo centos通过nginx搭建本地源
  • 达梦数据库如何在Linux上配置DTS工具
  • Qt:多线程
  • 基于React.js 技术栈的服务端渲染框架Next.js 实战记录
  • 【MySQL】事务|概念|如何回滚|基本特性|MySQL事务隔离性具体怎么实现的
  • 【Go学习实战】03-2-博客查询及登录
  • 宁波住房和城乡建设部网站/今天实时热搜榜排名
  • wordpress三合一主题/怎么优化自己公司的网站
  • 深圳科源建设集团有限公司网站/seo关键词排名优化软件
  • 变身 变装 wordpress/广州推广优化
  • wordpress 媒体库/东莞做网站seo
  • 政府网站建设的流程因素/网站关键词优化工具