AnythingLLM+Ollama搭建本地知识库
上期我们用ollama+Open WebUI 实现的本地大模型的部署,这期我们利用anythingllm实现本地知识库的搭建。通过上传企业内部文件,轻松实现问答系统。
何为AnythingLLM
AnythingLLM 是一个开源的、可定制的、功能丰富的文档聊天机器人。它专为那些希望与之智能对话或利用现有文档构建知识库的任何人设计。这是一个全栈应用程序,它能够将任何文档、资源或内容片段转化为大语言模型(LLM)在聊天中可以利用的相关上下文。该应用允许用户选择并配置要使用的LLM或向量数据库,并支持多用户管理及权限控制,以确保数据安全和高效协作。
本地部署安装(虚拟机ubuntu系统为例)
没有安装ollama的可以看下我上期的内容。
输入命令安装
export STORAGE_LOCATION=$HOME/anythingllm && \ mkdir -p $STORAGE_LOCATION && \ touch "$STORAGE_LOCATION/.env" && \ docker run -d -p 3001:3001 \ --cap-add SYS_ADMIN \ -v ${STORAGE_LOCATION}:/app/server/storage \ -v ${STORAGE_LOCATION}/.env:/app/server/.env \ -e STORAGE_DIR="/app/server/storage" \ mintplexlabs/anythingllm:master
安装完成打开本地网址: localhost:3001
选择模型ollama
创建工作区
上传本地文件
点击Move to Workspace
完成后就可以实现本地问答的交流了,小伙伴们快去试试吧!