当前位置: 首页 > news >正文

AnythingLLM+Ollama搭建本地知识库

上期我们用ollama+Open WebUI 实现的本地大模型的部署,这期我们利用anythingllm实现本地知识库的搭建。通过上传企业内部文件,轻松实现问答系统。

何为AnythingLLM

AnythingLLM 是一个开源的、可定制的、功能丰富的文档聊天机器人。它专为那些希望与之智能对话或利用现有文档构建知识库的任何人设计。这是一个全栈应用程序,它能够将任何文档、资源或内容片段转化为大语言模型(LLM)在聊天中可以利用的相关上下文。该应用允许用户选择并配置要使用的LLM或向量数据库,并支持多用户管理及权限控制,以确保数据安全和高效协作。

本地部署安装(虚拟机ubuntu系统为例)

没有安装ollama的可以看下我上期的内容。

输入命令安装

export STORAGE_LOCATION=$HOME/anythingllm && \
mkdir -p $STORAGE_LOCATION && \
touch "$STORAGE_LOCATION/.env" && \
docker run -d -p 3001:3001 \
--cap-add SYS_ADMIN \
-v ${STORAGE_LOCATION}:/app/server/storage \
-v ${STORAGE_LOCATION}/.env:/app/server/.env \
-e STORAGE_DIR="/app/server/storage" \
mintplexlabs/anythingllm:master

安装完成打开本地网址: localhost:3001

选择模型ollama

选择ollama

创建工作区

创建工作空间

上传本地文件

上传文档

上传文件

点击Move to Workspace

本地文档上传成功

完成后就可以实现本地问答的交流了,小伙伴们快去试试吧!

123

相关文章:

  • 360网站建设百度竞价渠道代理
  • 优化前网站现状分析深圳百度关键
  • 精通网站开发做网站公司
  • 武汉做网站的公司怎样搭建自己的网站
  • 网站建设模板下载关键词优化的技巧
  • 用wex5 网站开发定制网站+域名+企业邮箱
  • 【Ansible】Ansible介绍
  • Java 的强制类型转换
  • 基于STM32的个人健康助手的设计
  • 参数两和显存占用计算
  • 高性能的内存数据存储系统-Redis
  • 微信小程序适配 iPhone 底部导航区域(safe area)的完整指南
  • C# 中 逻辑运算符 - 逻辑与,短路
  • C# Avalonia 绑定模式 Mode 的区别,它们的应用场景
  • thinkphp8之文件上传
  • 永磁同步电机无速度算法--基于同步旋转坐标系锁相环的滑模观测器
  • Matlab里的默认配色推荐
  • 时序数据库 TDengine 助力华锐 D5 平台实现“三连降”:查询快了,机器少了,成本也低了
  • Node.js-fs模块
  • FPGA笔记——ZYNQ-7020运行PS端的USB 2.0端口作为硬盘
  • 多模态AI:让机器像人一样“全感官”理解世界
  • Vue计算属性与监视属性
  • 【数字后端】- 什么是天线效应(Antenna Effect)?如何修复?
  • 黑马python(十六)
  • 【DataWhale组队学习】AI办公实践与应用-数据分析
  • 3 大语言模型预训练数据-3.2 数据处理-3.2.2 冗余去除——2.SimHash算法文本去重实战案例:新闻文章去重场景