当前位置: 首页 > news >正文

【重构小程序】基于Tika和Langchain4J进行文件解析和文本切片(二)

        为了将大语言模型植入到小程序中,来支持用户的问答。那我们首先需要做的是什么呢,不是引入大语言模型,而且为大语言模型搭建一个私有化知识库,但是这是这节呢,我们先不搭建私有化知识库,在这之前,我们还需要做一个前置工作,那就是数据准备。

        小版本的语言模型本身的能力不像大参数量的模型那样,有用强大的知识库和泛化能力。我们需要为其提供一个外部的知识库,为模型提供额外的知识储备,进而利用模型的推理能力回答用户的问题。搭建知识库之前,我们就需要将数据,存储到知识库中。那么首先,我们就需要解析文件得到元数据。

一、文本解析

为了解析到元数据,我们采用一个开源的工具,Apache Tika进行文件内容解析,这是一个由java开发的内容分析工具包。

<dependency>
   <groupId>org.apache.tika</groupId>
   <artifactId>tika-core</artifactId>
   <version>3.0.0</version>
</dependency>
<dependency>
   <groupId>org.apache.tika</groupId>
   <artifactId>tika-parsers-standard-package</artifactId>
   <version>3.0.0</version>
</dependency>

 我们先创建一个工具类TikaUtil,编写一个函数用来解析我们传入的文件内容。

 二、文本切片

 有了向量数据库后,我们就需要把数据存入向量数据库中了,在这之前呢,我们需要写完成一个文件解析的功能,因为,要解释到元数据,才进行接下来的步骤,我们这里选择Apache Tika进行文件内容解析,这是一个由java开发的内容分析工具包。

<dependency>
   <groupId>org.apache.tika</groupId>
   <artifactId>tika-core</artifactId>
   <version>3.0.0</version>
</dependency>
<dependency>
   <groupId>org.apache.tika</groupId>
   <artifactId>tika-parsers-standard-package</artifactId>
   <version>3.0.0</version>
</dependency>

 我们先创建一个工具类TikaUtil,编写一个函数用来解析我们传入的文件内容。

    public String extractText(MultipartFile file) {
        try {
            // 创建解析器--在不确定文档类型时候可以选择使用AutoDetectParser可以自动检测一个最合适的解析器
            Parser parser = new AutoDetectParser();
            // 用于捕获文档提取的文本内容。-1 参数表示使用无限缓冲区,解析到的内容通过此hander获取
            BodyContentHandler bodyContentHandler = new BodyContentHandler(-1);
            // 元数据对象,它在解析器中传递元数据属性---可以获取文档属性
            Metadata metadata = new Metadata();
            // 带有上下文相关信息的ParseContext实例,用于自定义解析过程。
            ParseContext parseContext = new ParseContext();
            parser.parse(file.getInputStream(), bodyContentHandler, metadata, parseContext);
            // 获取文本
            return bodyContentHandler.toString();
        } catch (Exception e) {
            e.printStackTrace();
            return null;
        }
    }

我们使用该工具即可获得文件的元数据。但是在问答的时候,我们不能将整个文件全部输入到大模型中,一方面是模型本身是拥有上上下文窗口大小限制,另一方面是大量的信息可能影响模型的推理时间和准确率。为了解决这种情况,我们需要将文本分块,把内容切割成一个一个的文本块,将每个块作为一个知识单元,再将其转换为向量表示存入向量数据库,这样大模型在检索的时候只需要将相关的文本块添加到上下文中,既能保证回答的准确性,也解决了上下文过长的问题。

对于分块的方法,在Langchain框架中,有多种分块策略:

  1. 固定大小分块:按固定字符数或单词数分割文本,简单直接,但可能破坏句子或段落的完整性。

  2. 按句子分块:使用自然语言处理工具(如NLTK、spaCy)按句子边界分割文本,适合处理句子级别的任务。

  3. 按段落分块:按段落分割文本,适合处理段落级别的任务,段落通常由换行符分隔。

  4. 重叠分块:在固定大小分块的基础上,允许块之间有重叠部分,避免信息丢失。

  5. 递归分块:递归地将文本分割成更小的部分,直到满足特定条件,适合处理复杂文本结构。

  6. 语义分块:根据语义或主题分割文本,通常需要自然语言处理技术识别语义边界。

在java社区,Langchain4J  旨在为 Java 开发者提供类似于 LangChain(基于 Python)的功能。LangChain4J 的目标是将 LangChain 的核心概念和功能移植到 Java 生态系统中,使 Java 开发者能够更方便地构建基于大语言模型(LLMs)的应用程序。Langchain4J

Langchain4J也为我们提供了多种文本分块方法:

  • DocumentByParagraphSplitter
  • DocumentByLineSplitter
  • DocumentBySentenceSplitter
  • DocumentByWordSplitter
  • DocumentByCharacterSplitter
  • DocumentByRegexSplitter
  • Recursive: DocumentSplitters.recursive(...)

在这之前,我们先新建一个TikaVo类,用作传输文档解析分片后的结果。

@Accessors(chain = true)
@Data
public class TikaVo implements Serializable {

    private List<String> text;

    private List<String> metadata;
}

这里,我们采用递归分割的方式,将输入的文本分割成块。

    private TikaVo splitParagraphs(String content) {
        DocumentSplitter splitter = DocumentSplitters.recursive(TARGET_LENGTH, LENGTH_TOLERANCE, new OpenAiTokenizer());
        List<TextSegment> split = splitter.split(Document.document(content));
        return new TikaVo().setText(split.stream().map(TextSegment::text).toList()).setMetadata(split.stream().map(textSegment -> JSON.toJSONString(textSegment.metadata())).toList());
    }

到这里,文件处理算是完成了,这里,我们可以写一个接口来测试一下效果,我这里就不展示了。感兴趣的小伙伴,也可以试试其他的切片方法。

后面,我们将介绍,如何将处理好的文本,存储到数据库中。

相关文章:

  • 自然语言处理(Natural Language Processing,NLP)入门教程
  • AfxMessageBox()和MessageBox()的差异。
  • OpenCV旋转估计(2)用于自动检测波浪校正类型的函数autoDetectWaveCorrectKind()
  • T-CSVT投稿记录
  • Century Avenue?有限元 lsdyna ansys、でしょ?
  • 【QA】观察者模式在QT有哪些应用?
  • 【Linux篇】进程控制
  • Pytest的夹具
  • 夸克网盘突破限速下载
  • 【MySQL】内置函数
  • 11 python 数据容器-字符串
  • 面试题精选《剑指Offer》:JVM类加载机制与Spring设计哲学深度剖析-大厂必考
  • 九、JavaScript作用域、预解析
  • 【数据分享】2000—2024年我国乡镇的逐月归一化植被指数(NDVI)数据(Shp/Excel格式)
  • 遇到一个奇怪问题,页面请求不到后端
  • 基于SpringBoot+Vue3实现的宠物领养管理平台功能七
  • 95 克的工业级动能:STONE 80A-M 电调深度测评 —— 无人机动力系统的轻量化范式
  • 跨域问题确认及处理
  • windows10在wsl上利用GPU运行tensorflow 2.12
  • 基于PyCATIA的CATIA实体双侧分割技术实现与优化
  • 雀巢中国回应“巴黎水”丑闻报告:在中国销售的产品均符合相关法律法规要求
  • 萨洛宁、康托罗夫、长野健……7月夏季音乐节来很多大牌
  • 黄仁勋:美国芯片管制完全错误,阻碍别人发展只会激励他们更努力
  • 昆明一小区火灾调查报告:七旬夫妇身亡,生前拾荒存放大量可燃物
  • 一日双赛“莎头组合”赢得强势,但国乒已开始品尝输球滋味
  • 山东茌平民企巨头实控人省外再出手:斥资16亿拿下山西一宗探矿权