当前位置: 首页 > news >正文

LangChain 中的文档加载器(Loader)与文本切分器(Splitter)详解《二》

🧠 LangChain 中 TextSplitter 的使用详解:从基础到进阶(附代码)

一、前言

在处理大规模文本数据时,特别是在构建知识库或进行大模型训练与推理时,文本切分(Text Splitting) 是一个非常关键的预处理步骤。LangChain 提供了多种灵活的文本切分器(TextSplitter),可以帮助开发者根据实际需求对文本进行合理划分。

本文将围绕你在实际项目中使用的 TextSplitter 类型展开讲解,并结合具体代码示例,帮助你更好地理解如何选择和配置不同的文本切分策略。


二、什么是 TextSplitter?

TextSplitter 是 LangChain 中用于将长文本分割成小块(chunks)的一个工具类。它的核心作用是:

  • 将一段较长的文本按照指定规则切分为多个较小的段落;
  • 支持设置每个段落的最大长度(chunk_size);
  • 支持相邻段落之间的重叠部分(chunk_overlap),以保留上下文信息;
  • 支持基于字符、语言模型 tokenizer 等方式切分。

三、常见的 TextSplitter 类型

LangChain 提供了多种类型的 TextSplitter,每种适用于不同的场景:

类名说明
RecursiveCharacterTextSplitter按照指定字符递归切分,默认按 [“\n\n”, “\n”, " ", “”] 切分
SpacyTextSplitter基于 SpaCy 的语言模型进行句子级切分
MarkdownHeaderTextSplitter专门用于 Markdown 格式文档,根据标题层级切分
TokenTextSplitter基于 Token 数量进行切分,常用于 GPT 系列模型

四、实战代码解析

1. 定义 SPLITTER_CLASS_MAP 映射

为了方便切换不同的切分器,我们可以先定义一个映射字典:

SPLITTER_CLASS_MAP = {"RecursiveCharacterTextSplitter": RecursiveCharacterTextSplitter,"SpacyTextSplitter": SpacyTextSplitter,"MarkdownHeaderTextSplitter": MarkdownHeaderTextSplitter,"TokenTextSplitter": TokenTextSplitter,
}

这样可以根据字符串名称动态获取对应的切分器类。


2. 使用 from_tiktoken_encoder 构建切分器

TextSplitter = SPLITTER_CLASS_MAP["RecursiveCharacterTextSplitter"]
text_splitter = TextSplitter.from_tiktoken_encoder(encoding_name=text_splitter_dict["RecursiveCharacterTextSplitter"]["tokenizer_name_or_path"],chunk_size=CHUNK_SIZE,chunk_overlap=OVERLAP_SIZE
)

这段代码使用的是 tiktoken 编码器来计算 token 数量,适用于 GPT-3/4 等 OpenAI 模型。其中:

  • encoding_name: 指定使用的编码器(如 "cl100k_base");
  • chunk_size: 每个 chunk 的最大 token 数;
  • chunk_overlap: 相邻 chunk 的重叠 token 数。

3. 使用默认参数初始化 RecursiveCharacterTextSplitter

splitter = RecursiveCharacterTextSplitter(chunk_size=CHUNK_SIZE,chunk_overlap=OVERLAP_SIZE
)

这是最常用的方式,适用于大多数中文文本的切分任务,不依赖特定的 tokenizer,而是通过字符方式进行切分。


4. 使用 HuggingFace 的 Tokenizer 初始化切分器

from transformers import GPT2TokenizerFast
from langchain.text_splitter import CharacterTextSplittertokenizer = GPT2TokenizerFast.from_pretrained("gpt2")
text_splitter_1 = TextSplitter.from_huggingface_tokenizer(tokenizer=tokenizer,chunk_size=CHUNK_SIZE,chunk_overlap=OVERLAP_SIZE
)

这种方式适用于需要与 HuggingFace 模型配合使用的场景,比如 LLaMA、Bloom 等开源模型。它会根据 tokenizer 来精确控制每个 chunk 的 token 数量。


五、总结与建议

切分方式特点推荐场景
RecursiveCharacterTextSplitter快速简单,支持自定义切分符通用文本处理
SpacyTextSplitter支持多语言语义切分英文为主、语义敏感任务
MarkdownHeaderTextSplitter按标题层级切分文档类 Markdown 处理
TokenTextSplitter基于 token 数量切分适配 GPT、LLM 输入限制

建议:如果你在处理中文文本,推荐优先使用 RecursiveCharacterTextSplitter,并搭配合适的 chunk_size(如 512 或 1024)和 overlap(如 64)。


六、区别

你提到的三个 TextSplitter 实例虽然都来自 LangChain 的 RecursiveCharacterTextSplitter 类,但它们使用了不同的初始化方式(构造方法),因此在底层处理文本的方式上也有所不同。下面我将详细分析这三者的区别:


🧩 一、整体结构回顾

你定义了一个映射字典:

SPLITTER_CLASS_MAP = {"RecursiveCharacterTextSplitter": RecursiveCharacterTextSplitter,...
}

然后通过字符串名称获取类并创建实例:

TextSplitter = SPLITTER_CLASS_MAP["RecursiveCharacterTextSplitter"]
text_splitter = TextSplitter.from_tiktoken_encoder(...)

接着又分别使用了三种不同方式创建了三个 splitter 实例:

  1. text_splitter: 使用 .from_tiktoken_encoder(...)
  2. splitter: 直接使用默认构造函数 RecursiveCharacterTextSplitter(...)
  3. text_splitter_1: 使用 .from_huggingface_tokenizer(...)

这三个 splitter 都是 RecursiveCharacterTextSplitter 的实例,但它们的底层分词逻辑和 chunk 大小控制机制不同


📌 二、逐个分析三个 splitter 的区别

✅ Splitter 1: text_splitter = TextSplitter.from_tiktoken_encoder(...)
初始化方式:
text_splitter = TextSplitter.from_tiktoken_encoder(encoding_name="cl100k_base",chunk_size=CHUNK_SIZE,chunk_overlap=OVERLAP_SIZE
)
特点:
  • 基于 OpenAI 的 tiktoken 编码器
  • chunk_size 是以 token 数量 为单位;
  • 更适合用于与 GPT-3/4 等模型配合使用;
  • 不依赖具体的语言模型 tokenizer,而是使用 OpenAI 官方编码器;
  • 支持中文(取决于使用的 encoding_name);

⚠️ 注意:tiktoken 的 token 划分方式不同于传统的空格或句子划分,它会将中英文混合切分为 subwords 或 bytes。

示例:
"你好 world" -> ["你", "好", "Ġworld"]

✅ Splitter 2: splitter = RecursiveCharacterTextSplitter(...)
初始化方式:
splitter = RecursiveCharacterTextSplitter(chunk_size=CHUNK_SIZE,chunk_overlap=OVERLAP_SIZE
)
特点:
  • 默认使用 字符长度(char length) 来计算 chunk 大小;
  • 按照预设的一组字符递归切分(默认顺序是:\n\n, \n, " ", "");
  • 不依赖任何 tokenizer,只基于字符数量;
  • 适用于通用文本处理,尤其适合中文场景;
  • 最简单、最直接的切分方式;
示例:
text = "这是一个很长的段落..."
splitter.split_text(text)
# 输出:["这是...", "...下一段"]

✅ Splitter 3: text_splitter_1 = RecursiveCharacterTextSplitter.from_huggingface_tokenizer(...)
初始化方式:
tokenizer = GPT2TokenizerFast.from_pretrained("gpt2")
text_splitter_1 = RecursiveCharacterTextSplitter.from_huggingface_tokenizer(tokenizer=tokenizer,chunk_size=CHUNK_SIZE,chunk_overlap=OVERLAP_SIZE
)
特点:
  • 使用的是 HuggingFace 的 transformers tokenizer(如 GPT2、LLaMA、Bloom 等);
  • chunk_size 也是以 token 数量 为单位;
  • 更适合与开源 LLM 模型配合使用;
  • 支持自定义 tokenizer(如中文 BERT tokenizer);
  • 可以精确控制每个 chunk 的 token 数量,避免超出模型输入限制;

⚠️ 注意:这种方式需要安装 transformers 库,并且加载 tokenizer 可能较慢。


🔍 三、三者的核心区别总结

属性from_tiktoken_encoder(...)__init__(...)from_huggingface_tokenizer(...)
切分依据token 数量(tiktoken 编码器)字符长度token 数量(HuggingFace tokenizer)
是否依赖 tokenizer是(tiktoken)是(transformers)
chunk_size 单位tokenchartoken
中文支持视 encoding 而定(一般较好)✔️ 很好视 tokenizer 而定
典型用途GPT-3/4 类模型适配通用文本处理开源 LLM(如 LLaMA、GPT-Neo)适配
性能快速极快较慢(需加载 tokenizer)

🎯 四、如何选择?

场景推荐方式
使用 OpenAI GPT-3/4 APIfrom_tiktoken_encoder
中文文档处理、快速构建本地知识库__init__()
使用开源 LLM(如 LLaMA、Bloom、GPT-Neo)from_huggingface_tokenizer
需要严格控制 token 数量后两者均可(根据 tokenizer)

📌 五、补充建议

如果你使用的是中文场景,推荐如下组合:

splitter = RecursiveCharacterTextSplitter(separators=["\n\n", "\n", "。", "!", "?", ",", " ", ""],chunk_size=512,chunk_overlap=64
)

你可以自定义 separators,让它更适合中文语义断句。

相关文章:

  • 【Proteus仿真】【32单片机-A010】步进电机控制系统设计
  • 前端与服务器交互以及前端项目组成。
  • 了解Android studio 初学者零基础推荐(4)
  • 计算机视觉一些定义解析
  • RK3588开发笔记-wifi6 SDIO接口rtl8822cs调试笔记
  • 多核处理器系统中内存一致性问题举例
  • PydanticAI快速入门示例
  • React事件处理:如何给按钮绑定onClick点击事件?
  • 运行vue项目报错 errors and 0 warnings potentially fixable with the `--fix` option.
  • L1和L2核心区别 !!--part 2
  • AI书签管理工具开发全记录(十八):书签导入导出
  • 【大模型:知识库管理】--开源工具Ragflow构建知识库
  • 【android bluetooth 框架分析 04】【bt-framework 层详解 1】【BluetoothProperties介绍】
  • 归并排序算法及其在算法中的应用
  • 运动控制--小车的启动和停止算法
  • 1-6 Linux-虚拟机快照(2025.6.9学习篇)
  • WSL从C盘迁移到D盘
  • 客户案例 | 短视频点播企业海外视频加速与成本优化:MediaPackage+Cloudfront 技术重构实践
  • 多元隐函数 偏导公式法 (显示变化 + 隐式变化)
  • 如何快速进行光伏发电量计算?
  • 网站开发外文文献/镇江网络
  • 可视化响应式网站建设/互联网的推广
  • 法院门户网站建设方案/sem推广软件选哪家
  • 南京英文网站建设/宁波seo智能优化
  • 网站的虚拟人怎么做的/品牌策划方案怎么写
  • 做旅游景点网站的目的和意义/网络推广软件哪个好