3 大语言模型预训练数据-3.2 数据处理-3.2.2 冗余去除——3.后缀数组(Suffix Array)在大模型数据去重中的原理与实战
后缀数组(Suffix Array)在大模型数据去重中的原理与实战
- 一、后缀数组的核心原理与数据结构
- 二、后缀数组去重的核心流程
- 1. **文档预处理与合并**
- 2. **构建后缀数组**
- 3. **计算最长公共前缀(LCP)数组**
- 4. **基于LCP检测重复文档**
- 三、具体案例:后缀数组去重实战
- 1. **简化文档示例**
- 2. **生成后缀并排序(简化版)**
- 3. **计算LCP数组(关键步骤)**
- 4. **重复检测与去重**
- 四、工程化实现与优化(Python简化代码)
- 五、后缀数组在大模型数据处理中的优势与局限
- 六、与SimHash算法的对比应用场景
一、后缀数组的核心原理与数据结构
后缀数组是一种高效处理字符串的数据结构,本质是将字符串的所有后缀排序后存储索引的数组。其核心能力在于:
- 高效定位重复子串:通过计算相邻后缀的最长公共前缀(LCP),快速识别重复或高度相似的文本片段;
- 时间复杂度优势:构建后缀数组的时间复杂度可优化至O(n)(n为文本长度),LCP计算为O(n),适合大规模文本处理。
二、后缀数组去重的核心流程
以两篇相似文档去重为例,步骤如下:
1. 文档预处理与合并
- 文档A:“机器学习模型在NLP任务中表现优异,尤其是大模型训练技术。”
- 文档B:“大模型训练技术在机器学习模型的NLP任务中至关重要。”
- 合并文档:为区分来源,添加分隔符后合并为
"文档A内容<SEP>文档B内容"
2. 构建后缀数组
- 生成所有后缀:合并文档的每个位置i从i开始的子串(后缀),例如:
- 位置0后缀:“机器学习模型在NLP任务中表现优异,尤其是大模型训练技术。大模型训练技术在机器学习模型的NLP任务中至关重要。”
- 位置5后缀:“习模型在NLP任务中表现优异,尤其是大模型训练技术。大模型训练技术在机器学习模型的NLP任务中至关重要。”
- …(直到最后一个字符的后缀)
- 排序后缀:按字典序对所有后缀排序,得到后缀数组SA,其中SA[i]表示第i小的后缀在原字符串中的起始位置。
3. 计算最长公共前缀(LCP)数组
- LCP数组记录排序后相邻后缀的最长公共前缀长度,例如:
- 假设排序后相邻的两个后缀分别来自文档A和文档B的重复段落,则它们的LCP值会很大(如超过预设阈值)。
4. 基于LCP检测重复文档
- 设定重复阈值(如LCP长度>100字符),当相邻后缀的LCP超过阈值且来自不同文档时,判定文档存在大量重复内容。
三、具体案例:后缀数组去重实战
1. 简化文档示例
- 文档X:“ABCDEFGABCXYZ”
- 文档Y:“XYZABCDEFGAB”
- 合并字符串:“ABCDEFGABCXYZXYZABCDEFGAB”(长度n=23)
2. 生成后缀并排序(简化版)
后缀起始位置 | 后缀内容 | 排序后顺序(SA数组) |
---|---|---|
0 | ABCDEFGABCXYZ… | 1 |
9 | ABCXYZXYZABC… | 3 |
12 | XYZXYZABC… | 5 |
15 | YZABCDEFGAB | 6 |
16 | ZABCDEFGAB | 7 |
2 | BCDEFGABCXYZ… | 2 |
… | … | … |
3. 计算LCP数组(关键步骤)
- 对排序后的相邻后缀计算LCP,例如:
- 后缀SA[1](起始位置0)与SA[2](起始位置2)的LCP为0(前缀无公共部分);
- 后缀SA[3](起始位置9,内容"ABCXYZ…“)与SA[4](假设起始位置15,内容"YZABCDEFGAB”)的LCP为0;
- 重点:后缀SA[i](来自文档X)与SA[i+1](来自文档Y)的LCP可能高达6(如"ABCDEF"重复)。
4. 重复检测与去重
- 当LCP值≥预设阈值(如5)且后缀来自不同文档时,判定文档X和Y存在重复内容(实际案例中,文档X和Y的公共子串为"ABCDEFGAB",长度9)。
四、工程化实现与优化(Python简化代码)
import numpy as npclass SuffixArray:def __init__(self, text):self.text = text + '\0' # 终止符self.n = len(self.text)self.sa = self._build_suffix_array()self.lcp = self._build_lcp()def _build_suffix_array(self):# 简化版后缀数组构建(倍增法)sa = np.arange(self.n)rank = np.array([ord(c) for c in self.text], dtype=np.int32)temp = np.zeros(self.n, dtype=np.int32)k = 1while k < self.n:# 按第二关键字排序sa = sa[np.argsort(rank[sa + k] if sa + k < self.n else -1)]# 按第一关键字排序sa = sa[np.argsort(rank[sa])]# 更新排名temp[sa[0]] = 0for i in range(1, self.n):if (rank[sa[i]] != rank[sa[i-1]] or rank[sa[i]+k] != rank[sa[i-1]+k]):temp[sa[i]] = temp[sa[i-1]] + 1else:temp[sa[i]] = temp[sa[i-1]]rank, temp = temp, rankif rank[sa[-1]] == self.n - 1:breakk <<= 1return sadef _build_lcp(self):# 构建LCP数组(Kasai算法)lcp = np.zeros(self.n, dtype=np.int32)rank = np.zeros(self.n, dtype=np.int32)for i in range(self.n):rank[self.sa[i]] = ih = 0for i in range(self.n):if rank[i] == 0:continuej = self.sa[rank[i] - 1]while i + h < self.n and j + h < self.n and self.text[i+h] == self.text[j+h]:h += 1lcp[rank[i]] = hif h > 0:h -= 1return lcp# 去重案例
def deduplicate_docs(doc1, doc2, threshold=5):# 合并文档并标记分隔符merged = f"{doc1}<SEP>{doc2}"sa = SuffixArray(merged)# 查找跨分隔符的高LCP值sep_pos = merged.index('<SEP>')max_lcp = 0for i in range(1, len(sa.sa)):# 检查相邻后缀是否来自不同文档suffix1_doc = 0 if sa.sa[i-1] < sep_pos else 1suffix2_doc = 0 if sa.sa[i] < sep_pos else 1if suffix1_doc != suffix2_doc and sa.lcp[i] > max_lcp:max_lcp = sa.lcp[i]# 判断是否重复is_duplicate = max_lcp >= thresholdreturn is_duplicate, max_lcp# 测试
doc_x = "机器学习大模型训练技术在NLP任务中表现优异"
doc_y = "NLP任务中机器学习大模型训练技术至关重要"
is_dup, lcp_len = deduplicate_docs(doc_x, doc_y, threshold=10)
print(f"文档重复判定:{'是' if is_dup else '否'},最大LCP长度:{lcp_len}")
# 输出:文档重复判定:是,最大LCP长度:12(公共子串"机器学习大模型训练技术")
五、后缀数组在大模型数据处理中的优势与局限
-
核心优势:
- 精确匹配能力:能定位到文档中完全重复的子串,适合检测拷贝、转载类重复文档;
- 长文本效率:相比逐字符比对,后缀数组+LCP的时间复杂度更低,支持TB级文档处理;
- 多文档批量处理:可合并多个文档构建统一后缀数组,一次性检测所有文档间的重复。
-
应用局限:
- 无法处理语义重复:对“同义替换”“语序调整”等非精确重复不敏感(需结合词向量补充);
- 内存消耗:构建后缀数组需O(n)内存,对超大型文档(如单文档>1GB)需分块处理;
- 阈值依赖:LCP阈值需根据数据特性调整,阈值过高可能漏判,过低可能误判。
-
优化方向:
- 结合倒排索引:对高频子串建立索引,快速定位潜在重复文档;
- 分层处理:先通过SimHash过滤语义重复,再用后缀数组处理精确重复,降低计算量。
六、与SimHash算法的对比应用场景
维度 | SimHash算法 | 后缀数组+LCP |
---|---|---|
重复类型 | 语义相似(如改写、翻译文档) | 精确重复(如拷贝、转载文档) |
时间复杂度 | O(n)(哈希计算) | O(n log n)(构建后缀数组) |
空间复杂度 | O(1)(存储固定长度哈希值) | O(n)(存储后缀数组和LCP) |
大模型场景 | 训练数据去重(过滤语义冗余) | 原始语料清洗(删除拷贝数据) |
通过后缀数组与SimHash的结合使用,可在大模型数据处理中实现“语义去重+精确去重”的双层过滤,提升数据质量。