当前位置: 首页 > news >正文

3 大语言模型预训练数据-3.2 数据处理-3.2.2 冗余去除——3.后缀数组(Suffix Array)在大模型数据去重中的原理与实战

后缀数组(Suffix Array)在大模型数据去重中的原理与实战

        • 一、后缀数组的核心原理与数据结构
        • 二、后缀数组去重的核心流程
          • 1. **文档预处理与合并**
          • 2. **构建后缀数组**
          • 3. **计算最长公共前缀(LCP)数组**
          • 4. **基于LCP检测重复文档**
        • 三、具体案例:后缀数组去重实战
          • 1. **简化文档示例**
          • 2. **生成后缀并排序(简化版)**
          • 3. **计算LCP数组(关键步骤)**
          • 4. **重复检测与去重**
        • 四、工程化实现与优化(Python简化代码)
        • 五、后缀数组在大模型数据处理中的优势与局限
        • 六、与SimHash算法的对比应用场景

一、后缀数组的核心原理与数据结构

后缀数组是一种高效处理字符串的数据结构,本质是将字符串的所有后缀排序后存储索引的数组。其核心能力在于:

  1. 高效定位重复子串:通过计算相邻后缀的最长公共前缀(LCP),快速识别重复或高度相似的文本片段;
  2. 时间复杂度优势:构建后缀数组的时间复杂度可优化至O(n)(n为文本长度),LCP计算为O(n),适合大规模文本处理。
二、后缀数组去重的核心流程

以两篇相似文档去重为例,步骤如下:

1. 文档预处理与合并
  • 文档A:“机器学习模型在NLP任务中表现优异,尤其是大模型训练技术。”
  • 文档B:“大模型训练技术在机器学习模型的NLP任务中至关重要。”
  • 合并文档:为区分来源,添加分隔符后合并为"文档A内容<SEP>文档B内容"
2. 构建后缀数组
  • 生成所有后缀:合并文档的每个位置i从i开始的子串(后缀),例如:
    • 位置0后缀:“机器学习模型在NLP任务中表现优异,尤其是大模型训练技术。大模型训练技术在机器学习模型的NLP任务中至关重要。”
    • 位置5后缀:“习模型在NLP任务中表现优异,尤其是大模型训练技术。大模型训练技术在机器学习模型的NLP任务中至关重要。”
    • …(直到最后一个字符的后缀)
  • 排序后缀:按字典序对所有后缀排序,得到后缀数组SA,其中SA[i]表示第i小的后缀在原字符串中的起始位置。
3. 计算最长公共前缀(LCP)数组
  • LCP数组记录排序后相邻后缀的最长公共前缀长度,例如:
    • 假设排序后相邻的两个后缀分别来自文档A和文档B的重复段落,则它们的LCP值会很大(如超过预设阈值)。
4. 基于LCP检测重复文档
  • 设定重复阈值(如LCP长度>100字符),当相邻后缀的LCP超过阈值且来自不同文档时,判定文档存在大量重复内容。
三、具体案例:后缀数组去重实战
1. 简化文档示例
  • 文档X:“ABCDEFGABCXYZ”
  • 文档Y:“XYZABCDEFGAB”
  • 合并字符串:“ABCDEFGABCXYZXYZABCDEFGAB”(长度n=23)
2. 生成后缀并排序(简化版)
后缀起始位置后缀内容排序后顺序(SA数组)
0ABCDEFGABCXYZ…1
9ABCXYZXYZABC…3
12XYZXYZABC…5
15YZABCDEFGAB6
16ZABCDEFGAB7
2BCDEFGABCXYZ…2
3. 计算LCP数组(关键步骤)
  • 对排序后的相邻后缀计算LCP,例如:
    • 后缀SA[1](起始位置0)与SA[2](起始位置2)的LCP为0(前缀无公共部分);
    • 后缀SA[3](起始位置9,内容"ABCXYZ…“)与SA[4](假设起始位置15,内容"YZABCDEFGAB”)的LCP为0;
    • 重点:后缀SA[i](来自文档X)与SA[i+1](来自文档Y)的LCP可能高达6(如"ABCDEF"重复)。
4. 重复检测与去重
  • 当LCP值≥预设阈值(如5)且后缀来自不同文档时,判定文档X和Y存在重复内容(实际案例中,文档X和Y的公共子串为"ABCDEFGAB",长度9)。
四、工程化实现与优化(Python简化代码)
import numpy as npclass SuffixArray:def __init__(self, text):self.text = text + '\0'  # 终止符self.n = len(self.text)self.sa = self._build_suffix_array()self.lcp = self._build_lcp()def _build_suffix_array(self):# 简化版后缀数组构建(倍增法)sa = np.arange(self.n)rank = np.array([ord(c) for c in self.text], dtype=np.int32)temp = np.zeros(self.n, dtype=np.int32)k = 1while k < self.n:# 按第二关键字排序sa = sa[np.argsort(rank[sa + k] if sa + k < self.n else -1)]# 按第一关键字排序sa = sa[np.argsort(rank[sa])]# 更新排名temp[sa[0]] = 0for i in range(1, self.n):if (rank[sa[i]] != rank[sa[i-1]] or rank[sa[i]+k] != rank[sa[i-1]+k]):temp[sa[i]] = temp[sa[i-1]] + 1else:temp[sa[i]] = temp[sa[i-1]]rank, temp = temp, rankif rank[sa[-1]] == self.n - 1:breakk <<= 1return sadef _build_lcp(self):# 构建LCP数组(Kasai算法)lcp = np.zeros(self.n, dtype=np.int32)rank = np.zeros(self.n, dtype=np.int32)for i in range(self.n):rank[self.sa[i]] = ih = 0for i in range(self.n):if rank[i] == 0:continuej = self.sa[rank[i] - 1]while i + h < self.n and j + h < self.n and self.text[i+h] == self.text[j+h]:h += 1lcp[rank[i]] = hif h > 0:h -= 1return lcp# 去重案例
def deduplicate_docs(doc1, doc2, threshold=5):# 合并文档并标记分隔符merged = f"{doc1}<SEP>{doc2}"sa = SuffixArray(merged)# 查找跨分隔符的高LCP值sep_pos = merged.index('<SEP>')max_lcp = 0for i in range(1, len(sa.sa)):# 检查相邻后缀是否来自不同文档suffix1_doc = 0 if sa.sa[i-1] < sep_pos else 1suffix2_doc = 0 if sa.sa[i] < sep_pos else 1if suffix1_doc != suffix2_doc and sa.lcp[i] > max_lcp:max_lcp = sa.lcp[i]# 判断是否重复is_duplicate = max_lcp >= thresholdreturn is_duplicate, max_lcp# 测试
doc_x = "机器学习大模型训练技术在NLP任务中表现优异"
doc_y = "NLP任务中机器学习大模型训练技术至关重要"
is_dup, lcp_len = deduplicate_docs(doc_x, doc_y, threshold=10)
print(f"文档重复判定:{'是' if is_dup else '否'},最大LCP长度:{lcp_len}")
# 输出:文档重复判定:是,最大LCP长度:12(公共子串"机器学习大模型训练技术")
五、后缀数组在大模型数据处理中的优势与局限
  1. 核心优势

    • 精确匹配能力:能定位到文档中完全重复的子串,适合检测拷贝、转载类重复文档;
    • 长文本效率:相比逐字符比对,后缀数组+LCP的时间复杂度更低,支持TB级文档处理;
    • 多文档批量处理:可合并多个文档构建统一后缀数组,一次性检测所有文档间的重复。
  2. 应用局限

    • 无法处理语义重复:对“同义替换”“语序调整”等非精确重复不敏感(需结合词向量补充);
    • 内存消耗:构建后缀数组需O(n)内存,对超大型文档(如单文档>1GB)需分块处理;
    • 阈值依赖:LCP阈值需根据数据特性调整,阈值过高可能漏判,过低可能误判。
  3. 优化方向

    • 结合倒排索引:对高频子串建立索引,快速定位潜在重复文档;
    • 分层处理:先通过SimHash过滤语义重复,再用后缀数组处理精确重复,降低计算量。
六、与SimHash算法的对比应用场景
维度SimHash算法后缀数组+LCP
重复类型语义相似(如改写、翻译文档)精确重复(如拷贝、转载文档)
时间复杂度O(n)(哈希计算)O(n log n)(构建后缀数组)
空间复杂度O(1)(存储固定长度哈希值)O(n)(存储后缀数组和LCP)
大模型场景训练数据去重(过滤语义冗余)原始语料清洗(删除拷贝数据)

通过后缀数组与SimHash的结合使用,可在大模型数据处理中实现“语义去重+精确去重”的双层过滤,提升数据质量。

相关文章:

  • 网站后台登陆不了网站建设的基本
  • 用phpmysql做图书网站2020年百度搜索排名
  • 厦门网站建设有限公司怎么样东莞市网络营销公司
  • 可以进入外国网站的浏览器站长工具 忘忧草
  • 性男女做视频网站互联网营销具体做什么
  • app安装器东莞关键词排名快速优化
  • ivx创建一个测试小案例
  • claude-code: 通过自然语言指令帮助开发
  • 深度学习中的数据预处理:模型性能的「燃料精炼术」与选择指南
  • 并发下正确的FirstOrCreate数据库操作
  • 用户体验驱动的3D设计:从功能实现到情感共鸣的设计升级
  • MySQL之存储过程详解
  • Solon Flow:轻量级流程编排引擎,让业务逻辑更优雅
  • Java操作H2数据库实战
  • DASCTF 2025上半年赛-web1 phpms Writeup
  • SpringBoot项目快速开发框架JeecgBoot——数据访问!
  • 局域网环境下浏览器安全限制的实用方法
  • 【2021 ICCV-Backbone 结构解析】Swin Transformer
  • 【python】http请求的默认超时时间设置
  • 智能体平台的商业前景与竞争格局分析:金融与企业市场的机遇与挑战
  • 深度解析Lucene IndexWriter 性能优化
  • GROUP BY、UNION和COALESCE协作
  • 【机器学习深度学习】张量基本操作
  • 无人机灯光驱动模块技术解析
  • Netty对象池ObjectPool源码解析
  • arthas助力Java程序Full GC频率大降!