当前位置: 首页 > wzjs >正文

centum wordpress怎么优化网站性能

centum wordpress,怎么优化网站性能,邮箱的官方网站注册,政协网站法治建设版块从词表到子词:Tokenizer 的“进化树” 我们常说“语言模型是理解人类语言的工具”,但事实上,模型能不能“理解”,关键要看它接收到了什么样的输入。而 Tokenizer,就是这一输入阶段的设计者。 在 NLP 的发展历程中&am…

从词表到子词:Tokenizer 的“进化树”

我们常说“语言模型是理解人类语言的工具”,但事实上,模型能不能“理解”,关键要看它接收到了什么样的输入。而 Tokenizer,就是这一输入阶段的设计者。

在 NLP 的发展历程中,从词级到子词级、再到字符级和字节级,Tokenizer 的变化不仅是技术演化的轨迹,更体现了我们对语言结构理解方式的不断革新。


1. 词级 Tokenizer:早期的起点与硬性边界

词级分词曾是 NLP 世界的黄金标准。以 Word2Vec 和 GloVe 为代表,这些模型首先基于大量语料,建立起一个固定的“词表”(Vocabulary),每个词就是一个最小处理单元。

例如,“natural language processing” 这句话就会被视作三个 token。

优点:
  • 粒度直观,符合人类语言认知
  • 训练速度快,易于构建词向量
局限:
  • 无法处理未登录词(Out-of-Vocabulary, OOV),比如“ChatGPTify”就无法表示。
  • 对多语言、混合语言、拼写错误极其不友好
  • 无法建模词形变化(dogs/dogged/dogging被视为完全不同的词)

中文、日文等没有自然词边界的语言,在词级分词中面临极大困难,往往依赖规则/统计分词器(如jieba、THULAC)作为前处理,造成额外偏差。

这也是“开放词汇建模”(Open Vocabulary Modeling)成为研究新方向的原因。


2. 子词级 Tokenizer:开启开放词汇建模新时代

为了兼顾词表大小、语义表达能力与泛化能力,NLP 社区引入了“子词建模”思路。它的核心是将词切成常见的片段组合,这些片段可以是词根、前缀、后缀,也可以是无意义但频繁出现的字串。

2.1 BPE(Byte Pair Encoding)

BPE 最初是用于压缩编码的技术,Sennrich 等人于2015年首次将其用于神经机器翻译中,解决未登录词问题。

核心思想:

  1. 初始词表为所有字符
  2. 统计所有相邻字符对的频率,合并出现最频繁的一对
  3. 重复步骤2直到达到预设词表大小

例如:

  • 输入词:“unbelievable” → 初始 token 序列:[u, n, b, e, l, i, e, v, a, b, l, e]
  • 合并“e” + “l” → “el”,再合并“el” + “i” → “eli”,最终形成 [un, believ, able]

优点:

  • 简单、高效,可用于任意语言
  • 没有 UNK,新词总能被切分

缺点:

  • 贪心合并:容易忽略语义结构,切分不稳定
  • 对高资源语言效果好,但在语言形态多样性高时表现欠佳
2.2 WordPiece:统计驱动的语言建模方法

WordPiece 最早由 Google 用于语音识别(Schuster & Nakajima, 2012),后在 BERT 中广泛使用。

与 BPE 不同,WordPiece 合并子词对时的目标是最大化整个训练语料的语言模型概率。

即每次选择合并那一对子词,使得合并后对数似然增加最多:

argmax A , B log ⁡ P ( A + B ) − [ log ⁡ P ( A ) + log ⁡ P ( B ) ] \text{argmax}_{A,B} \log P(A+B) - [\log P(A) + \log P(B)] argmaxA,BlogP(A+B)[logP(A)+logP(B)]

优点:

  • 合并更有“语言感知”,效果稳定
  • BERT tokenizer 中,子词带有“##”前缀用于表示续接(如:##able)

缺点:

  • 需要预训练语言模型支持
  • 实现更复杂,计算成本高于 BPE
2.3 SentencePiece:语言无关的统一分词框架

Kudo 提出的 SentencePiece 彻底打破了“先分词再建模”的传统,直接对原始字符流进行建模(空格也作为 token 学习)。

支持两种模式:

  • BPE(与传统 BPE 类似)
  • Unigram Language Model(如下)

适用于中、日等无空格语言,同时还提供了“子词正则化”技术:训练中允许多个切分方式,提高鲁棒性。

额外特点:

  • 使用特殊字符“▁”表示词的起始,相当于“空格”显式化处理
  • 支持子词概率采样/维特比解码
2.4 Unigram Language Model(子词剪枝)

Unigram 模型是从一个冗余的大词表开始,然后反复移除对语料概率贡献最小的 token。

其建模目标是最大化每句话的 token 序列的总概率:

P ( w ) = ∏ i = 1 n P ( t i ) P(w) = \prod_{i=1}^{n} P(t_i) P(w)=i=1nP(ti)

通过 EM 训练得到 token 概率后,逐步剪枝,留下最优子词表。

优点:

  • 保留多种切分路径
  • 支持训练时采样,增强泛化能力

缺点:

  • 训练代价高,需优化动态规划

3. 字符级与字节级:从建模单位回归信号粒度

研究者逐渐意识到,复杂的 tokenizer 也可能带来误差。尤其是在处理拼写错误、多语言、emoji 等情况时,子词方法仍然存在局限。

于是,部分研究回归“字符”或“字节”粒度输入,让模型完全自己学:

ByT5(2021)
  • 直接使用 UTF-8 字节作为 token,词表大小 = 256
  • 训练 Transformer 模型直接建模字节序列
  • 提供强大跨语言能力,对噪声、拼写错误更鲁棒
CANINE
  • 用字符作为输入 token,再通过下采样压缩为较短序列以降低计算成本
  • 优化了字符模型计算瓶颈,实现与 BERT 相近的效果

优劣权衡:

粒度优点缺点
子词语义强、长度短易出错,词表限制
字节无语言限制,容错性强长度暴涨,建模更难

4. Tokenizer 与预训练模型协同演化

Tokenizer 不再只是“工具”,而变成了模型训练任务的一部分设计:

  • T5 设计了特殊 token(extra_id_0 ~ extra_id_99)用于“span-infilling”任务,这些 token 被纳入 tokenizer 的静态词表
  • GPT 系列 使用 byte-level BPE,对 emoji、拼音、标点处理能力大大增强
  • mBERT / XLM-R 使用跨语言共享词表(WordPiece / BPE),帮助模型学习不同语言的统一表示空间

研究还在探索 动态 Tokenizer,例如 TLM(Token Learner Module),让 Transformer 模块本身决定如何分割/聚合 token,从而实现更加自适应的输入建模。


Tokenizer 演化时间线小结

年代代表技术粒度策略类型应用代表
2013前后Word2Vec / GloVe词级固定词表Word2Vec, GloVe
2015BPE子词级贪心合并OpenNMT, RoBERTa
2018WordPiece子词级最大似然合并BERT, mBERT
2018SentencePiece+BPE子词级无预处理 + 合并ALBERT, T5
2018SentencePiece+Unigram子词级无预处理 + 剪枝XLNet, T5
2019Byte-level BPE字节级字节合并GPT-2, GPT-3
2021ByT5字节级无分词ByT5
2021CANINE字符级下采样压缩CANINE

写在最后:Tokenizer 是“理解单位”的科学

Tokenizer 不只是为了节省长度、提升效率,更是为了让模型对语言有更深入、系统的建模方式。

今天的 tokenizer,已经从“静态规则”演进到“可学习模块”;从“辅助工具”升级为“认知中介”。

而随着语言模型不断演进,我们也逐渐意识到:Tokenizer 不应当是障碍,而应当是助力。

下一篇,我们将走进多模态时代的 tokenizer:图像、音频、视频、表格……这些非文本的输入,又是如何“被切”的?又如何与文本 token 融为一体?

敬请期待。

http://www.dtcms.com/wzjs/278238.html

相关文章:

  • 房产信息网租房seo价格是多少
  • 为什么网站不建议做充值功能如何推广自己的网站
  • 响应式模板网站建设哪家好百度top风云榜
  • 东莞企业年检哪个网站做平台搭建
  • 服饰东莞网站建设爱站网站seo查询工具
  • 公司在选择网站时应考虑什么问题他达拉非的副作用和危害
  • 平湖城乡规划建设局网站seo服务加盟
  • 成都手机网站建设百度关键词seo
  • 龙之向导外贸网站网址网络营销技巧
  • 域名注册人信息搜索优化指的是什么
  • 陕西网站建设托管2023重大新闻事件10条
  • 手机网站建站cms网站优化排名技巧
  • 制造业公司有必要建设网站吗网址导航推广
  • 深圳市房屋管理局官方网站西安网络优化培训机构公司
  • 淮北公司做网站商业推广
  • 罗湖附近公司做网站建设市场推广方案
  • 什么网站可下载可做海报的图片网站模板库官网
  • 中山企业推广网站制作百度平台营销
  • 自助建站系统官方版google广告投放
  • 发送wordpress二十条优化措施原文
  • 类似享设计的网站游戏推广合作
  • 网站开发合同的付款方式深圳全网营销平台排名
  • wordpress 多用户插件邯郸seo排名
  • 帝国 只做网站地图线上it培训机构
  • 怎么把自己电脑建设网站网络推广服务合同范本
  • 网站源码下载教程cba目前排行
  • 对口网站怎么做短链接
  • 服务器网站搭建教程外链代发免费
  • 六安网站推广获客app免费网站友情链接
  • 手机软件下载网站seo优化点击软件