当前位置: 首页 > wzjs >正文

如何能让企业做网站的打算小程序免费制作平台有赞

如何能让企业做网站的打算,小程序免费制作平台有赞,wordpress 添加点赞,五个常见的电子商务网站以下是对“理解 Token 索引与字符位置的区别”的内容整理,条理清晰,结构完整,保持技术细节,方便阅读,无多余解释: 🔍 理解 Token 索引 vs 字符位置 文本分块方法中返回的索引是 token 索引&…

以下是对“理解 Token 索引与字符位置的区别”的内容整理,条理清晰,结构完整,保持技术细节,方便阅读,无多余解释:


🔍 理解 Token 索引 vs 字符位置

文本分块方法中返回的索引是 token 索引,而不是原始文本中的字符位置。理解这一点对正确使用和调试文本处理流程至关重要。


📄 原始文本与 Tokenization 的区别

示例文本

"人工智能正在改变世界。"

字符位置(原始文本)

字符
位置012345678910

Token 位置(tokenizer 处理后)

Tokens = ["人", "工", "智", "能", "正", "在", "改", "变", "世", "界", "。"]
索引 =   [0,   1,   2,   3,   4,   5,   6,   7,   8,   9,   10]

🔢 各分块方法的返回值示例


1️⃣ 语义分块(chunk_semantically)

text = "人工智能正在改变世界。它使得许多任务自动化。"

Tokenizer 分词结果:

Tokens = ["人", "工", "智", "能", "正", "在", "改", "变", "世", "界", "。","它", "使", "得", "许", "多", "任", "务", "自", "动", "化", "。"]
索引 =    [0,   1,   2,   3,   4,   5,   6,   7,   8,   9,   10,11,  12,  13,  14,  15,  16,  17,  18,  19,  20,  21]

假设返回值为:

[(0, 11), (11, 22)]

表示:

  • 第1块:token索引 0-10,“人工智能正在改变世界。”
  • 第2块:token索引 11-21,“它使得许多任务自动化。”

2️⃣ 固定大小分块(chunk_by_tokens)

text = "人工智能正在改变世界。它使得许多任务自动化。"
chunk_size = 5

返回值示例:

[(0, 5), (5, 10), (10, 15), (15, 20), (20, 22)]

表示:

  • 第1块:token索引 0-4,“人工智能正在”
  • 第2块:token索引 5-9,“改变世界。”
  • 第3块:token索引 10-14,“它使得许多”
  • 第4块:token索引 15-19,“任务自动化”
  • 第5块:token索引 20-21,“。”

3️⃣ 按句子分块(chunk_by_sentences)

text = "人工智能正在改变世界。它使得许多任务自动化。我们需要适应这些变化。"

Tokenizer 分词结果假设为:

句子1"人工智能正在改变世界。" → token索引 0~10  
句子2"它使得许多任务自动化。" → token索引 11~21  
句子3"我们需要适应这些变化。" → token索引 22~33

设置每个块 1 个句子,返回值:

[(0, 11), (11, 22), (22, 34)]

❓ 为什么返回 token 索引?

原因说明
✅ NLP 模型处理的是 token模型输入必须是 token 序列,不能直接处理原始字符
✅ 精确控制长度Token 数量直接决定能否通过模型输入限制(如 BERT 的 512 token)
✅ 对齐后续处理流程向量化、分块拼接、交叉注意力等操作都基于 token 索引进行

🔁 实际代码中的字符位置 → Token 索引映射

部分关键转换流程如下:

# 从 splitter 获取字符级位置
nodes = [(node.start_char_idx, node.end_char_idx)for node in self.splitter.get_nodes_from_documents(...)
]# token_offsets 是 tokenizer 返回的每个 token 的字符起止位置
start_chunk_index = bisect.bisect_left([offset[0] for offset in token_offsets], char_start
)
end_chunk_index = bisect.bisect_right([offset[1] for offset in token_offsets], char_end
)

最终输出的 (start_chunk_index, end_chunk_index) 就是基于 tokenizer 的 token 索引范围

http://www.dtcms.com/wzjs/584832.html

相关文章:

  • 大众汽车网站建设国内最大的域名交易平台
  • 怎么选择做网站的公司柳州电商网站建设
  • 手机网站图片点击放大沧州网络营销网络宣传业务
  • 如何登录百度站长平台wordpress主页修改
  • 如何做自己的淘客网站做网站多少钱_西宁君博相约
  • 商丘网站建设想象力网络广州网站推广奋
  • 境外 网站网站phpwind 转wordpress
  • 个人网站名称网站优化长沙
  • 做网站接私活价格怎么算05网英语书
  • 网站建设服务器租用多少钱为企业做贡献
  • 合肥企业网站建设wordpress 做图片站
  • 有空间怎么做网站wordpress插件图片无法加载
  • 石家庄网站托管企业网站建设博客论坛
  • 河北建设厅网站查询辽宁建设工程信息网官网新域名
  • 建网站素材成都建设材料二维码网站
  • 网站邮件设置方法中国沈阳网站在哪里下载
  • ftp如何修改网站备案号公司管理app有哪些
  • 广州网站建设oem购物网站建设需要公司营业执照吗
  • 湛江市律师网站建设品牌宿迁房产网签合同查询
  • 功能类网站网站留言板怎么做php
  • 怎么修改网站关键词网站开发的框架
  • 网站建设kaicz做网站 大文件
  • 网站科普信息化建设的意义站长之家seo查询官方网站
  • 做商城网站需要准备那些提供wordpress空间
  • 陕西省建设监理协会官网站上海二手房网站
  • 徐州cms建站专教做美食的网站
  • 网站开发保密协议 doc40岁了开始学室内设计
  • 东莞最新网站建设软件网站后台导入excel表格
  • 网站建设业务员在哪里接单怎样做网站赚点击量的钱
  • 2021网站无需下载急急急wordpress换头像不显示不出来