当前位置: 首页 > wzjs >正文

换了家公司做网站如何接入备案1024d wordpress

换了家公司做网站如何接入备案,1024d wordpress,WordPress无法自动推送,网站开发建设推荐用书摘要:我们提出了THINKPRUNE,这是一种简单而有效的方法,用于缩短长思考型大语言模型(LLMs)的思考长度。这些模型被发现常常会产生低效且冗余的思考过程。现有的关于减少思考长度的初步探索主要集中在迫使思考过程提前结…

摘要:我们提出了THINKPRUNE,这是一种简单而有效的方法,用于缩短长思考型大语言模型(LLMs)的思考长度。这些模型被发现常常会产生低效且冗余的思考过程。现有的关于减少思考长度的初步探索主要集中在迫使思考过程提前结束,而不是让LLMs去优化和整合思考过程,因此到目前为止观察到的长度与性能之间的权衡是次优的。为了填补这一空白,THINKPRUNE提供了一个简单的解决方案,即通过强化学习(Reinforcement Learning, RL)持续训练长思考型LLMs,并附加一个标记限制,超出该限制的任何未完成的思考和答案都将被丢弃,从而得到零奖励。为了进一步保留模型性能,我们引入了一种迭代长度修剪方法,即进行多轮强化学习,每轮的标记限制都更加严格。我们观察到,THINKPRUNE实现了显著的性能与长度权衡——在AIME24数据集上,DeepSeek-R1-Distill-Qwen-1.5B的推理长度可以减少一半,而性能仅下降2%。我们还观察到,在修剪后,LLMs可以跳过不必要的步骤,同时保持核心推理过程的完整性。

本文目录

一、背景动机

二、核心贡献

三、实现方法

3.1 强化学习与长度限制

3.2 迭代修剪策略

四、实验结论

4.1 推理长度显著减少

4.2 性能保持或提升

4.3 推理行为优化

五、总结


一、背景动机

论文题目:ThinkPrune: Pruning Long Chain-of-Thought of LLMs via Reinforcement Learning

论文地址:https://arxiv.org/pdf/2504.1296

大模型(LLMs)通过强化学习进行推理扩展时,其在推理能力上取得了显著进展。然而,这些模型在推理过程中往往会产生大量的冗余和低效的推理步骤,导致推理链过长,增加了计算和内存开销。

现有的减少推理长度的方法主要集中在强制推理过程提前退出(budget-forcing),而不是优化和整合推理过程。这种方法在预算较低时会导致显著的性能下降,因为模型无法完成其推理过程。

因此文章提出了ThinkPrune方案,即通过强化学习持续训练长思考型LLMs,并附加一个标记限制,超出该限制的任何未完成的思考和答案都将被丢弃,从而得到零奖励。

二、核心贡献

  • THINKPRUNE 方法:提出了一种简单而有效的推理长度修剪策略,通过在强化学习训练中引入最大生成长度限制,迫使模型在有限的 token 数量内完成推理。
  • 迭代修剪策略:为了更好地保持模型性能,THINKPRUNE 采用了迭代修剪方法,通过多轮强化学习逐步收紧长度限制。
  • 推理行为分析:通过分析修剪后的推理链,发现模型能够跳过不必要的步骤,同时保持核心推理过程的完整性。

三、实现方法

3.1 强化学习与长度限制

ThinkPrune 的核心思想是通过强化学习(RL)训练模型,使其在有限的 token 数量内完成推理。

  • 奖励函数设计

    • 设定一个最大长度限制 L,如果模型生成的输出超过这个限制,超出部分将被丢弃,并且模型将获得零奖励。

  • 系统提示

    • 在训练中,为了明确告知模型长度限制,在每个训练样本中添加了一个系统提示。这个提示帮助模型理解其输出长度的限制。

3.2 迭代修剪策略

为了更好地保持模型性能,THINKPRUNE 采用了迭代修剪方法,逐步收紧长度限制。

  • 长度限制调度

    • 设定一个目标长度限制 L∗,并设计一个长度调度表 L1​>L2​>⋯>L∗。

    • 从 L1​=4000 开始,逐步减少到 L2​=3000,再到 L3​=2000。

  • 多轮强化学习

    • 在每一轮迭代中,使用当前的长度限制 Lt​ 进行强化学习训练。

    • 从上一轮训练得到的模型 θt−1​ 开始,继续训练得到新的模型 θt​。

    • 这种逐步收紧长度限制的方法允许模型逐步适应更严格的长度限制,同时尽量减少性能损失。

  • 停止准则

    • 在每一轮训练中,使用验证集(如 AIME22 和 AIME23 数据集)来选择最佳检查点。

    • 允许模型在验证集上的性能相对下降不超过 10% 的 pass@1 准确率。

    • 在满足上述条件的检查点中,选择平均输出长度最短的检查点作为下一轮训练的起点。

四、实验结论

4.1 推理长度显著减少

THINKPRUNE 在多个模型上实现了显著的推理长度减少。对于 DeepSeek-R1-Distill-Qwen-1.5B 模型,平均生成长度从 10,355 个 token 减少到 3,574 个 token。

4.2 性能保持或提升

尽管推理长度显著减少,但模型的平均准确率在多个数学基准测试中保持不变或有所提升。对于 DeepSeek-R1-Distill-Qwen-1.5B 模型,其原始模型平均准确率为 56.8%,经过 THINKPRUNE 修剪后,平均准确率提升到 57.4%,提升了 1.1%

4.3 推理行为优化

  • 关键词频率变化

    • 修剪后,模型减少了犹豫和自我纠正的步骤(如“Wait”、“But wait”等),同时保持了核心推理步骤(如“Computing or Simplifying Expressions”)的频率。

  • 推理行为变化

    • 通过 GPT-4o 分析推理链,发现修剪后模型减少了冗余步骤(如“Reassess and Verify Previous Reasoning”),同时增加了核心问题解决步骤(如“Applying Known Theorems/Properties”)的比例。

  • 可读性评估

    • 修剪后模型的推理链保持了良好的可读性,困惑度与原始模型相近。

五、总结

THINKPRUNE 提供了一种有效的方法来减少大型语言模型的推理长度,同时保持或提升性能。通过在强化学习中引入长度限制,并采用迭代修剪策略,THINKPRUNE 能够优化模型的推理过程,去除冗余步骤,提高推理效率。

http://www.dtcms.com/wzjs/618693.html

相关文章:

  • 饮料网站建设做网站用的军事图片
  • 高校健康驿站建设指引软件开发者是指
  • 响应式网站开发需要的条件美橙互联网站建设案例
  • 电子商务网站的建站目标长治门户网
  • 四川建设厅官方网站查询开个大型购物网站需要多少钱
  • 网站如何做流量赚钱美食网站建设的内容分析
  • 宣传型企业网站免费查公司的网站
  • 新时代文明实践站模板学生个人网页制作简单教程
  • 婚恋网站做翻译网站简历文字如何空行
  • 国外搜索网站建设营销策划的重要性
  • 网站首页设计图焦作网站开发公司
  • ppt模板去哪个网站下载瀑布流 网站 php 源码
  • 网站地图提交空间 网站都有 肿么做网站
  • 免费seo网站自助建设响应式网站
  • 网站云主机深圳专业网站建设产品运营之中的广度讲解
  • 做简历比较好的网站叫什么关于旅行的网站怎样做
  • 郑州公司网站建设哪家好广州建筑集团官网首页
  • 餐饮公司网站模板下载怎样做旅游摄影网站
  • 域名访问不了织梦网站新商盟网站开发时间
  • 西安网站开发公司排名Wordpress插件授权破解
  • 数据库修改网站管理员密码wordpress hero theme
  • c 可以做网站吗企业网站模板源码有哪些
  • 福田网站建设方案费用wordpress底部悬浮菜单
  • 广州有哪些网站建设网站备案主体信息变更
  • 宁城网站建设公司wordpress网站打开很慢
  • 在哪个网站上做预收款报告传媒网站如何设计
  • 网站备案是在哪个部门公司注册网上怎么申请核名
  • 苏州建站免费模板南涧县城乡建设局网站
  • 南京软月网站建设公司gps建站教程视频
  • 织梦网站首页打开慢鲤城网站建设推广服务公司