当前位置: 首页 > news >正文

LLM论文笔记 24: A Theory for Length Generalization in Learning to Reason

  • Arxiv日期:2024.7.29
  • 机构:University of Illinois Chicago

关键词

  • 长度泛化
  • 理论证明

核心结论

  • Theorem 3.1:因果函数的学习条件

    • 因果函数 f 是完全可学习的(输入空间有限、因果函数输入维度有限),即可以通过有限的训练数据准确地学习到目标函数

  • Corollary 3.1.1:数据覆盖不足的影响

    • 训练数据未覆盖输入空间 X 的所有可能值,模型可能无法正确预测未知输入上的因果关系

  • Corollary 3.1.2:输入空间无限的后果

    • 如果输入空间 X 或输入维度是无限的,无论训练数据集有多大,模型在未知输入上的误差总是可能任意大

  • Theorem 3.2:递归推理与长度泛化

    • 如果因果函数 f 被完全学习,推理问题可以表示为有向无环图(DAG),则通过递归地应用 f ,可以解决任意长度或规模的问题

    • 训练中仅见过小规模问题的模型可以泛化到更长的推理任务

  • Theorem 3.3:局部性条件与滑动窗口机制

    • 滑动窗口是解决长度泛化问题的充分条件

    • 如果推理问题的最大输入元素距离 R < ∞ ,并且训练数据包含所有长度为 4R+1 的子序列(可以通过滑动窗口(长度为 4R+1 )唯一确定下一步推理的输入)

  • Definition 3.3:well-defined 的因果输入恢复

    • 如果推理问题是 (n, r) -一致的,可以定义一个函数 \gamma ,通过 n 个长度为 r 的子序列唯一恢复当前推理步骤所需的因果输入

  • Theorem 3.5:从 R < ∞ (1, 4R+1) -一致性

    • 如果 R < ∞ 且每个输入元素最多参与一个推理步骤,则问题是 (1, 4R+1) -一致的

  • Theorem 3.6:因果输入的可恢复性

    • 如果问题是 (n, r) -一致的:

      • 可以通过 n 个长度为 r 的子序列恢复推理步骤中所有的因果输入。

      • 因果输入集合 S_{\hat{g}}(s_0) 是well-defined 的,并可以通过函数 \gamma 唯一确定。

  • Theorem 3.7: \gamma 的学习性

    • 如果问题是 (n, r) 一致的,函数 \gamma 可以通过有限训练数据学习。

主要方法

注:本系列不包括基础的知识点讲解,为笔记/大纲性质而非教程,用于论文知识点和思想和快速记忆和回顾,更多细节建议阅读论文原文

相关文章:

  • AJAX PHP:深入理解与实际应用
  • 【WEB APIs】DOM-节点操作
  • 本地部署Deep Seek-R1,搭建个人知识库——笔记
  • Spring Boot使用线程池创建多线程
  • 人工智能驱动数字孪生城市的实践探索
  • 《AI生成文章SEO 长尾关键词下拉词相关词抓取工具 SEO 裂变工具:高效驱动网站流量增长》
  • qq音乐 webpack 补环境
  • Unity3D仿星露谷物语开发31之设置地面属性方法探索
  • K8S学习之基础三十一:k8s中RBAC 的核心概念
  • MySQL的行级锁锁的到底是什么?
  • 深入探讨RAID 5的性能与容错能力:实验与分析(磁盘阵列)
  • 深入理解 IP、子网掩码、端口号和协议
  • 快速上手网络通信 -- Qt Network应用开发
  • vulhub/log4j2漏洞靶场----反弹shell
  • centos7安装时采用的默认分区(比如:/dev/sda3的对应挂载点是/),如何对系统扩容?
  • python的基本运用(六)(自定义函数def)
  • 特殊 IP 地址
  • 机器人交社保属于“无稽之谈”?
  • GAN生成对抗网络小记
  • 【leetcode100】括号生成
  • 跨越时空的“精神返乡”,叶灵凤藏书票捐赠上海文学馆
  • 第一集|《刑警的日子》很生活,《执法者们》有班味
  • 视频丨习近平主席出席俄方在机场举行的迎宾仪式
  • 吴清稳市场稳预期发布会十要点:谈平准基金、股市稳定、公募改革和巴菲特
  • 外交部:解放军参加红场阅兵体现了中方对历史的尊重和铭记
  • 俄乌交换205名被俘人员,俄方人员已抵达白俄罗斯