当前位置: 首页 > news >正文

论文略读:Uncovering Hidden Representations in Language Models

202502 arxiv

说一下主要结论吧

  • 对于下游任务,语言模型的中间层在所有架构和任务中始终优于最后一层
    • 这挑战了使用最后一层表示的传统观点。
  • 不同的架构表现出不同的信息压缩模式。自回归模型在中间层存在瓶颈,而双向模型则保持更均匀的趋势
      • BERT通过双向编码整个输入,通常在各层之间保持较高的熵值,这表明压缩较少
        • 模型可以一次看到所有的token,因此不需要丢弃太多信息
      • 只有解码器的Pythia展示出一个明显的中层熵值下降
        • 反映出其自回归目标在网络中部倾向于过滤或剪枝非本地细节
        • 因此,Pythia的“最佳状态”通常位于中间深度,在这里它平衡了必要的上下文和压缩
      • Mamba通过状态空间方法处理序列,导致其在深度上的曲线更为平坦和均匀
        • 它既不像BERT那样保持大量信息,也不像Pythia的中间层那样进行激烈的压缩
  • 较大的decoder-only模型表现出更明显的中间压缩
    • 这表明它们在提炼相关特征方面的能力增强
  • 不同Transformer子组件对于信息压缩的影响不一样
    • 通过在每个子层后测量熵值,发现残差连接驱动了中间网络压缩
      • 在残差之前的子层(例如预注意力、原始注意力或MLP预残差输出)通常表现出较轻微的压缩;它们的表示仍然保留了大部分原始变异性。
      • 残差子层则表现出明显的熵值下降,反映出显著的信息过滤。
      • ——>表明残差连接作为一种正则化器或“噪声过滤器”,有助于平滑隐藏表示中的虚假成分
  • 连锁思维(CoT)微调使模型能够在整个层中保持更丰富的上下文
    • CoT微调促使模型在其隐藏层中保持更多的上下文,从而能够更好地进行多步推理

相关文章:

  • 使用IDEA提交SpringBoot项目到Gitee上
  • 算法日记25:01背包(DFS->记忆化搜索->倒叙DP->顺序DP->空间优化)
  • 组合优化问题的机器学习研究——以图匹配问题为例
  • 二叉树(中等题)
  • AI赋能传统系统:Spring AI Alibaba如何用大模型重构机票预订系统?
  • 3.3.2 交易体系构建——缠论操作思路
  • Ubuntu 下 nginx-1.24.0 源码分析 - ngx_array_push
  • MySQL后端返回给前端的时间变了(时区问题)
  • 【Qt学习】| 如何使用QVariant存储自定义类型
  • Web Worker终极优化指南:4秒卡顿→0延迟的实战蜕变
  • PTA:有序顺序表的插入
  • SSH无密登录配置
  • 2012年IMO几何预选题第6题
  • 《游戏人工智能编程 案例精粹》阅读心得
  • PHP课程预约小程序源码
  • sprintf和sscanf的用法和区别
  • Debezium系列之:记录一次源头数据库刷数据,造成数据丢失的原因
  • RoboBERT:减少大规模数据与训练成本,端到端多模态机器人操作模型(西湖大学最新)
  • MySQL-慢SQL解析及调试分析思路
  • go channel 的用法和核心原理、使用场景
  • 国台办:民进党当局刻意刁难大陆配偶,这是不折不扣的政治迫害
  • 经济日报:美国滥施汽车关税损人不利己
  • 国务院关税税则委:调整对原产于美国的进口商品加征关税措施
  • 英国收紧移民政策,技术工作签证、大学招生面临更严要求
  • 人民日报钟声:通过平等对话协商解决分歧的重要一步
  • 波兰关闭俄罗斯驻克拉科夫领事馆