当前位置: 首页 > news >正文

DAPO:用于指令微调的直接偏好优化解读

一、背景与动机:从RLHF到DPO,再到DAPO

大型语言模型(LLM)经过海量无监督预训练后,往往需要对齐人类偏好遵循指令的微调,使模型的回答更符合人类期望。这一过程通常通过人类反馈强化学习(RLHF)来实现。例如OpenAI的ChatGPT就使用了RLHF:先让人工标注对模型输出进行偏好排序,训练一个奖励模型(Reward Model)去评估输出好坏,然后采用近端策略优化(PPO)等强化学习算法,让模型(策略)最大化这个奖励模型的评分【注:PPO是一种约束更新幅度的策略梯度算法,在RLHF中被广泛采用】。RLHF在提升模型可控性和符合人意方面效果显著,但也存在流程复杂、训练不稳定等问题:需要训练额外的奖励模型,调参繁琐,还可能出现“奖励模型欺骗”或输出分布坍塌等现象。

直接偏好优化(DPO)的提出正是为了解决上述一些问题。2023年,一些研究者发现可以跳过显式的强化学习过程,直接利用偏好数据来微调模型,使其倾向人类偏好的回答。简单来说ÿ

相关文章:

  • 让数据驱动增长更简单! ClkLog用户行为分析系统正式入驻GitCode
  • 人工智能重塑医疗健康:从辅助诊断到个性化治疗的全方位变革
  • 物联网安全技术的最新进展与挑战
  • 深入理解仿函数(Functors):从概念到实践
  • java.io.IOException: Broken pipe \ 你的主机中的软件中止了一个已建立的连接
  • 【Python训练营打卡】day30 @浙大疏锦行
  • HarmonyOS:使用PickerController将编辑后的图片替换原图
  • GloVe 模型讲解与实战
  • 自动化测试框架搭建步骤
  • 分组背包问题:如何最大化背包价值?
  • NC105NC106美光固态颗粒NC108NC109
  • FD+Mysql的Insert时的字段赋值乱码问题
  • 论坛系统(中-2)
  • Java转Go日记(三十九):Gorm查询
  • Python Day26 学习
  • sherpa-ncnn:音频处理跟不上采集速度 -- 语音转文本大模型
  • 前缀和——和为K的子数组
  • 【Unity网络编程知识】Unity的 WWW相关类学习
  • 基础深度补全模型DepthLab: From Partial to Complete
  • Python训练第三十天
  • 财政部:4月份中央收入增长1.6%,今年以来首月实现正增长
  • 中青报聚焦上海社区心理服务:社工介入让居民“心畅”
  • 新华社千笔楼:地方文旅宣传应走出“魔性尬舞”的流量焦虑
  • 墨海军训练舰在纽约撞桥,墨总统:对遇难者表示悲痛,将跟进调查
  • 国际观察丨美中东政策生变,以色列面临艰难选择
  • 上海小学生暑(寒)托班会增设开办期数、延长办班时间吗?团市委回应