当前位置: 首页 > news >正文

【论文阅读】Gradient Guidance for Diffusion Models:An Optimization Perspective

扩散模型的梯度引导:一种优化视角。

code:https://github.com/yukang123/GGDMOptim

paper:https://proceedings.neurips.cc/paper_files/paper/2024/file/a5059a9a389ccc76da85760ea79490d8-Paper-Conference.pdf

前置知识:

生成扩散模型漫谈(五):一般框架之SDE篇 - 科学空间|Scientific Spaces
笔记|Score-based Generative Models(二)基于 SDE 的模型 | 極東晝寢愛好家

笔记|Score-based Generative Models(一)基础理论 | 極東晝寢愛好家

(99+ 封私信 / 80 条消息) 论文讲解(21):Gradient Guidance for Diffusion Models: An Optimization Perspective - 知乎

讲的都很好,可以看口味自行选择~

太长不看的总结:这篇论文把“在扩散模型采样时加上梯度引导”的经验做法,用优化理论重新解释为一个“正则化优化过程”,并提出了一个新的、理论可证的梯度引导设计(Gloss),既能提升目标函数,又不会破坏生成样本的结构。目前的风格化/personalized做法一般是两种:

  1. 微调 (fine-tuning):改模型权重(成本高、容易忘掉原分布)。

  2. 引导 (guidance):在推理时,给反向采样过程加一个“梯度信号”去引导生成。

作者的核心想法:把引导理解为“带正则的优化”。加梯度引导的扩散采样 ≈ 在优化一个带先验约束的目标函数Gloss。

Abstract

研究“梯度引导”的扩散采样:在不改动预训练扩散模型权重的前提下,向反向采样过程注入来自外部目标函数的梯度信号,使生成样本在保持数据潜在结构的同时,优化目标。作者提出:

  • 理论上,梯度引导的扩散采样等价于在预训练数据所施加的“先验正则”下,求解一个正则化优化问题的采样解。这解释了为何仅靠引导无法“无限制地”优化目标——预训练分布构成了硬约束/软正则。

  • 设计上,直接对带噪样本加外部目标梯度不可取,会破坏结构;改用一种基于前瞻预测损失(look-ahead / forward prediction loss)的引导,能够利用已学得的 score 信息,并在理论上保持潜在低维子空间结构(定理1)。

  • 进一步提出迭代自适应版本:在生成新样本的同时,同时更新“引导”与“score 网络”(类似一阶优化),当目标是凹函数时,期望意义下可达Õ(1/K) 收敛到全局最优(定理3)。

1 Introduction

动机:扩散模型(score-based 生成)强在灵活可控。控制路径主要有两条:微调推理引导。微调会改权重;引导则在推理期施加方向信号。早期方法有Classifier GuidanceDPS(Diffusion Posterior Sampling,训练无关、直接用损失梯度作引导)。尽管大量实证有效,但缺乏统一的优化理论
作者聚焦四问:

  1. 为什么“对带噪样本直接加目标梯度”常常失败?
  2. 如何在不牺牲样本质量/结构的前提下提升目标?
  3. 能否证明被引导的样本具备优化性质?
  4. 适配性的极限是什么(仅靠引导能到哪一步)?

2 Related Works

  • Classifier / Training-free Guidance:从需要时变分类器的引导,到训练无关、以外部损失梯度直接引导的路线;本文与之相似但首次给出严格理论并提出迭代算法。

  • 微调(Fine-tuning):RL-based 或直接对 reward 反传,常成本高且易灾难性遗忘;本文首要方案为训练无关引导,并在第6节再讨论自适应微调

  • 扩散理论:既有工作多针对无条件/条件扩散的统计逼近理论;本文新意在于把“梯度引导的采样过程”与“近端/一阶优化步骤”建立等价联系

3 Preliminaries: Diffusion Models and Guidance

回顾扩散模型的正/反向过程、score 学习(DSM),以及如何在反向采样里加入“引导”(guidance)。

Forward Process

Backward Process

Score Matching

Generation & Guided Generation

目标条件分布与 Bayes 分解

4 A Primer on Gradient Guidance

4.1 Structural Data Distribution with Subspace

4.2 Naive Gradient Doesn’t Work(朴素梯度失效)

4.3 从条件 score 出发的“结构保持”引导

据此,作者提出通用版的“前瞻损失”引导:

4.4 Gloss的估计与实现

5 Gradient-Guided Diffusion Model as Regularized Optimizer

(把“梯度引导的扩散模型”视为一个带先验正则的优化器)

核心结论(本节要点):

  1. 迭代式的梯度引导能持续提高目标函数值;

  2. 预训练扩散模型(通过其 score)在优化视角下等价于对解施加了分布先验的正则化,因此只能收敛到“被正则化的最优”(不是无正则的全局最优)。

5.1 用预训练 score 的梯度引导生成(Algorithm 1)

5.2 收敛到子空间内的“正则化最优

6 Gradient-Guided Diffusion with Adaptive Fine-Tuning for Global Optimization

动机:第5节说明了“只有引导”会被预训练先验束缚在正则化解附近。若想要真正的全局最优,就必须动 score(即微调模型),弱化这种束缚。

6.1 带梯度引导的自适应微调(Algorithm 2)

6.2 收敛到无正则的全局最优(在子空间内)

SDE 方程 vs DDPM

总结一句话:

DDPM 是 Score-based SDE 的离散版本;SDE 是 DDPM 的连续极限。

http://www.dtcms.com/a/596417.html

相关文章:

  • WebSocket调试工具(html),用于调试WebSocket链接是否畅通
  • Springboot3.X+security6.5+jdk21
  • 中文企业网站设计欣赏宁波网站建设方案联系方式
  • Vue2 入门到实战(day2):计算属性、监视属性、样式绑定与条件渲染(附代码案例)
  • C语言位运算深度应用:嵌入式硬件寄存器控制与低功耗优化实践
  • 深圳建立网站营销用动易建设网站教程
  • 京东后端架构技术,Pipline 设计 解决复杂查询逻辑
  • 《STM32 江湖 SPI 双绝:硬件外设与软件模拟的深度解析》
  • Docker学习笔记---day002
  • F280049C学习笔记之X-BAR
  • Python基础教学:Python的openpyxl和python-docx模块结合Excel和Word模板进行数据写入-由Deepseek产生
  • WebSocket原理及实现详解
  • 网站建设与管理吴振峰pptapp的制作需要多少钱
  • 优雅与极简:将你的屏幕变成复古翻页钟——Fliqlo for Mac 完全指南
  • wsl ubuntu24.04 cuda13 cudnn9 pytorch 显卡加速
  • macos安装mysql
  • 解决 iPhone 和 Mac 之间备忘录无法同步的9种方法
  • 【Ubuntu系统开机后出现:GNU GRUB ,Advanced options for Ubuntu】
  • 江西省建设监督网站电子网特色的企业网站建设
  • Mac上DevEco-Studio功能/使用介绍
  • Redis 配置详解
  • Mac 下载 VMware 11.1.0-1.dmg 后如何安装?超简单教程
  • mac怎么卸载office Powerpoint
  • dz论坛做分类网站wordpress git 7.5
  • Java 大文件上传实战:从底层原理到分布式落地(含分片 / 断点续传 / 秒传)
  • 有趣的网站网址之家wordpress网站中英文切换
  • 「腾讯云NoSQL」技术之Redis篇:精准围剿rehash时延毛刺实践方案揭秘
  • 中控播控系统:一键掌控多媒体空间
  • 遗传算法与粒子群算法优化BP提高分类效果
  • c++ -- 循环依赖解决方案