深度剖析Diffusion与Transformer在图像生成中的计算逻辑与融合之道
写在前面
人工智能(AI)在图像生成领域持续发展,从模糊的轮廓到如今媲美专业摄影和艺术创作的惊艳作品,背后离不开两大核心技术的驱动:Diffusion模型 和 Transformer模型。它们以各自独特的计算逻辑,在图像的像素级合成与语义理解方面展现出强大威力。更令人兴奋的是,当这两者强强联合,尤其是结合大型语言模型(LLM,通常基于Transformer架构)的语义理解能力,AI图像生成便插上了想象的翅膀。
本文将深度剖析Diffusion和Transformer在图像生成场景的计算逻辑、训练方式、数据格式、优缺点,并探讨大型语言模型如何通过Transformer架构与Diffusion模型结合,实现从文本到图像的创世之旅。
1. Diffusion模型
Diffusion模型(扩散模型)近年在图像生成领域取得了SOTA(State-of-the-Art)的效果,其生成图像的质量和多样性都非常出色。
核心思想:迭代去噪的艺术
想象一下,一张清晰的图片逐渐被添加噪声,直到完全变成随机噪声;反过来,如果我们能学会从完全的随机噪声中,一步步地去除噪声,最终就能还原(或生成)出一张清晰的图片。这就是Diffusion模型的核心思想。它包含两个过程:
- 前向过程 (Forward Process):向真实图像中逐步添加高斯噪声,直到图像变成纯粹的噪声。这个过程是固定的,不需要学习。
- 反向过程 (Reverse Process):从纯噪声开始,通过一个神经网络模型(通常是UNet架构)逐步去除噪声,最终生成清晰图像。这个过程是学习的核心。
计算逻辑:前向加噪与反向生成
前向过程 (Forward Process / Noising Process)
给定一张原始清晰图像 x 0 \mathbf{x}_0 x0,前向过程通过 T T T 个时间步逐步对其添加高斯噪声。在任意时间步 t t t,从 x t − 1 \mathbf{x}_{t-1} xt−1 到 x t \mathbf{x}_t xt 的加噪过程可以表示为:
x t = 1 − β t x t − 1 + β t ϵ t − 1 \mathbf{x}_t = \sqrt{1 - \beta_t} \mathbf{x}_{t-1} + \sqrt{\beta_t} \mathbf{\epsilon}_{t-1} xt=1−βtxt−1+βtϵt−1
其中:
- β t \beta_t βt 是在时间步 t t t 控制噪声大小的超参数(通常是一个预设的、随 t t t 增大的序列,称为variance schedule)。
- ϵ t − 1 ∼ N ( 0 , I ) \mathbf{\epsilon}_{t-1} \sim \mathcal{N}(\mathbf{0}, \mathbf{I}) ϵt−1∼N(0,I) 是从标准正态分布中采样的高斯噪声。
通过一个巧妙的重参数化技巧(reparameterization trick),我们可以直接从 x 0 \mathbf{x}_0 x0 得到任意时刻 t t t 的加噪图像 x t \mathbf{x}_t xt:
x t = α ˉ t x 0 + 1 − α ˉ t ϵ \mathbf{x}_t = \sqrt{\bar{\alpha}_t} \mathbf{x}_0 + \sqrt{1 - \bar{\alpha}_t} \mathbf{\epsilon} xt=αˉtx0+1−αˉtϵ
其中 α t = 1 − β t \alpha_t = 1 - \beta_t αt=1−βt,且 α ˉ t = ∏ i = 1 t α i \bar{\alpha}_t = \prod_{i=1}^t \alpha_i αˉt=∏i=1tαi。 ϵ ∼ N ( 0 , I ) \mathbf{\epsilon} \sim \mathcal{N}(\mathbf{0}, \mathbf{I}) ϵ∼N(0,I) 是新采样的噪声。这个公式非常重要,因为它使得我们可以在训练时随机采样一个时间步 t t t,直接得到对应的加噪图像 x t \mathbf{x}_t xt,而无需从头迭代 t t t 次。
反向过程 (Reverse Process / Denoising Process)
反向过程的目标是学习从 x T \mathbf{x}_T xT(近似纯噪声)逐步恢复到 x 0