当前位置: 首页 > news >正文

《Hiding Images in Diffusion Models by Editing Learned Score Functions》 论文阅读

《Hiding Images in Diffusion Models by Editing Learned Score Functions》

CVPR 2025

Github:https://github.com/haoychen3/DMIH/

论文总览

研究背景与动机

随着扩散模型(Diffusion Models)**在生成式人工智能领域的迅速崛起,研究者开始探索其在安全通信与隐写(steganography)领域的潜力。传统的神经网络隐写主要基于**自编码器结构GANs,在图像与视频等媒介中嵌入秘密信息,但存在三大难题:

  1. 解码器安全性问题 —— 接收方需要安全传输解码网络,存在被截获风险;
  2. 可检测性高 —— 传统隐写会被先进的隐写分析(steganalysis)轻易检测;
  3. 多接收者场景复杂 —— 钥匙管理与多用户隐写难度大。

作者指出,将秘密数据嵌入生成模型参数本身(即神经网络权重)是一个新的方向。这一思路可避开传统隐写分析工具,因为攻击者无法直接从模型输出中辨识出隐写痕迹。
然而,以往在扩散模型上的隐写研究(如TrojDiff, BadDiffusion等)存在严重不足:

  • 重建图像精度不足(PSNR≤25dB);
  • 模型生成质量显著下降(FID劣化超过100%);
  • 训练成本高昂(需全模型微调或重新训练)。

因此,本研究的动机在于:能否在不破坏扩散模型生成质量的前提下,实现高精度、高效率、低干扰的隐写嵌入?

相关工作综述

论文在第2节综述了三个方向的基础:

  1. 神经隐写(Neural Steganography)
    主要包括直接修改模型参数的位、符号或冗余部分等方法(如StegoNet、EvilModel等),但此前鲜有将扩散模型纳入隐写研究。
  2. 扩散模型(Diffusion Models)
    基于噪声逐步添加与去噪的概率生成框架(DDPM, DDIM, EDM等)。相较GANs,扩散模型具备更稳定的训练与更广泛的模态覆盖,是潜在的隐写载体。
  3. 参数高效微调(PEFT)
    包括选择性微调(BitFit, Gradient-based selection)与重参数化微调(Adapters, LoRA, AdaLoRA等)。本研究提出一种混合式PEFT方法,用于在不损伤模型生成能力的前提下实现局部权重编辑。

核心方法与工作流程

论文核心创新在于一种**基于得分函数编辑(Score Function Editing)**的图像隐写方法。整体流程如图1(第3页图示)所示。

1 方法思想

以往方法需在整个反向扩散过程的每个时间步注入触发信号,而作者发现只需在一个特定时间步ts对**得分函数(score function)**进行编辑,即可嵌入秘密图像。

  • 秘钥 Ks = {ks, ts}:ks为随机噪声种子,ts为选择的隐藏时间步。
  • 嵌入函数定义为: fθ~(zs,ts)=1αˉts(zs−1−αˉtsϵθ~(zs,ts))f_{\tilde{\theta}}(z_s, t_s) = \frac{1}{\sqrt{\bar{\alpha}_{t_s}}} (z_s - \sqrt{1-\bar{\alpha}_{t_s}} \epsilon_{\tilde{\theta}}(z_s, t_s))fθ~(zs,ts)=αˉts1(zs1αˉtsϵθ~(zs,ts)) 该函数可在一次“去噪”中重建秘密图像。

这种局部干预的优势是:

  • 几乎不破坏模型原有生成分布;
  • 仅需单步操作,极大提高嵌入效率;
  • 可自然扩展至多接收者场景,每位接收者对应不同秘钥与提取路径。

2 双重损失函数设计

模型通过联合优化两个目标函数:

  1. 提取精度损失(确保还原图像准确):
    ℓa=∣∣fθ(zs,ts)−xs∣∣22\ell_a = ||f_\theta(z_s, t_s) - x_s||_2^2a=∣∣fθ(zs,ts)xs22
  2. 模型保真度损失(保持生成能力不变):
    ℓf=Et∣∣ϵθ(xt,t)−ϵθˉ(xt,t)∣∣22\ell_f = E_t||\epsilon_\theta(x_t,t) - \epsilon_{\bar{\theta}}(x_t,t)||_2^2f=Et∣∣ϵθ(xt,t)ϵθˉ(xt,t)22

总损失为:
ℓ=ℓa+λℓf\ell = \ell_a + \lambda \ell_f =a+λf

参数高效微调(Hybrid PEFT)

为了进一步减少训练代价,论文提出一种混合式参数高效微调机制

  1. 参数敏感性计算(Eq.11):
    通过梯度平方和度量每个参数对隐写任务的影响;
  2. 敏感层选择(Eq.12):
    通过阈值τ筛选并选取最关键的层;
  3. 在敏感层中应用LoRA低秩适配(rank r=64或128):
    将权重分解为可训练低秩矩阵A、B,极大减少参数量(减少86.3%)。

实验设计与结果分析

1 实验设置

  • 模型:DDPM (CIFAR10 32×32, LSUN 256×256)。
  • 对比方法:包括Baluja17、HiDDeN、PRIS、TrojDiff、BadDiffusion、WDM等9种。
  • 评价指标:PSNR、SSIM、LPIPS、DISTS、FID、GPU时耗。

2 主要结果(见表2–3)

  • 提取精度:PSNR达52.9 dB (32×32) 与39.33 dB (256×256),显著领先。
  • 模型保真度:FID几乎未变(原始4.79→4.77),生成样本与原模型几乎一致(见图3)。
  • 隐藏效率:嵌入时间仅需0.04 GPU小时(32×32)和0.18 GPU小时(256×256),比现有方法快50倍。
  • 多图像隐藏(表4):可同时为多接收者嵌入图像,保持高精度与合理的保真度。

3 消融实验(表5–9)

论文进行了系统性验证:

  • **敏感参数迭代次数(N=50)**能平衡性能与成本;
  • **敏感层数量(η=15)**最优;
  • **隐藏步选择(ts)**具有鲁棒性(见图4);
  • PEFT vs 全微调:PEFT仅耗时一半,且FID更优;
  • 噪声鲁棒性与跨模型泛化性:在不同扩散架构(DDPM、DDIM、EDM等)上均稳定。

六、论文优缺点总结

优点

  1. 创新性强 —— 提出了基于得分函数编辑的扩散隐写框架,突破了以往的全链干预模式。
  2. 高效且保真 —— 嵌入过程快速,生成质量几乎不变。
  3. 理论与实践兼具 —— 结合PEFT与LoRA的梯度敏感分析框架,有明确的数学定义与实验验证。
  4. 可扩展性高 —— 支持多用户独立提取通道,具备安全通信潜力。

局限性

  1. 实验规模有限 —— 主要在CIFAR10与LSUN上验证,缺乏更复杂数据(如ImageNet)实验;
  2. 仅针对图像域 —— 未验证在语音、文本或跨模态隐写任务中的通用性;
  3. 隐写安全性分析不足 —— 缺少对抗检测、模型反编译或参数攻击下的鲁棒性研究。

七、未来展望与改进方向

论文最后提出了三个值得深入研究的方向:

  1. 自适应隐写策略:依据数据复杂度与安全等级动态选择嵌入参数;
  2. 理论化可检测性分析:建立隐写在扩散动力学下的可检测性边界;
  3. 抗扰动鲁棒性提升:对模型剪枝、压缩或加噪下的鲁棒隐写,拓展至版权保护与水印认证等场景。

相关工作

CRoSS(Coverless 隐写)

  • 机制:把“隐藏–揭示”建模为可逆图像翻译;用确定性DDIM实现DDIM Inversion,前向用私钥把秘密图像映到噪声,再用公钥反向生成容器图;揭示时反序回到秘密图〔图2(b)、图3与算法1/2;§3.2–3.3〕。
  • 密钥形式Prompt/LoRA/ControlNet 条件均可充当公钥/私钥〔§3.3, Fig.6–7〕。
  • 鲁棒&检测:在WeChat传输/拍屏等真实退化和高斯/压缩等模拟退化下能恢复语义;在SID等深度检测器上准确率接近随机(越靠近50%越安全)〔Fig.5, Fig.8, Tab.1–2〕。
  • “三难题”的对应无单独解码器传输(用同一扩散模型+钥匙)、低可检测(容器图来自生成分布,无像素痕迹)、多接收者(为不同人配不同公/私钥)。

StegaDDPM(生成式无嵌入 SWE)

  • 核心:在反向扩散最后一步构造残差 R1R_1R1分布保持映射,把比特映成高维高斯残差,令**含密X0SX_0^SX0S*与正常X0X_0X0**同分布**,理论上使*检测误差 Pe→0.5〔§3.1–3.3, Fig.2–3, §3.3〕。
  • 通信同步:发送/接收共享两组随机种子重现采样轨迹,精确提取消息〔Fig.1, §3.2〕。
  • 容量与准确:在3/6/9/30/60 bpp上提取≈100%/≈100%/≈100%/99.99%/99.7%,且 MAE 极小,对SiaStegNet检测 Pe≈0.5〔Tab.1〕。

Gaussian Shading(分布保持水印)

  • 嵌入:对高斯噪声分布等分分位区间,用密钥加密的随机比特驱动分布保持采样zTz_TzT 植入水印;随后常规采样解码;提取DDIM反演回到 zTz_TzT 再按分位反推比特〔Fig.3,式(1)–(5)〕。
  • 性能无损:给出理论证明:若随机序列来自安全流密码,则水印与常规采样在多项式时间不可区分(Chosen Watermark Tests)〔§3.4〕;实验上 FID/CLIP 差异不显著〔Tab.1〕。
  • 鲁棒:在 JPEG、裁剪、丢弃、模糊、加噪、亮度等九类攻击下,TPR/位准确率普遍≥0.97(部分场景>0.99)〔Fig.5, Tab.1〕。

核心方法详解

论文的创新方法为:

在扩散模型的反向扩散过程的单一时间步(tₛ)上,通过编辑已学习的得分函数 εθ(xₜ, t) 实现图像隐写。

基本思想(Basic Idea)

如图1(第3页)所示:
传统方法在整个反向扩散链中不断插入触发信号,而本文仅在单一时间步 tₛ嵌入秘密图像,局部编辑模型的得分函数。

  • 隐写密钥 Ks={ks,ts}K_s = \{k_s, t_s\}Ks={ks,ts}
    • ksk_sks:用于生成噪声 zsz_szs 的随机种子;
    • tst_sts:隐写发生的时间步。
  • 仅持有该密钥的接收者能在 tst_sts 处一键提取图像。

图像重建函数定义为:
fθ~(zs,ts)=1αˉts(zs−1−αˉtsϵθ~(zs,ts))f_{\tilde{\theta}}(z_s, t_s) = \frac{1}{\sqrt{\bar{\alpha}_{t_s}}}\left(z_s - \sqrt{1 - \bar{\alpha}_{t_s}} \, \epsilon_{\tilde{\theta}}(z_s, t_s)\right) fθ~(zs,ts)=αˉts1(zs1αˉtsϵθ~(zs,ts))
其中 ϵθ~\epsilon_{\tilde{\theta}}ϵθ~ 是被编辑后的得分函数。

损失函数设计

包含两个核心部分:

  1. 提取精度损失(Accuracy Loss)
    确保生成结果与秘密图像接近:
    ℓa(θ)=∥fθ(zs,ts)−xs∥2\ell_a(\theta) = \|f_\theta(z_s, t_s) - x_s\|^2 a(θ)=fθ(zs,ts)xs2

  2. 模型保真度损失(Fidelity Loss)
    保持原模型生成分布:
    ℓf(θ)=Et,x0,ϵ[∥ϵθ(xt,t)−ϵθˉ(xt,t)∥2]\ell_f(\theta) = \mathbb{E}_{t,x_0,\epsilon}[\|\epsilon_\theta(x_t, t) - \epsilon_{\bar{\theta}}(x_t, t)\|^2] f(θ)=Et,x0,ϵ[ϵθ(xt,t)ϵθˉ(xt,t)2]

  3. 联合优化目标
    ℓ(θ)=ℓa+λℓf\ell(\theta) = \ell_a + \lambda \ell_f (θ)=a+λf
    其中 λ 为权衡系数。

多图像/多接收方扩展

支持多接收方场景:
ℓ(θ;Ks,Xs)=1M∑i=1Mℓa(θ;zs(i),ts(i),xs(i))+λℓf(θ)\ell(\theta; \mathcal{K}_s, \mathcal{X}_s) = \frac{1}{M} \sum_{i=1}^{M} \ell_a(\theta; z_s^{(i)}, t_s^{(i)}, x_s^{(i)}) + \lambda \ell_f(\theta) (θ;Ks,Xs)=M1i=1Ma(θ;zs(i),ts(i),xs(i))+λf(θ)
每位接收方持有独立密钥 Ks(i)K_s^{(i)}Ks(i),能独立提取自己的隐写图像。

参数高效微调(Hybrid PEFT)

为进一步提高效率与保真度,作者提出混合型参数高效微调策略(Hybrid PEFT)

  1. 梯度敏感性分析
    计算各参数对隐写任务的敏感度: gi=∑j=1N(∂ℓ(θ)∂θi(j))2g_i = \sum_{j=1}^{N}\left(\frac{\partial \ell(\theta)}{\partial \theta_i^{(j)}}\right)^2gi=j=1N(θi(j)(θ))2
  2. 筛选敏感层
    仅对最敏感的前 η 层进行更新。
  3. LoRA 低秩重参数化
    对敏感层权重施加低秩调整: ΔW=AB,A∈Rm×r,B∈Rr×n\Delta W = A B, \quad A \in \mathbb{R}^{m \times r}, B \in \mathbb{R}^{r \times n}ΔW=AB,ARm×r,BRr×n → 训练参数减少 86.3%,FID 几乎不变(4.79→4.77)。

嵌入阶段(把秘密图像刻进扩散模型)

目标:在不破坏原模型生成分布的前提下,让模型在一个私密时间步 tst_sts 上、给定由密钥生成的高斯噪声 zsz_szs,能单步还原目标图像 xsx_sxs;编辑后的模型公开发布,别人拿不到密钥就提不出图像。

步骤 1|选择密钥与秘密时间步

  • 为每个秘密图像设定密钥 Ks={ks,ts}K_s=\{k_s,t_s\}Ks={ks,ts}
    ksk_sks 作为随机种子确定性地生成高斯噪声 zsz_szstst_sts 是嵌入/提取所在的单一时间步。​
  • 之所以只在一个时间步动手脚,是为了本地化干预、保留整条反扩散链的完整性与保真度。

步骤 2|定义单步提取映射(训练时的“目标函数”)

  • 在 DDPM 公式下,定义单步“去噪—还原”的映射: fθ~(zs,ts)=1αˉts(zs−1−αˉtsϵθ~(zs,ts))f_{\tilde\theta}(z_s,t_s)=\frac{1}{\sqrt{\bar\alpha_{t_s}}}\Big(z_s-\sqrt{1-\bar\alpha_{t_s}}\,\epsilon_{\tilde\theta}(z_s,t_s)\Big)fθ~(zs,ts)=αˉts1(zs1αˉtsϵθ~(zs,ts)) 要求它逼近秘密图像 xsx_sxs。这一定义就是后续训练要实现的“单步可还原性”。

步骤 3|构造双目标损失

  • 提取精度损失(只管点上精度)
    ℓa(θ;zs,ts,xs)=∥fθ(zs,ts)−xs∥22\ell_a(\theta;z_s,t_s,x_s)=\|f_\theta(z_s,t_s)-x_s\|_2^2a(θ;zs,ts,xs)=fθ(zs,ts)xs22。驱动模型在 (zs,ts)(z_s,t_s)(zs,ts) 这个“点”上把图像还原到位。​
  • 模型保真损失(约束全局分布)
    ℓf(θ)=Et,x0,ϵ[∥ϵθ(xt,t)−ϵθˉ(xt,t)∥22]\ell_f(\theta)=\mathbb{E}_{t,x_0,\epsilon}\big[\|\epsilon_\theta(x_t,t)-\epsilon_{\bar\theta}(x_t,t)\|_2^2\big]f(θ)=Et,x0,ϵ[ϵθ(xt,t)ϵθˉ(xt,t)22]。对所有时间步真实数据分布高斯噪声取期望,迫使编辑后的噪声预测器与原模型一致,从而无需访问原训练集或重训原模型也能守住保真。​
  • 总损失ℓ=ℓa+λℓf\ell=\ell_a+\lambda\ell_f=a+λfλ\lambdaλ 控制“可提取性 ↔ 保真”的权衡。

小注:式(4)-(5)给出标准 DDPM 的训练与推理更新式,用来说明我们只在 tst_sts 处改动、其余步骤仍遵循原始反扩散链。

步骤 4|混合式 PEFT:先“找关键层”,再“低秩适配”

为高效、低扰动地实现上面的目标,论文采用三步式混合 PEFT

4.1 参数敏感度累计(找“最该改”的参数)

  • 以总损失 ℓ(θ)\ell(\theta)(θ) 为目标,累计 NNN 次反向梯度的平方得到每个参数的敏感度: gi=∑j=1N(∂ℓ(θ)∂θi(j))2g_i=\sum_{j=1}^{N}\Big(\frac{\partial \ell(\theta)}{\partial \theta^{(j)}_i}\Big)^2gi=j=1N(θi(j)(θ))2 值越大,说明该参数对“在 tst_sts 处单步还原+全局保真”的目标更关键。

4.2 按“敏感参数个数”筛选关键层(避免大层偏置)

  • 先把每个参数的敏感度二值化 bi=1[gi≥τ]b_i=\mathbf{1}[g_i\ge\tau]bi=1[giτ],再**按每层内的“敏感参数计数”**排序,选出最敏感的前若干层用于后续微调。这比直接按“敏感度总和”更能避免“大层因为参数多而被偏好”的偏置。

4.3 在选中层上应用 LoRA(重参数化微调)

  • 在这些关键层上挂接低秩增量(LoRA),仅训练极少量新增参数,以最小改动把“单步还原”能力写入模型,同时保留原模型其余功能(文中将其与上面的“选择性微调”组合称为混合 PEFT)。

步骤 5|优化超参与默认设定(论文给的“可抄作业”)

  • 默认时间步ts=500t_s=500ts=500敏感度累计N=50N=50N=50敏感度稀疏度约为 0.01(32×32)/0.1(256×256),对应入选层数 η=15/45\eta=15/45η=15/45LoRA 迭代数:2000;LoRA 秩:32×32 用 r=64r=64r=64,256×256 用 r=128r=128r=128
  • 消融建议:N 从 1→50 提升显著,再往上收益趋缓;选层过少还原不够,过多则保真受损;迭代数过大也会牺牲保真,2000 步是折中。

(可选)步骤 6|多接收者扩展

  • 若要为 MMM 个接收者同时隐藏 MMM 张图,各自分配 (ks(i),ts(i))(k_s^{(i)},t_s^{(i)})(ks(i),ts(i)),把 ℓa\ell_aaiii 做平均即可: ℓ(θ;Ks,Xs)=1M∑i=1Mℓa(θ;zs(i),ts(i),xs(i))+λℓf(θ).\ell(\theta;\mathcal{K}_s,\mathcal{X}_s)=\frac{1}{M}\sum_{i=1}^{M}\ell_a(\theta;z_s^{(i)},t_s^{(i)},x_s^{(i)})+\lambda\ell_f(\theta).(θ;Ks,Xs)=M1i=1Ma(θ;zs(i),ts(i),xs(i))+λf(θ). 每人只能凭自己的密钥取回对应图像,互不干扰。

产物:得到已编辑的“隐写模型” θ~\tilde\thetaθ~,可以公开发布;它在常规生成上表现与原模型近似一致,但在持密钥者给定的 (zs,ts)(z_s,t_s)(zs,ts) 处暴露“单步还原通道”。

提取阶段(单步还原秘密图像)

输入:公开的隐写模型 θ~\tilde\thetaθ~、与发送方私下共享的密钥 Ks={ks,ts}K_s=\{k_s,t_s\}Ks={ks,ts}

步骤 A|由密钥复现噪声
ksk_sks 作为种子确定性生成高斯噪声 zsz_szs。​

步骤 B|在时间步 tst_sts 进行“单步去噪”
(zs,ts)(z_s,t_s)(zs,ts) 喂入隐写模型,按步骤 2 的公式一次计算 fθ~(zs,ts)f_{\tilde\theta}(z_s,t_s)fθ~(zs,ts),得到秘密图像的高保真重建 x^s≈xs\hat x_s\approx x_sx^sxs。​

与“沿整条链回溯”的以往方法相比,这里没有后续多步,因此既快又不破坏模型的常规采样行为。

嵌入阶段的六步骤整合为四步骤

嵌入阶段

步骤一:密钥与秘密时间步的设定

目的: 生成唯一的“入口点”用于隐藏图像。

  • 发送者为每个秘密图像 xsx_sxs 选择一组密钥 Ks={ks,ts}K_s = \{k_s, t_s\}Ks={ks,ts}
  • 其中,ksk_sks 作为随机种子用于生成确定性的高斯噪声 zsz_szs,而 tst_sts 是模型反扩散过程中的私有时间步(secret timestep)
  • 这意味着隐藏操作只在这一时刻进行,从而避免对整个反扩散链造成扰动,保持模型的生成保真度。

论文指出:“我们在特定的时间步 tst_sts 上编辑得分函数,以实现精确图像嵌入,同时不破坏原始反扩散过程的完整性。”

步骤二:定义单步还原目标与双目标损失

目的: 通过数学约束让模型在单步就能“还原”秘密图像。

  1. 定义单步反扩散映射(即单步去噪):
    fθ~(zs,ts)=1αˉts(zs−1−αˉtsϵθ~(zs,ts))f_{\tilde\theta}(z_s, t_s) = \frac{1}{\sqrt{\bar\alpha_{t_s}}}\Big(z_s - \sqrt{1-\bar\alpha_{t_s}}\,\epsilon_{\tilde\theta}(z_s, t_s)\Big) fθ~(zs,ts)=αˉts1(zs1αˉtsϵθ~(zs,ts))
    该函数让模型在一次“去噪”后即可得到图像 xsx_sxs

  2. 训练目标采用双重损失函数结构:

    • 提取精度损失
      ℓa=∥fθ(zs,ts)−xs∥22\ell_a = \| f_\theta(z_s, t_s) - x_s \|_2^2a=fθ(zs,ts)xs22,确保在密钥对应的噪声点上可准确还原目标图像。
    • 模型保真损失
      ℓf=Et,x0,ϵ[∥ϵθ(xt,t)−ϵθˉ(xt,t)∥22]\ell_f = \mathbb{E}_{t, x_0, \epsilon} [\| \epsilon_\theta(x_t,t) - \epsilon_{\bar\theta}(x_t,t) \|_2^2]f=Et,x0,ϵ[ϵθ(xt,t)ϵθˉ(xt,t)22],确保整体分布不偏离原模型。
    • 总损失ℓ=ℓa+λℓf\ell = \ell_a + \lambda \ell_f=a+λf

通过这种“点状校正 + 全局约束”,模型能在不破坏生成能力的情况下,记住特定的隐写映射关系。

步骤三:参数敏感度分析与关键层选择

目的: 找出最适合进行微调的层,实现参数高效编辑。

  1. 计算参数敏感度:
    对所有参数进行多次反向传播累积梯度平方,得到每个参数的敏感度:
    gi=∑j=1N(∂ℓ(θ)∂θi(j))2g_i = \sum_{j=1}^N \left(\frac{\partial \ell(\theta)}{\partial \theta_i^{(j)}}\right)^2 gi=j=1N(θi(j)(θ))2
    用于判断哪些参数对任务(隐写还原)最关键。

  2. 二值化与层级筛选:
    将敏感度二值化 bi=1[gi≥τ]b_i = 1[g_i \ge \tau]bi=1[giτ],再根据每层内“敏感参数数量”而非“总敏感度和”排序,选出前 η 层作为关键层。
    这种方法避免了“大层因参数多而被误选”的偏差(作者称为“反琐碎法则”)​。

步骤四:LoRA 低秩重参数化微调(Hybrid PEFT)

目的: 在最小参数改动下写入隐写映射。

  • 在选中的敏感层上使用 LoRA(Low-Rank Adaptation) 结构:
    • 对线性层添加低秩矩阵 ΔW=AB\Delta W = ABΔW=AB,其中 A∈Rm×r,B∈Rr×nA \in \mathbb{R}^{m\times r}, B \in \mathbb{R}^{r\times n}ARm×r,BRr×n,且 r≪min⁡(m,n)r \ll \min(m,n)rmin(m,n)
    • 对卷积层先展平再应用同样操作。
  • 为稳定收敛,引入秩稳定化缩放(1/√r)学习率解耦技巧,分别为 AAABBB 设定不同学习率。
  • 仅训练这些 LoRA 参数即可完成嵌入,整个微调过程参数减少 86.3%,时间成本降低两个数量级。

四步法总结表

阶段名称核心任务关键公式或概念
密钥与时间步设定生成噪声种子和私有嵌入时刻Ks={ks,ts},zs=Noise(ks)K_s=\{k_s,t_s\}, z_s=\text{Noise}(k_s)Ks={ks,ts},zs=Noise(ks)
定义单步还原目标与双损失建立“单步取出”机制并保持模型保真fθ~(zs,ts)f_{\tilde\theta}(z_s,t_s)fθ~(zs,ts), ℓ=ℓa+λℓf\ell=\ell_a+\lambda\ell_f=a+λf
敏感度分析与层筛选找到最有影响力的微调层gi=∑j(∂ℓ/∂θi(j))2g_i=\sum_j (\partial \ell/\partial\theta_i^{(j)})^2gi=j(/θi(j))2
LoRA低秩微调在少量层中写入隐写信息ΔW=AB\Delta W=ABΔW=AB, rank稳定化 + 学习率解耦

产物:得到已编辑的“隐写模型” θ~\tilde\thetaθ~,可以公开发布;它在常规生成上表现与原模型近似一致,但在持密钥者给定的 (zs,ts)(z_s,t_s)(zs,ts) 处暴露“单步还原通道”。

提取阶段(单步还原秘密图像)

输入:公开的隐写模型 θ~\tilde\thetaθ~、与发送方私下共享的密钥 Ks={ks,ts}K_s=\{k_s,t_s\}Ks={ks,ts}

步骤 A|由密钥复现噪声
ksk_sks 作为种子确定性生成高斯噪声 zsz_szs。​

步骤 B|在时间步 tst_sts 进行“单步去噪”
(zs,ts)(z_s,t_s)(zs,ts) 喂入隐写模型,按步骤 2 的公式一次计算 fθ~(zs,ts)f_{\tilde\theta}(z_s,t_s)fθ~(zs,ts),得到秘密图像的高保真重建 x^s≈xs\hat x_s\approx x_sx^sxs。​

与“沿整条链回溯”的以往方法相比,这里没有后续多步,因此既快又不破坏模型的常规采样行为。

http://www.dtcms.com/a/515462.html

相关文章:

  • 频率分集阵列雷达——论文阅读
  • 网站备案信息如何下载潍坊市住房和城乡建设局网站下载
  • 比较好的企业网站百度举报网站
  • 数据库加密技术
  • nginx配置内嵌网页
  • 【微服务】SpringBoot 整合轻量级安全框架JWE 项目实战详解
  • 一个完整的AI项目从需求分析到部署的全流程详解
  • UE5 材质-14:减法subtract节点适用于向量与标量,数学 if 组件,由已遮罩材质结合自发光参数,周期性改变蒙版的大小,实现溶解效果
  • 构建AI智能体:七十一、模型评估指南:准确率、精确率、F1分数与ROC/AUC的深度解析
  • 基于脚手架微服务的视频点播系统-客户端业务逻辑处理部分(二)
  • 电商网站开发 文献综述百度网址大全 旧版本
  • 网站平台建设保密协议新网域名续费
  • 机器学习之生成对抗网络(GAN)
  • 零基础-动手学深度学习-13.11. 全卷积网络
  • JMeter测试关系数据库: JDBC连接
  • Linux(五):进程优先级
  • 【算法专题训练】26、队列的应用-广度优先搜索
  • 可靠性SLA:服务稳定性的量化承诺
  • 收集飞花令碎片——C语言内存函数
  • c语言-字符串
  • 红帽Linux -章8 监控与管理进程
  • 企业网站规范简述seo的优化流程
  • LLaMA Factory进行微调训练的时候,有哪些已经注册的数据集呢?
  • 【人工智能系列:走近人工智能03】概念篇:人工智能中的数据、模型与算法
  • 江苏品牌网站设计如何做旅游休闲网站
  • 个人Z-Library镜像技术实现:从爬虫到部署
  • MySQL 索引深度指南:原理 · 实践 · 运维(适配 MySQL 8.4 LTS)
  • SVG修饰属性
  • Labelme格式转yolo格式
  • react的生命周期