当前位置: 首页 > news >正文

【论文阅读 | PR 2024 |ITFuse:一种用于红外与可见光图像融合的交互式 Transformer】

论文阅读 | PR 2024 |ITFuse:一种用于红外与可见光图像融合的交互式 Transformer

在这里插入图片描述

题目:ITFuse: An interactive transformer for infrared and visible image fusion

会议:Pattern Recognition(PR)

论文:https://www.sciencedirect.com/science/article/pii/S0031320324005739?via%3Dihub

代码:https://github.com/tthinking/ITFuse

年份:2024

1.摘要&&引言

红外与可见光图像融合IVIF)因其在下游应用中令人满意的结果而受到学术界越来越多的关注。
然而,大多数现有的深度融合模型要么是特征级融合,要么是图像级融合,导致信息丢失。

在本文中,我们提出了一种用于 IVIF交互式 Transformer,称为 ITFuse

与以往算法不同,ITFuse 由特征交互模块FIMs)和特征重建模块FRM)组成,交替提取和整合重要特征。具体而言,为了充分利用不同源图像的共同属性,我们设计了残差注意力块RAB)用于 mutual 特征表示。为了聚合相应输入图像中存在的独特特征,我们利用交互注意力ITA)来整合互补信息,以实现全面的特征保留和交互。

此外,跨模态注意力CMA)和 Transformer 块TRB)用于充分融合所提取的特征并构建长距离关系。此外,我们设计了像素损失和结构损失,以无监督方式训练所提出的深度融合模型,从而进一步提升性能。

本文的主要贡献总结如下。

  • 我们提出了一种用于 IVIF 的端到端交互式 Transformer(名为 ITFuse),其中设计了交互注意力(ITA)和残差注意力块(RAB),以选择性地提取个体特征并保留共同信息,从而实现充分的互补特征保留。
  • 我们提出了跨模态注意力(CMA)和 Transformer 块(TRB),以充分整合所提取的特征并构建多模态长距离关系,从而获得良好的性能。
  • 我们设计了像素损失结构损失,以无监督方式训练 ITFuse,从而进一步提升性能。

在这里插入图片描述

2.方法

2.1 问题表述

考虑到 IVIF(红外-可见光融合)的基本目标,即提取互补信息以生成信息丰富的合成融合图像,我们的模型基于以交互方式保留来自各个模态的同质和异质特征,以实现充分的重要信息挖掘和交互。具体而言:

  • 红外图像提供的信息表示为:
    Fir=Firu+Fc\mathbb{F}_{ir}=\mathbb{F}_{ir}^{u}+\mathbb{F}_{c}Fir=Firu+Fc
    其中 Firu\mathbb{F}_{ir}^{u}Firu 表示红外图像的独特特征(反映物体的热辐射信息),Fc\mathbb{F}_{c}Fc 表示红外与可见光图像共享的共同特征(如形状、边缘)。

  • 可见光图像包含的信息表示为:
    Fvi=Fviu+Fc\mathbb{F}_{vi}=\mathbb{F}_{vi}^{u}+\mathbb{F}_{c}Fvi=Fviu+Fc
    其中 Fviu\mathbb{F}_{vi}^{u}Fviu 表示可见光图像的独特特征(如场景的纹理细节)。

  • 红外与可见光图像融合得到的合成图像(同时具有清晰的物体和明确的场景)表示为:
    Ff=Firu+Fviu+Fc\mathbb{F}_{f}=\mathbb{F}_{ir}^{u}+\mathbb{F}_{vi}^{u}+\mathbb{F}_{c}Ff=Firu+Fviu+Fc

因此,从不同模态中充分挖掘重要特征是关键。通过研究不同模态图像的内在特性,我们设计了交互式 Transformer 以解决这一挑战。
在这里插入图片描述

2.2 框架概述

所提出的 ITFuse 框架如图 3 所示。输入图像 I1I_{1}I1I2I_{2}I2 被送入 NNN 个特征交互模块(FIMs)进行互补信息提取与整合,随后通过特征重建模块(FRM)生成融合结果 IfI_{f}If。具体流程如下:

  • 特征提取:为捕获不同模态的独特特征,I1I_{1}I1I2I_{2}I2 分别输入 FIM。FIM 可准确保留各模态的独特特征。
  • 特征交互:对 I1I_{1}I1I2I_{2}I2 进行通道拼接后输入 FIM,以挖掘输入图像的共同属性。共同特征与独特特征并非单独提取,而是通过交互注意力(ITA)动态交互,从而挖掘更多上下文信息(而非直接构建二维特征图的自注意力)。

2.3 特征交互模块

IVIF 的核心目标是聚合多模态重要特征,因此特征提取对融合结果至关重要。针对多模态特性,我们提出由 I1I_{1}I1 分支、IcI_{c}Ic 分支(共同特征提取)和 I2I_{2}I2 分支组成的特征交互模块,以交互方式挖掘共同特征与独特特征(而非单独或统一提取)。

2.3.1 共同特征提取分支(IcI_{c}Ic 分支)

为充分挖掘输入图像的同质属性,I1I_{1}I1I2I_{2}I2 经通道拼接后输入 IcI_{c}Ic 分支(由卷积块 CB 和残差注意力块 RAB 组成):

  • 卷积块(CB):用于浅层特征提取,包含两个连续卷积层,公式为:
    Fcbo=R(B(C3C→C(R(B(C32→C(Fcbi))))))\mathbb{F}_{cb}^{o}=\mathcal{R}\left(\mathcal{B}\left(C_{3}^{C \to C}\left(\mathcal{R}\left(\mathcal{B}\left(C_{3}^{2 \to C}\left(\mathbb{F}_{cb}^{i}\right)\right)\right)\right)\right)\right)Fcbo=R(B(C3CC(R(B(C32C(Fcbi))))))
    其中 Fcbi\mathbb{F}_{cb}^{i}FcbiFcbo\mathbb{F}_{cb}^{o}Fcbo 分别为 CB 的输入和输出特征;Ckc1→c2(⋅)C_{k}^{c_{1} \to c_{2}}(\cdot)Ckc1c2() 表示 k×kk \times kk×k 卷积(输入通道 c1c_{1}c1,输出通道 c2c_{2}c2);B(⋅)\mathcal{B}(\cdot)B() 为批归一化,R(⋅)\mathcal{R}(\cdot)R() 为整流线性单元(ReLU)。

在这里插入图片描述

  • 残差注意力块(RAB):用于强调红外与可见光共享的重要特征,包含两个协同注意力(CA)残差排列,以非平凡方式提取特征。受 [33] 启发,RAB 从水平和垂直方向构建注意力图:

    • 对 CA 输入特征 Fcai∈RH×W×C\mathbb{F}_{ca}^{i} \in \mathbb{R}^{H \times W \times C}FcaiRH×W×C 同时进行 X 方向(池化核 (H,1)(H, 1)(H,1))和 Y 方向(池化核 (1,W)(1, W)(1,W))平均池化;
    • 拼接双向池化特征后输入卷积层,输出为:
      Fclo=N(B(C1C→C/R(Fcli)))\mathbb{F}_{cl}^{o}=\mathcal{N}\left(\mathcal{B}\left(C_{1}^{C \to C / R}\left(\mathbb{F}_{cl}^{i}\right)\right)\right)Fclo=N(B(C1CC/R(Fcli)))
      其中 Fcli∈R(H+W)×1×C\mathbb{F}_{cl}^{i} \in \mathbb{R}^{(H+W) \times 1 \times C}FcliR(H+W)×1×C(输入),Fclo∈R(H+W)×1×C/R\mathbb{F}_{cl}^{o} \in \mathbb{R}^{(H+W) \times 1 \times C/R}FcloR(H+W)×1×C/R(输出),RRR 为缩减比,N(⋅)\mathcal{N}(\cdot)N() 为非线性层(计算为 Fnlo=Fnli×S(Fnli)\mathbb{F}_{nl}^{o}=\mathbb{F}_{nl}^{i} \times S\left(\mathbb{F}_{nl}^{i}\right)Fnlo=Fnli×S(Fnli)S(⋅)S(\cdot)S() 为 sigmoid 激活函数)。

    随后,Fnlo\mathbb{F}_{nl}^{o}Fnlo 分割为 Fx∈RH×1×C/R\mathbb{F}_{x} \in \mathbb{R}^{H \times 1 \times C/R}FxRH×1×C/RFy∈R1×W×C/R\mathbb{F}_{y} \in \mathbb{R}^{1 \times W \times C/R}FyR1×W×C/R,分别输入卷积层得到 Fxo=S(C1C/R→C(Fx))\mathbb{F}_{x}^{o}=S\left(C_{1}^{C/R \to C}\left(\mathbb{F}_{x}\right)\right)Fxo=S(C1C/RC(Fx))Fyo=S(C1C/R→C(Fy))\mathbb{F}_{y}^{o}=S\left(C_{1}^{C/R \to C}\left(\mathbb{F}_{y}\right)\right)Fyo=S(C1C/RC(Fy))(与 Fcai\mathbb{F}_{ca}^{i}Fcai 通道数一致)。最终,Fxo\mathbb{F}_{x}^{o}FxoFyo\mathbb{F}_{y}^{o}FyoFcai\mathbb{F}_{ca}^{i}Fcai 相乘得到 Fcao\mathbb{F}_{ca}^{o}Fcao

2.3.2 独特特征提取分支(I1I_{1}I1I2I_{2}I2 分支)

为挖掘各模态独特特征,I1I_{1}I1I2I_{2}I2 分别输入独立分支(含残差块 RB 和交互注意力 ITA)。RB 用于挖掘浅层内在属性,如图 5 所示,由三个带跳跃连接的卷积层组成(每个层含 3×3 卷积、BN 和 ReLU)。源图像的典型特征通过 ITA 动态交互(而非单独利用),ITA 受 [34] 启发,设计为动态关注上下文信息(而非直接构建二维特征图的自注意力)。

在这里插入图片描述
在这里插入图片描述

具体地,对 FK\mathbb{F}_{K}FK(对应 I1I_{1}I1 分支的 F1i\mathbb{F}_{1}^{i}F1iI2I_{2}I2 分支的 F2i\mathbb{F}_{2}^{i}F2i)采用 3×3 卷积编码为单模态静态上下文信息;FV\mathbb{F}_{V}FV(表示 IcI_{c}Ic 分支的 Fci\mathbb{F}_{c}^{i}Fci)通过 1×1 卷积编码为共同特征。随后,FK\mathbb{F}_{K}FKFCo\mathbb{F}_{Co}FCoI1I_{1}I1 分支的 F2i\mathbb{F}_{2}^{i}F2iI2I_{2}I2 分支的 F1i\mathbb{F}_{1}^{i}F1i)元素级求和,经两个 1×1 卷积构建动态注意力矩阵 FD\mathbb{F}_{D}FDFV\mathbb{F}_{V}FVFD\mathbb{F}_{D}FD 相乘实现多模态综合表示,最终 ITA 输出 Fita\mathbb{F}_{ita}Fita 通过 FK\mathbb{F}_{K}FK 与相乘特征的加和整合静态与动态信息:
Fitao=(FD×FV)+FK\mathbb{F}_{ita}^{o}=\left(\mathbb{F}_{D} × \mathbb{F}_{V}\right)+\mathbb{F}_{K}Fitao=(FD×FV)+FK

通过上述模块,可动态交互挖掘多模态的同质与异质属性。

2.4 特征重建模块

为将潜在空间的特征重建为融合结果,设计特征重建模块(FRM),包含跨模态注意力(CMA)、残差注意力块(RAB)、Transformer 块(TRB)和卷积块(CB)。
在这里插入图片描述

  • CMA:整合 I1I_{1}I1IcI_{c}IcI2I_{2}I2 分支的挖掘特征(F1n\mathbb{F}_{1}^{n}F1nFcn\mathbb{F}_{c}^{n}FcnF2n\mathbb{F}_{2}^{n}F2n)。F1n\mathbb{F}_{1}^{n}F1nF2n\mathbb{F}_{2}^{n}F2n 经 3×3 卷积编码为独特静态特征,相加后经两个卷积层生成独特动态属性;Fcn\mathbb{F}_{c}^{n}Fcn 经 1×1 卷积保留共同特征。最终,独特动态特征与共同特征相乘得到整合特征 Fcmao\mathbb{F}_{cma}^{o}Fcmao(保留重要特征,过滤冗余)。

  • RAB:对 CMA 整合的特征从水平和垂直方向重建表示。
    在这里插入图片描述

  • TRB:由 LLL 个基本单元(BUs)组成,每个 BU 包含两个加法操作:

    • 第一个操作:FA=M(Y(Fbui))+Fbui\mathbb{F}_{A}=\mathcal{M}\left(\mathcal{Y}\left(\mathbb{F}_{bu}^{i}\right)\right)+\mathbb{F}_{bu}^{i}FA=M(Y(Fbui))+FbuiM(⋅)\mathcal{M}(\cdot)M() 为多头自注意力,Y(⋅)\mathcal{Y}(\cdot)Y() 为层归一化);
    • 第二个操作:Fbuo=P(Y(FA))+FA\mathbb{F}_{bu}^{o}=\mathcal{P}\left(\mathcal{Y}\left(\mathbb{F}_{A}\right)\right)+\mathbb{F}_{A}Fbuo=P(Y(FA))+FAP(⋅)\mathcal{P}(\cdot)P() 为多层感知机)。
      TRB 通过上述操作构建长距离依赖关系。
  • CB:对 TRB 输出特征经 3×3 卷积和 1×1 卷积生成最终融合图像 IfI_{f}If
    If=S(C1C→1(R(B(C3C→C(Ftrb)))))I_{f}=S\left(C_{1}^{C \to 1}\left(\mathcal{R}\left(\mathcal{B}\left(C_{3}^{C \to C}\left(\mathbb{F}_{trb}\right)\right)\right)\right)\right)If=S(C1C1(R(B(C3CC(Ftrb)))))

2.5 损失函数

由于 IVIF 无 ground truth,设计像素损失 LpL_{p}Lp 和结构损失 LsL_{s}Ls 以无监督方式训练模型,总损失为:
LITFuse=Lp+LsL_{ITFuse}=L_{p}+L_{s}LITFuse=Lp+Ls

  • 像素损失 LpL_{p}Lp:确保融合结果与源图像像素属性相似,计算为:
    Lp=Lcp1+Lcp2L_{p}=L_{cp}^{1}+L_{cp}^{2}Lp=Lcp1+Lcp2
    其中 LcpzL_{cp}^{z}Lcpz 为 Charbonnier 惩罚函数:
    Lcpz=(If−Iz)2+ε2L_{cp}^{z}=\sqrt{\left(I_{f}-I_{z}\right)^{2}+\varepsilon^{2}}Lcpz=(IfIz)2+ε2ε\varepsilonε 为惩罚系数)。

  • 结构损失 LsL_{s}Ls:引导融合图像与输入图像结构分布相似,计算为:
    Ls=Ls1+Ls2L_{s}=L_{s}^{1}+L_{s}^{2}Ls=Ls1+Ls2
    其中 LszL_{s}^{z}Lsz 为结构相似性度量:
    Lsz=1−(2μzμf+C1)(2σzf+C2)(μz2+μf2+C1)(σz2+σf2+C2)L_{s}^{z}=1-\frac{\left(2 \mu_{z} \mu_{f}+C_{1}\right)\left(2 \sigma_{z f}+C_{2}\right)}{\left(\mu_{z}^{2}+\mu_{f}^{2}+C_{1}\right)\left(\sigma_{z}^{2}+\sigma_{f}^{2}+C_{2}\right)}Lsz=1(μz2+μf2+C1)(σz2+σf2+C2)(2μzμf+C1)(2σzf+C2)
    μz\mu_{z}μzμf\mu_{f}μf 为平均强度;σzf\sigma_{zf}σzf 为协方差;σz2\sigma_{z}^{2}σz2σf2\sigma_{f}^{2}σf2 为方差;C1C_{1}C1C2C_{2}C2 为常数)。

总损失可重表示为:
LITFuse=α⋅Lcp1+β⋅Lcp2+γ⋅Ls1+λ⋅Ls2L_{ITFuse}=\alpha \cdot L_{cp}^{1}+\beta \cdot L_{cp}^{2}+\gamma \cdot L_{s}^{1}+\lambda \cdot L_{s}^{2}LITFuse=αLcp1+βLcp2+γLs1+λLs2
α\alphaαβ\betaβγ\gammaγλ\lambdaλ 为权重参数,控制各项权衡)。

3. 实验

3.1 数据集和实现细节

在本文中,训练、测试和验证数据集基于 TNO [1] 和 RoadScene [11] 数据库构建。具体而言,下载了 348 对源图像,并随机分为包含 288 对图像的训练集、包含 40 对图像的测试集和包含 20 对图像的验证集。为获得足够的训练样本,将训练集中的图像裁剪为 120×120 像素(裁剪步长为 20),最终获得 58708 对图像块,并归一化到 [0,1]。所有实验均在配备 NVIDIA GeForce RTX 3090 GPU 的设备上使用 PyTorch 框架实现,采用 Adam 优化器 [37] 更新参数(学习率 0.0003,批处理大小 64,总 epoch 数 20)。超参数设置如下:N=3N=3N=3(特征交互模块数量)、C=16C=16C=16(卷积块通道数)、R=4R=4R=4(残差注意力块缩减比)、L=3L=3L=3(Transformer 块数量),ε=0.001\varepsilon=0.001ε=0.001(Charbonnier 惩罚系数)。对于 3×3 卷积,步长和填充均为 1,采用 “replicate” 边界模式。权重参数 α=1\alpha=1α=1β=1\beta=1β=1γ=4\gamma=4γ=4λ=4\lambda=4λ=4(控制像素损失、结构损失的权衡)。


3.2 对比方法和评估指标

将提出的 ITFuse 与以下方法对比:

  • 传统方法:GTF [5](基于多尺度变换);
  • 深度学习方法:FusionGAN [6](生成对抗网络)、U2Fusion [11](多模态融合网络)、GANMcC [42](基于生成对抗网络的融合)、RFN-Nest [17](残差特征网络)、AUIF [43](自适应交互融合)、TarDAL [20](基于Transformer的跨模态对齐)、UNFusion [18](无监督融合);
  • Transformer方法:SwinFuse [7](基于Swin Transformer)、CMTFusion [30](基于交叉注意力机制)。

所有对比算法的代码均为公开可用或由作者提供,参数设置遵循原始文献以保公平性。

定量评估采用五种指标:

  • Tsallis 熵 QTEQ_{TE}QTE [38]:衡量源图像与融合结果的依赖程度,聚焦边缘信息保留,值越高表示融合结果边缘保留越好;
  • Chen-Varshney 指标 QCVQ_{CV}QCV [39]:符合人类视觉系统,通过纹理和细节评估视觉自然度,值越低表示融合结果越自然;
  • 峰值信噪比 PSNR [40]:衡量像素级失真,值越高表示图像质量越好;
  • 多尺度结构相似性指数 MS-SSIM [41]:从亮度、对比度、结构三方面评估相似性(扩展自 SSIM),值越高表示结构保留越好;
  • 均方误差 MSE [36]:反映融合结果与源图像的细节差异,值越低表示细节保留越完整。

指标特性总结:QTEQ_{TE}QTE、PSNR、MS-SSIM 越高越好;QCVQ_{CV}QCV、MSE 越低越好。

3.3 结果与讨论

3.3.1 在 TNO 数据集上的结果

在这里插入图片描述

表 1 显示了 ITFuse 与其他十种算法的定量对比。ITFuse 在 QTEQ_{TE}QTE、PSNR、MS-SSIM 和 MSE 上均取得最佳性能(仅 QCVQ_{CV}QCV 第二)。图 9 和图 10 展示了 TNO 数据库的融合结果(源图像对及 11 种方法的融合图像):

  • ITFuse 能有效保留源图像的互补信息(红外的热辐射与可见光的纹理细节),生成信息丰富的融合结果;
  • GTF 融合结果模糊,丢失部分结构细节(图 9 第二个放大框);
  • FusionGAN、GANMcC、RFN-Nest 场景细节提取较好但仍有模糊;
  • AUIF、SwinFuse 存在过度强调柱子、背景过暗等不自然问题(图 9 放大框);
  • U2Fusion 颜色失真(图 10 右侧特写);
  • TarDAL、UNFusion、CMTFusion 生成过亮或不真实图像(图 10 右侧特写)。

主观与客观结果均表明,ITFuse 在视觉保真度和定量评估上优于现有方法。

在这里插入图片描述
在这里插入图片描述

3.3.2 在 RoadScene 数据集上的结果

在这里插入图片描述

表 2 展示了 ITFuse 与其他方法的客观评估结果。ITFuse 在 QTEQ_{TE}QTE、PSNR、MSE 上优势显著,表明其能有效保留输入图像的重要特征(高散度、低失真)。图 11 和图 12 展示了 RoadScene 数据库的融合结果:

  • 融合目标需同时揭示红外的热信息与可见光的场景细节,避免不真实特征;
  • GTF、TarDAL 未能充分提取红外特征,目标不清晰(图 11 第一个特写);
  • FusionGAN 图像过暗、对比度低(图 12 放大框);
  • GANMcC、RFN-Nest、UNFusion、CMTFusion 可见光特征保留较好但对比度不足(图 12 第一个特写);
  • U2Fusion、AUIF、SwinFuse 生成旗杆、道路标记过突出等不真实结果(图 11 放大框)。

ITFuse 在挖掘红外热辐射与可见光纹理细节、减少冗余属性上表现最佳。

在这里插入图片描述
在这里插入图片描述

3.4 消融研究

3.4.1 关于网络架构的消融研究

为验证交互式 Transformer 网络的有效性,在验证集上对 ITFuse 进行五种架构修改的消融实验:

  1. Uniformly Input:移除 I1I_{1}I1I2I_{2}I2 分支,FIM 仅保留 IcI_{c}Ic 分支;
  2. Separately Input:删除 IcI_{c}Ic 分支,I1I_{1}I1I2I_{2}I2 分别输入 FIM(不使用 ITA,因 ITA 需三输入);
  3. w/o RAB:用 CB 替换残差注意力块(RAB);
  4. w/o CMA:用 CB 替换跨模态注意力(CMA)(F1n\mathbb{F}_{1}^{n}F1nFcn\mathbb{F}_{c}^{n}FcnF2n\mathbb{F}_{2}^{n}F2n 相加后输入 CB);
  5. w/o TRB:用 CB 替换 Transformer 块(TRB)。

在这里插入图片描述

表 3 列出不同架构的定量结果:完整模型在所有指标上最优。图 13 展示主观融合性能:

  • 退化模型(如 Uniformly Input、Separately Input、w/o TRB)丢失可见光纹理细节,融合结果模糊;
  • w/o RAB、w/o CMA 存在严重伪影,生成不理想图像。

3.4.2 关于损失函数的消融研究

由于 IVIF 无 ground truth,损失函数对融合结果的生成至关重要。为验证所设计的像素损失 LpL_pLp 和结构损失 LsL_sLs 的重要性,在验证集上开展了消融实验:

  • 移除像素损失:从总损失 LITFuseL_{ITFuse}LITFuse 中删除 LpL_pLp,新损失函数定义为 L1=LsL_1 = L_sL1=Ls(式19);
  • 移除结构损失:从总损失中删除 LsL_sLs,重新定义为 L2=LpL_2 = L_pL2=Lp(式20)。
    在这里插入图片描述

表 4 列出了 ITFuse 在不同损失函数下的定量比较结果。可见,完整损失函数 LITFuseL_{ITFuse}LITFuseQTEQ_{TE}QTE、PSNR、MS-SSIM 和 MSE 所有指标上均取得最佳性能,验证了像素损失与结构损失协同优化对融合质量的关键作用。

3.5 泛化实验

为评估 ITFuse 的跨数据集泛化能力,将训练好的模型直接应用于未微调的其他红外-可见光融合数据集(KAIST [44] 和 M3FD [20]),验证其普适性。

3.5.1 在 KAIST 数据集上的泛化实验

KAIST 数据集包含红外与可见光图像对,用于验证模型对不同场景的适应性。表 5 展示了 11 种对比方法在 KAIST 数据集 200 个测试样本上的五个指标平均性能(最佳/次佳方法分别用粗体/下划线标记)。
在这里插入图片描述

图 15 和图 16 展示了两组源图像对的融合结果(局部放大特写用于细节对比):

在这里插入图片描述

在这里插入图片描述

  • ITFuse 能有效保留源图像的互补信息(红外的热辐射与可见光的纹理细节),融合结果信息丰富;
  • 其他方法(如 FusionGAN、U2Fusion 等)存在低对比度、整体变暗问题,导致场景细节丢失。

3.5.2 在 M3FD 数据集上的泛化实验

M3FD 数据集包含灰度红外图像与 RGB 可见光图像,需解决通道不匹配问题。实验中采用 RGB-YUV-RGB 颜色变换 [4] 处理输入,表 6 列出了 11 种方法的平均性能(最佳/次佳方法标记同上)。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

图 17 和图 18 展示了两组源图像对的融合结果:

  • 所有方法均能生成合理融合结果,但 ITFuse 在细节保留与对比度上更优;
  • FusionGAN 融合模糊,GTF、U2Fusion 等存在低对比度问题,UNFusion 热信息保留不足,而 ITFuse 综合表现最佳。

3.6 效率比较

在这里插入图片描述

为全面对比方法性能,计算各方法在主流数据集上的平均运行时间(表7)。ITFuse 在 KAIST 数据集融合两幅图像仅需约 0.1 秒,M3FD 数据集约 0.2 秒,显著优于多数 SOTA 方法(如 GTF、U2Fusion 等),表现出实时融合能力。

4. 结论

本文提出了一种用于红外-可见光融合(IVIF)的交互式 Transformer 模型 ITFuse。与现有图像级或特征级融合模型不同,ITFuse 同时考虑多模态的内在与共同特征,通过以下创新实现高性能:

  1. 特征交互模块:设计特征交互模块(FIM),通过同质/异质属性统一提取与交互注意力(ITA)聚合,动态挖掘上下文信息;
  2. 特征重建模块:采用跨模态注意力(CMA)整合多分支特征,残差注意力块(RAB)保留重要特征,Transformer 块(TRB)构建长距离依赖;
  3. 无监督训练策略:结合像素损失 LpL_pLp(保留像素属性)与结构损失 LsL_sLs(约束结构分布),无需 ground truth 即可有效训练。

主流数据库(TNO、RoadScene)实验表明,ITFuse 在定量指标(QTEQ_{TE}QTE、PSNR、MS-SSIM、MSE)与定性评价(视觉保真度、细节保留)上均优于 GTF、FusionGAN 等 10 余种 SOTA 方法。泛化实验(KAIST、M3FD 数据集)验证了其跨场景适应性,效率实验(运行时间)证明其实时性优势。

未来工作将聚焦配准-融合集成模型,解决现实场景中图像未完全配准的问题,进一步推动 IVIF 在 3D 工程等领域的应用。


文章转载自:
http://almandine.hdqtgc.cn
http://adulterator.hdqtgc.cn
http://bigamous.hdqtgc.cn
http://bdst.hdqtgc.cn
http://benzalacetone.hdqtgc.cn
http://bravo.hdqtgc.cn
http://campania.hdqtgc.cn
http://chauvinism.hdqtgc.cn
http://calamographer.hdqtgc.cn
http://accountability.hdqtgc.cn
http://adaptor.hdqtgc.cn
http://autarchical.hdqtgc.cn
http://astonishment.hdqtgc.cn
http://bellhop.hdqtgc.cn
http://bawdyhouse.hdqtgc.cn
http://barrator.hdqtgc.cn
http://authority.hdqtgc.cn
http://admixture.hdqtgc.cn
http://blepharoplast.hdqtgc.cn
http://adiabatic.hdqtgc.cn
http://bigarade.hdqtgc.cn
http://bessarabia.hdqtgc.cn
http://airflow.hdqtgc.cn
http://addresser.hdqtgc.cn
http://accept.hdqtgc.cn
http://around.hdqtgc.cn
http://accoutrements.hdqtgc.cn
http://barrowman.hdqtgc.cn
http://bagman.hdqtgc.cn
http://armenia.hdqtgc.cn
http://www.dtcms.com/a/280580.html

相关文章:

  • 第三章 OB SQL 引擎高级技术
  • 【网络安全】大型语言模型(LLMs)及其应用的红队演练指南
  • 【Git】详解git commit --amend用法以及使用遇到的问题
  • Vue 2 和 Vue 3 中,组件的封装、二次开发和优化
  • Sersync和Rsync部署
  • Keil 5下载的时候提示“No J-Link found”
  • 《恋与深空》中龙和蛇分别是谁的代表
  • 25、企业能源管理(Energy):锚定双碳目标,从分类管控到智能优化的数字化转型之路
  • flutter弹窗:fluttertoast
  • HTTP 性能优化实战:突破高并发瓶颈的工业级方案
  • elasticsearch 下载/安装
  • 飞睿UWB超宽带定位测距技术,数字钥匙重塑智能生活,高精度厘米级定位无感解锁
  • ffmpeg音视频处理大纲
  • HR数字化转型:3大痛点解决方案与效率突破指南
  • QT 中各种坑
  • 基于Scikit-learn的机器学习建模与SHAP解释分析
  • 如何解决 Spring Boot 使用 Maven 打包后运行失败的问题(附详细排查步骤)
  • [雨云教程]端口冲突该如何解决
  • 前端报错:“Uncaught SyntaxError: missing ) after argument list
  • 【学习笔记】条件变量+互斥锁解决问题
  • 快速排序:原理、示例与 C 语言实现详解
  • 区块链的三种共识机制——PoW、PoS和DPoS原理
  • [面试] js 数组面试题
  • LangChain智能体开发实战:从零构建企业级AI助手
  • Ubuntu18.04 系统重装记录
  • Flutter 入门指南:从基础到实战
  • 22.计算指定范围内数字的幂次和
  • 【深度学习优化算法】06:动量法
  • Apriori 原理:快速筛选频繁出现的症状组合
  • B/S架构系统角色与对应协议详解