当前位置: 首页 > news >正文

论文阅读|NeurIPS 2024|Mamba进一步研究|MSVMamba

论文地址:pdf
代码地址:code


文章目录

  • 1.研究背景与动机
  • 2. 核心方法
    • 2.1 预备知识:mamba-ssm
    • 2.2 多扫描策略分析
    • 2.3 多尺度2D扫描
    • 2.4 整体模型架构
  • 3. 实验结果
    • 3.1 图像分类任务
    • 3.2 目标检测任务
    • 3.3 语义分割任务
    • 3.4 消融实验
  • 4.局限性与结论
    • 4.1 局限性
    • 4.2 结论

1.研究背景与动机

在计算机视觉领域,特征提取对各类任务性能至关重要。传统卷积神经网络(CNNs) 擅长捕捉 局部模式且复杂度线性增长,但全局上下文建模能力较弱视觉 Transformer(ViTs)具备全局感受野,却因与输入大小相关的二次复杂度限制了在效率敏感的下游任务(如检测、分割)中的应用。基于状态空间模型(SSMs)的方法(如 Mamba、VMamba)结合了全局感受野与线性复杂度的优势,但为适配图像非因果性采用的多扫描策略存在计算冗余,且在参数受限时易出现 “长距离遗忘问题”(远距离特征贡献衰减)

研究核心目标是:在有限参数下,缓解 SSMs 的长距离遗忘问题,减少计算冗余,实现效率与性能的更好权衡。


2. 核心方法

2.1 预备知识:mamba-ssm

状态空间模型:经典的状态空间模型(SSMs)表示一个连续系统,它将输入序列x(t)∈RLx(t) \in \mathbb{R}^{L}x(t)RL映射到 latent 空间表示h(t)∈RNh(t) \in \mathbb{R}^{N}h(t)RN,然后基于该表示预测输出序列y(t)∈RLy(t) \in \mathbb{R}^{L}y(t)RL。从数学上讲,SSM可描述为:
h′(t)=Ah(t)+Bx(t),y(t)=Ch(t)\begin{equation} h'(t) = A h(t) + B x(t), \quad y(t) = C h(t) \end{equation} h(t)=Ah(t)+Bx(t),y(t)=Ch(t)
其中A∈RN×NA \in \mathbb{R}^{N ×N}ARN×NB∈RN×1B \in \mathbb{R}^{N ×1}BRN×1C∈R1×NC \in \mathbb{R}^{1 ×N}CR1×N是可学习参数。

离散化:为了使连续状态空间模型(SSMs)适用于深度学习框架,实现离散化操作至关重要。通过引入时间尺度参数Δ∈R\Delta \in \mathbb{R}ΔR并采用广泛使用的零阶保持(ZOH)作为离散化规则,可以推导出A和B的离散化版本(分别表示为A‾\overline{A}AB‾\overline{B}B),据此,式1可重写为离散形式:
h(t)=A‾h(t−1)+B‾x(t),y(t)=Ch(t),where A‾=eΔA,B‾=(ΔA)−1(eΔA−I)ΔB≈ΔB\begin{equation} \begin{aligned} h(t) &= \overline{A} h(t-1) + \overline{B} x(t), \quad y(t) = C h(t), \\ \text{where } \overline{A} &= e^{\Delta A}, \quad \overline{B} = (\Delta A)^{-1} \left(e^{\Delta A} - I\right) \Delta B \approx \Delta B \end{aligned} \end{equation} h(t)where A=Ah(t1)+Bx(t),y(t)=Ch(t),=eΔA,B=(ΔA)1(eΔAI)ΔBΔB
离散化的详细推导可见这篇文章
其中III表示单位矩阵。之后,式2的过程可以通过全局卷积的方式实现:
y=x⊙K‾,K‾=(CB‾,CA‾B‾,…,CA‾L−1B‾)\begin{equation} y = x \odot \overline{K}, \quad \overline{K} = \left(C \overline{B},\; C \overline{A} \overline{B},\; \dots,\; C \overline{A}^{L-1} \overline{B}\right) \end{equation} y=xK,K=(CB,CAB,,CAL1B)
该式直接迭代带入即可得到
其中x∈R1×Lx \in \mathbb{R}^{1 × L}xR1×L是输入序列,K‾∈RL×1\overline{K} \in \mathbb{R}^{L × 1}KRL×1是卷积核。

选择性状态空间模型:Mamba引入的选择性状态空间S6S6S6机制使参数B‾\overline{B}BC‾\overline{C}CΔΔΔ依赖于输入,从而提升了基于SSM的模型的性能。在使B‾\overline{B}BC‾\overline{C}CΔΔΔ依赖于输入后,式3中的全局卷积核可重写为:
K‾=(CLB‾L,CLA‾L−1B‾L−1,…,CL∏i=1L−1A‾iB‾1)\begin{equation} \overline{K} = \left( C_{L} \overline{B}_{L},\; C_{L} \overline{A}_{L-1} \overline{B}_{L-1},\; \dots,\; C_{L} \prod_{i=1}^{L-1} \overline{A}_{i} \overline{B}_{1} \right) \end{equation} K=(CLBL,CLAL1BL1,,CLi=1L1AiB1)

2.2 多扫描策略分析

使用S6S6S6块处理图像数据时,2D特征图Z∈RH×W×DZ \in \mathbb{R}^{H ×W ×D}ZRH×W×D被展平为图像令牌的1D序列,表示为X∈RL×DX \in \mathbb{R}^{L ×D}XRL×D。根据式4式2S6S6S6中第mmm个令牌对第nnn个令牌(m<n)(m<n)(m<n)构建的贡献可表示为:
Cn∏i=mnA‾iB‾m=CnA‾(m→n)B‾m,whereA‾(m→n)=e∑i=mnΔiA\begin{equation} C_{n} \prod_{i=m}^{n} \overline{A}_{i} \overline{B}_{m}=C_{n} \overline{A}_{(m \to n)} \overline{B}_{m} , where \overline{A}_{(m \to n)}=e^{\sum_{i=m}^{n} \Delta_{i} A} \end{equation} Cni=mnAiBm=CnA(mn)Bm,whereA(mn)=ei=mnΔiA

通常,学习到的ΔiA\Delta_{i} AΔiA负值,这使模型倾向于优先考虑近期令牌的信息。因此,随着序列长度的增加,式5中的指数项e∑i=mnΔiAe^{\sum_{i=m}^{n} \Delta_{i} A}ei=mnΔiA会显著衰减,导致远距离令牌的贡献微乎其微。此外,S6S6S6块的因果特性确保信息只能在令牌之间单向传播,阻止早期令牌获取后续令牌的信息。

图像固有的非因果特性使得S6S6S6块直接应用于视觉相关任务时效果欠佳。为了缓解这一局限性,ViM和VMamba引入了通过多个方向扫描图像特征然后融合这些特征的方法。一般来说,沿着某一扫描路径更新的令牌,表示为Scan(Z(p,q))Scan(Z_{(p, q)})Scan(Z(p,q))(其中(p,q)(p, q)(p,q)表示坐标),可通过下式获得:
Scan(Z(p,q))=Cα∑i=1αA‾(i→α)B‾iσ(Z)i.\begin{equation} \begin{array} {r}{Scan\left(Z_{(p,q)}\right) =C_{\alpha }\sum _{i=1}^{\alpha }\overline {A}_{(i\to \alpha )}\overline {B}_{i}\sigma (Z)_{i}.}\end{array} \end{equation} Scan(Z(p,q))=Cαi=1αA(iα)Biσ(Z)i.
式6可由式5累加得到
式6中,σ\sigmaσ表示将2D特征图转换为1D序列的变换,α表示Z(p,q)Z(p, q)Z(p,q)在变换后的1D序列中的对应索引。之后,多扫描路径的结果相加,生成增强特征Z′(p,q)Z'(p, q)Z(p,q),可表示为:
Z(p,q)′=∑kScank(Z(p,q))=∑kCαk∑i=1αkA‾(i→αk)B‾iσk(Z)i\begin{equation} Z_{(p, q)}'=\sum_{k} Scan_{k}\left(Z_{(p, q)}\right)=\sum_{k} C_{\alpha_{k}} \sum_{i=1}^{\alpha_{k}} \overline{A}_{\left(i \to \alpha_{k}\right)} \overline{B}_{i} \sigma_{k}(Z)_{i} \end{equation} Z(p,q)=kScank(Z(p,q))=kCαki=1αkA(iαk)Biσk(Z)i

这种多扫描策略允许令牌相互获取信息。在ViM中,两个不同的扫描路径对应式6中的两种不同变换,具体来说,是展平变换和带翻转的展平变换。类似地,VMamba通过结合水平和垂直扫描方向扩展了基本的双向扫描,产生了四个不同的扫描路径。此外,多扫描策略还通过最小化令牌之间的有效距离来缓解长距离遗忘问题对于坐标为(p1,q1)(p_{1}, q_{1})(p1,q1)(p2,q2)(p_{2}, q_{2})(p2,q2)的令牌,该策略采用多个扫描路径,每个路径都可能改变它们的相对位置。这些路径中的最小距离由minikdk((p1,q1)→(p2,q2))min i_{k} d_{k}((p_{1}, q_{1}) \to (p_{2}, q_{2}))minikdk((p1,q1)(p2,q2))给出,其中dkd_{k}dk表示第kkk次扫描生成的序列中令牌之间的距离。通过减小这一距离,多扫描策略减少了远距离令牌之间影响的衰减,从而增强了模型维持和利用长距离信息的能力。
在这里插入图片描述

为了更直观地展示多扫描策略与长距离衰减之间的关系,在图2a和图2b中可视化了VMamba-Tiny中沿着水平和垂直扫描方向、相对于中心令牌的指数项e∑i=1∞ΔiAe^{\sum_{i=1}^{\infty} \Delta_{i} A}ei=1ΔiA(这个可视化图在垂直和水平出现差异的原因是数据集中图片的纹理整体成垂直状态)

根据这些观察结果,VMamba中多扫描策略的成功可归因于它缓解了图像数据的非因果特性并减轻了长距离遗忘问题。然而,随着扫描路径数量的增加,计算成本也线性上升,带来了计算冗余。在图2c中,我们展示了图2a与图2b的最大比值,反之亦然。而在图2d中,我们呈现了图2c的二值化版本,应用了10的阈值,其覆盖了整个图的40%以上。这种现象表明,不同扫描路径的衰减率存在差异,导致某些路径在衰减动态中占主导地位,这也可归因于长距离遗忘问题。主导扫描路径的存在意味着某些扫描对信息保留的贡献明显大于其他扫描,这导致多扫描策略中出现计算冗余。

2.3 多尺度2D扫描

缓解长距离遗忘问题最直接有效的方法是缩短序列长度,这可以通过对特征图进行下采样来实现。然而,将所有扫描路径都置于下采样特征图上可能会导致细粒度特征的丢失和下游任务性能的下降。通过对不同扫描的可视化,发现不同扫描路径的衰减率可能不同,这促使我们开发多扫描的层级设计。

提出了一种简单而有效的多尺度2D(MS2D)扫描策略,如图3所示。我们的方法首先通过应用具有不同步长值的深度卷积(DWConv)生成不同尺度的层级特征图。然后,这些多尺度特征图通过VMamba中的四个不同扫描路径进行处理。具体来说,我们使用步长为111sss的DWConv来获得特征图Z1∈RH×W×DZ_{1} \in \mathbb{R}^{H ×W ×D}Z1RH×W×DZ2∈RHs×Ws×DZ_{2} \in \mathbb{R}^{\frac{H}{s} ×\frac{W}{s} ×D}Z2RsH×sW×D。之后,Z1Z_{1}Z1Z2Z_{2}Z2通过两个S6S6S6块进行处理:
Y1=S6(σ1(Z1)),\begin{equation} Y_{1}=S 6\left(\sigma_{1}\left(Z_{1}\right)\right), \end{equation} Y1=S6(σ1(Z1)),
[Y2,Y3,Y4]=S6([σ2(Z2),σ3(Z2),σ4(Z2)])\begin{equation} \left[Y_{2}, Y_{3}, Y_{4}\right]=S 6\left(\left[\sigma_{2}\left(Z_{2}\right), \sigma_{3}\left(Z_{2}\right), \sigma_{4}\left(Z_{2}\right)\right]\right) \end{equation} [Y2,Y3,Y4]=S6([σ2(Z2),σ3(Z2),σ4(Z2)])
其中σ\sigmaσ是SS2D中使用的将2D特征图转换为1D序列的变换,YYY是处理后的序列。这些处理后的序列被转换回2D特征图,下采样的特征图通过插值进行融合:
Zi′=γi(Yi),i∈{1,2,3,4}\begin{equation} Z_{i}'=\gamma_{i}\left(Y_{i}\right), i \in\{1,2,3,4\} \end{equation} Zi=γi(Yi),i{1,2,3,4}

Z′=Z1′+Interpolate(∑(Zj′)),j∈{2,3,4}\begin{equation} Z'=Z_{1}'+Interpolate\left(\sum\left(Z_{j}'\right)\right), j \in\{2,3,4\} \end{equation} Z=Z1+Interpolate((Zj)),j{2,3,4}
其中γγγσ\sigmaσ的逆变换,Z′Z'Z是经过MS2D增强的特征图。下采样操作将序列长度减少s2s^{2}s2倍,这也将式5中令牌之间的距离缩短s2s^{2}s2倍,从而缓解长距离遗忘问题。由于单个S6S6S6块的计算复杂度为O(9LDN)O(9 L D N)O(9LDN)(其中N表示SSM维度),用MS2D替代SS2D将四次扫描的总序列长度从4L4 L4L减少到(1+3/s2)L(1+3 / s^{2}) L(1+3/s2)L,从而提高了效率。在实际应用中,下采样率设为2。值得注意的是,来自Z2Z_{2}Z2的序列通过同一个S6S6S6块处理。这种方法与为不同扫描路径使用多个S6S6S6块相比,在保持相同精度的同时有效减少了参数数量

为了更好地说明长距离遗忘问题得到缓解,我们还提供了实证证据,如图4所示。我们比较了VMamba的SS2D和我们的MS2D中沿着扫描路径的衰减,重点关注与图2配置相同的最后一个令牌。下采样特征中的衰减图被插值回去。可以观察到,下采样图中沿着扫描路径的衰减率显著降低,增强了捕捉全局信息的能力。

2.4 整体模型架构

在本研究中,我们通过用多尺度状态空间(MS3)块替代VMamba框架的VSS块来扩展其能力。MS3块的架构框架如图5所示,包括多尺度视觉空间状态(MSVSS)组件和卷积前馈网络(ConvFFN)。MSVSS组件通过调整VMamba中的视觉状态空间框架、用MS2D替代SS2D来设计,从而在单个层中引入层级设计。此外,在多尺度2D扫描之后集成了一个挤压-激励(SE)块。与先前视觉Mamba架构中专注于令牌混合不同,我们的设计引入了通道混合器来增强不同通道之间的信息流动,与典型视觉Transformer的结构范式一致。我们采用由深度卷积和两个全连接层组成的ConvFFN作为通道混合器。


3. 实验结果

3.1 图像分类任务

3.2 目标检测任务

3.3 语义分割任务

3.4 消融实验



1/3 的配置以较低的计算成本(FLOPs 0.89G)实现了 71.9% 的准确率,与 3/1 的 72.5% 相比,精度差距微小但效率优势明显,因此成为最优选择。


4.局限性与结论

4.1 局限性

本文提出的多尺度VMamba(MSVMamba)旨在解决参数受限的Mamba模型在视觉任务中的“长距离遗忘问题”,尽管模型已被验证有效,但其可扩展性仍需进一步探索。这是因为长距离遗忘问题也可通过增大模型规模缓解,而当前研究未充分验证模型在更大参数规模下的性能与效率表现

4.2 结论

本文提出了基于状态空间模型(SSMs)的视觉骨干网络Multi-Scale Vision Mamba(MSVMamba),其核心贡献与实验结果如下:

  1. 核心方法:通过多尺度2D(MS2D)扫描策略,在原始分辨率特征图保留细粒度特征,在下采样特征图缩短序列长度以缓解长距离遗忘问题,同时减少计算冗余;引入卷积前馈网络(ConvFFN)增强通道间信息交互,弥补SSMs通道混合能力的不足。
  2. 实验验证:MSVMamba在图像分类(ImageNet-1K的Tiny模型达83.0% Top-1准确率)、目标检测与实例分割(COCO数据集的1×策略下,Tiny模型box mAP达46.9%)、语义分割(ADE20K单尺度测试mIoU达47.9%)等任务中,持续优于ConvNeXt、Swin Transformer、VMamba等主流模型。
  3. 核心价值:MSVMamba在保持SSMs线性复杂度和全局感受野优势的同时,实现了效率与性能的更好权衡,为高效视觉骨干网络设计提供了新方案。

http://www.dtcms.com/a/306307.html

相关文章:

  • 飞算科技:原创技术重塑 Java 开发,引领行业数智化新浪潮
  • 网络的学习 2 Socket
  • 面记 | android 应用开发(某半导体公司)
  • LoRaWAN协议,提升公用事业能源效率的“隐形引擎”
  • 动态规划Day5学习心得
  • windows本地使用conda部署Open-webui
  • 【硬件-笔试面试题】硬件/电子工程师,笔试面试题-48,(知识点:BUCK电路的损耗,开关损耗,导通损耗,电感损耗、驱动损耗)
  • BeeWorks Meet:私有化部署,重塑高安全需求行业的视频会议体验
  • ubuntu自动搭建Android平台NDK编译环境
  • C++11 std::function 详解:通用多态函数包装器
  • nav2--安装/教程
  • 中大网校社会工作师培训持续发力,多维度提升服务效能
  • 论文阅读|ArxiV 2024|Mamba进一步研究|VSSD
  • 【AI 数据管理】Text2SQL:当AI成为你和数据库之间的金牌“翻译官”
  • 亚马逊Kiro重塑AI编程:从“氛围编码”到规范驱动的革命
  • 排序算法入门:直接插入排序详解
  • 应用宝(MediaRouteProviderService)媒体路由保活思路研究
  • 从 “内容篮子” 到 “生态平台”:融媒体 App 靠什么打破服务边界?
  • 在 Mac 上用 Vagrant 安装 K8s
  • JavaScript语法、关键字和变量
  • 提高建筑舒适度与能源效率,楼宇自控系统意义重大
  • 极致业务弹性 密度性能双管齐下—联想问天 WR5220 G5 服务器测试
  • 将 qt 构建为静态库
  • 2025年电子设计大赛G题《电路模型探究装置》各小问数学推导及个人思路
  • 信贷风控笔记8-解读商业银行资本管理办法笔记
  • 检索排序(Re-ranking):搜索与推荐系统的精细化利器
  • MySQL 中的 Binlog 及其在删除数据库时的作用:点时间恢复(PITR)
  • Python .toml 安装文件介绍
  • 使用git提交时出现了报错,新手不会的可以参考一下。
  • 技术复盘报告:Vue表格中多行文本字段数据保存丢失问题