当前位置: 首页 > article >正文

论文阅读笔记:MambaOut: Do We Really Need Mamba for Vision?

论文阅读笔记:MambaOut: Do We Really Need Mamba for Vision?

  • 1 背景
  • 2 创新点
  • 3 方法
  • 4 模块
    • 4.1 Mamba适合什么任务
    • 4.2 视觉识别任务是否有很长的序列
    • 4.3 视觉任务是否需要因果token混合模式
    • 4.4 关于Mamba对于视觉的必要性假设
  • 5 效果

论文:https://arxiv.org/pdf/2405.07992

代码:https://github.com/yuweihao/MambaOut

1 背景

在现实中,基于SSM的视觉模型与最先进的卷积模型和基于注意力的模型相比,性能欠佳。这就产生了一个研究问题:在视觉中我们是否真的需要Mamba?

在本文中,作者研究了Mamba的性质,并从概念上总结了Mamba适合任务的两个关键特征:长序列和自回归,这是因为SSM固有的RNN机制。不幸的是,同时具备这两种特性的视觉任务不多。例如ImageNet上的图像分类不符合,而在COCO上的目标检测和实例分割以及ADE20K上的语义分割只符合长序列。另一方面,自回归特性要求每个token仅从之前和当前token中聚合信息,这一概念被称为token混合的因果模式。事实上,所有的视觉任务都属于理解域而非生成域,这意味着模型可以同时看到整幅图像。因此在视觉识别模型中对token混合施加额外的因果约束可能会导致性能下降。虽然该问题可以通过双向分支来缓解,但不可避免的是该问题在每个分支内持续存在。

基于以上的概念性讨论,作者提出如下两个假设:

  • 假设1:SSM对于图像分类时没有必要的,因为这项任务既不符合长序列特征,也不符合自回归特征。

  • 假设2:SSM对于目标检测、实例分割以及语义分割可能是有益的,因为他们遵循长序列特征,尽管他们不是自回归特征。

为了实验假设,作者通过堆叠门控CNN块开发了一系列名为MambaOut的模块。Gated CNN和Mamba block的关键区别在于SSM的存在,如图1(a)所示。实验结果表明,更简单的MambaOut模型在现实中的表现已经超过了Vision Mamba模型的表现,进而验证了假设1。同时,MambaOut在检测和分割任务中的表现不足与最先进的视觉Mamba模型相匹配。这强调了SSM在这些任务上的潜力,并有效的验证了假设2。
在这里插入图片描述

2 创新点

  • 分析了SSM的类RNN机制,并从概念上总结出Mamba适用于具有长序列和自回归特性的任务。

  • 考察了视觉任务的特征,并假设SSM在ImageNet上进行图像分类时不必要的,因为该任务不满足任何一个特征,但探索出SSM在检测和分割任务重的潜力仍然是具有价值的。

  • 基于Gated CNN模块开发了一系列名为MambaOut的模型。

3 方法

在这里插入图片描述

与ResNet类似,MambaOut采用4阶段的分层架构。 D i D_i Di 表示第 i i i 阶段的通道尺寸。其中,Gated CNN块与Mamba块的区别在于Gated CNN块中没有SSM (状态空间模型)。

Gated CNN块的代码:
在这里插入图片描述

4 模块

4.1 Mamba适合什么任务

Mamba的token混合器是选择性SSM,它定义了四个与输入相关的参数 ( Δ , A , B , C ) (\Delta,A,B,C) (Δ,A,B,C),并将他们转换为 ( A ‾ , B ‾ , C ) (\overline{A},\overline{B},C) (A,B,C):
在这里插入图片描述

SSM的序列到序列的变换可以表示为:
在这里插入图片描述

其中, t t t 表示时间步长, x t x_t xt 表示输入, h t h_t ht 表示隐藏状态, y t y_t yt 表示输出。方程2的循环性质将类RNN的SSM与因果注意力区分开。隐藏状态 h h h 可以看作是一个固定大小的存储器,存储了所有的历史信息,通过方程2,该记忆在保持大小不变的情况下更新,固有的大小意味着存储器与当前输入集成的计算复杂度保持恒定。相反,因果注意力存储了来自之前token的所有键值作为他的记忆,它通过在每个新输入中添加当前token的键值来扩展,这种存储器理论上是无损的,然而随着输入的token越来越多,内存大小也越来越大。图2进一步说明了类RNN模型和因果注意力在机制上的差异。
在这里插入图片描述

由于SSM的记忆本质上是有损的,因此在逻辑上不及注意力的无损记忆。因此Mamba无法展示其在处理短序列方面的优势。然而在涉及长序列时,注意力会由于其二次复杂度而变得不稳定。这种情况下,Mamba可以明显的突出他的效率,因此Mamba特别适合处理长序列。
在这里插入图片描述

虽然SSM的循环性质(方程2)使得Mamba可以搞笑的处理长序列,但它引入了一个显著的限制: h t h_t ht 只能访问上一时间步和当前时间步的信息。如图3所示,这种类型的token混合被称为因果模式,可以表述为:
在这里插入图片描述

其中, x t x_t xt y t y_t yt 分别表示第 t t t 个token的输入和输出。由于其因果性质,这种模式非常适合自回归生成任务。

另一种模式称为完全可见模式,其中每个token可以聚合所有前序和后序令牌的信息。这意味着每个输出token取决于所有输入token:
在这里插入图片描述

其中, T T T 表示token总数。完全可见模式适用于理解任务,其中所有输入都可以被模型一次性访问。

注意力默认处于完全可见模式,但通过在注意力图中应用因果掩码,注意力很容易转变为因果模式。类RNN模型由于其循环特性,本质上是因果模式。由于这种固有特性,类RNN模型无法转化为完全课件模式。虽然使用双向分支可以近似一个完全可见的模式,但每个分支仍然单独地保持因果关系。因此Mamba由于其循环属性的固有限制,非常适合于需要因果token混合的任务。

综上所述,Mamba非常适合表现出以下特征的任务:

  • 特征1:任务涉及处理长序列

  • 特征2:任务需要因果token混合模式

4.2 视觉识别任务是否有很长的序列

考虑一个Transformer模块,其公共MLP比例为4;假设其输入 X ∈ R L × D X∈R^{L×D} XRL×D 的令牌长度为 L L L ,通道维数为 D D D ,则该块的FLOPs可计算为:
在这里插入图片描述

由此,推导出了 L L L 的二次项与线性项的比值:
在这里插入图片描述

L > 6 D L > 6D L>6D 时, L L L 中二次项的计算量超过线性项的计算量。这为判断任务是否涉及长序列提供了一个简单的衡量标准。例如,在ViT - S的384个通道中,阈值 τ s m a l l = 6 × 384 = 2304 \tau_{small} = 6 × 384 = 2304 τsmall=6×384=2304;在ViT - B的768个通道中,阈值 τ b a s e = 6 × 768 = 4608 \tau_{base} = 6 × 768 = 4608 τbase=6×768=4608

对于ImageNet上的图像分类,典型的输入图像大小为 22 4 2 224^2 2242,产生 1 4 2 = 196 14^2=196 142=196 个 token,块大小为 1 6 2 16^2 162。显然 196远小于 τ s m a l l \tau_{small} τsmall τ b a s e \tau_{base} τbase,这表明ImageNet上的图像分类不适合作为长序列任务。

对于COCO上的目标检测和实例分割,其推理长度为 800 × 1280,对于ADE20K上的语义分割,其推理图像大小为512 × 2048,token数量约为4K,给定块大小为 1 6 2 16^2 162。由于 4 K > τ s m a l l 4K > τ_{small} 4K>τsmall 4 K ≈ τ b a s e 4K≈τ_{base} 4Kτbase,COCO上的检测和ADE20K上的分割都可以被认为是长序列任务。

4.3 视觉任务是否需要因果token混合模式

如图3所示,完全可见的token混合模式允许不受限制的混合范围,而因果模式则限制当前token只能从前一个token中获取信息。视觉识别被归类为理解任务,其中模型可以一次性看到整个图像,从而消除了对标记混合的限制。对token混合施加额外的约束可能会降低模型性能。如图3 ( b )所示,当对ViT施加因果限制时,观察到性能显著下降。 一般而言,完全可见模式适合于理解任务,而因果模式更适合于自回归任务。这一说法也可以通过观察得到证实,BERT和ViT( BEiT 和MAE )比GPT-1/2和图像GPT更多地用于理解任务。因此,视觉识别任务不需要因果标记混合模式。

4.4 关于Mamba对于视觉的必要性假设

基于前面的讨论,作者总结了关于在视觉识别任务中引入Mamba的必要性的假设如下:

  • 假设1:不需要在ImageNet上引入SSM进行图像分类,因为该任务不满足特征1或特征2。

  • 假设2:尽管这些任务不满足特征2,但仍然值得进一步探索SSM在视觉检测和分割中的潜力,因为这些任务符合特征1。

5 效果

在图像分类上的效果。
在这里插入图片描述

在目标检测和实例分割上的效果。
在这里插入图片描述

在语义分割上的效果。
在这里插入图片描述


http://www.kler.cn/a/524512.html

相关文章:

  • 解决Oracle SQL语句性能问题(10.5)——常用Hint及语法(7)(其他Hint)
  • C++:PTA L2-003 月饼
  • three.js用粒子使用canvas生成的中文字符位图材质
  • 1.26学习
  • HTML特殊符号的使用示例
  • [权限提升] Windows 提权 — 系统内核溢出漏洞提权
  • Unity游戏(Assault空对地打击)开发(2) 基础场景布置
  • 对顾客行为的数据分析:融入2+1链动模式、AI智能名片与S2B2C商城小程序的新视角
  • printf和sprintf区别
  • 深入MapReduce——从MRv1到Yarn
  • fscan全家桶更新:fscan免杀版,可过360、火绒、微步云沙箱,其他的自行测试
  • Elasticsearch的开发工具(Dev Tools)
  • 创建实用PPT演讲者备注的有效方法
  • AI赋能医疗:智慧医疗系统源码与互联网医院APP的核心技术剖析
  • FreeRTOS的任务创建和删除
  • C#语言的并发编程
  • STM32 TIM输入捕获 测量频率
  • F1. Omsk Metro (simple version)
  • 微信小程序高级开发(5):微信小程序手机验证码登录全栈开发指南
  • Node.js 中文编码问题全解析
  • 【deepseek】deepseek-r1本地部署-第三步:下载模型
  • CISCO路由基础全集
  • Unity 粒子特效在UI中使用裁剪效果
  • Hugging Face挑战DeepSeek,AI开源竞赛升级!
  • Haskell语言的安全开发
  • 【2024年华为OD机试】(C卷,100分)- 智能成绩表 (JavaScriptJava PythonC/C++)