当前位置: 首页 > article >正文

YOLOv11改进 | 注意力篇 | YOLOv11引入24年空间和通道协同注意模块(SCSA),并构建C2PSA_SCSA

1.SCSA介绍

1.1  摘要:通道关注和空间关注分别为各种下游视觉任务的特征依赖和空间结构关系提取带来了显著的改进。通道和空间注意力的结合使用被广泛认为有利于进一步提高性能,然而,通道和空间注意力之间的协同效应,特别是在空间指导和减轻语义差异方面,尚未得到深入研究。这促使我们提出了一个新的空间和通道协同注意模块(SCSA),需要我们的调查在多个语义层次上的空间和通道的注意力之间的协同关系。我们的SCSA由两部分组成:可共享多语义空间注意力(SMSA)和渐进通道自我注意力(PCSA)。SMSA融合了多语义信息,并利用渐进压缩策略将具有区分性的空间先验信息注入到PCSA的通道自注意中,有效地指导通道重新校准。此外,在PCSA中的鲁棒的特征交互的基础上的逐行单头自注意机制,进一步减轻SMSA中的不同子特征之间的多语义信息的差异。我们在七个基准数据集上进行了广泛的实验,包括ImageNet-1 K上的分类,MSCOCO上的对象检测,ADE 20 K上的分割以及其他四个复杂场景检测数据集。我们的研究结果表明,我们提出的SCSA不仅超越了目前的即插即用的最先进的注意力,但也表现出增强的泛化能力,在各


http://www.kler.cn/a/471009.html

相关文章:

  • git撤回提交、删除远端某版本、合并指定版本的更改
  • 安卓cpu调度优化
  • 改进萤火虫算法之一:离散萤火虫算法(Discrete Firefly Algorithm, DFA)
  • jenkins入门7 --发送邮件1
  • 【数据可视化】数据可视化看板需求梳理模板(含示例)
  • STM32 拓展 电源控制
  • 在Spring Boot项目中使用Zookeeper和Curator实现高效、可靠的分布式锁
  • redis查看锁是否存在
  • 【数据库系统概论】数据库完整性与触发器--复习
  • Go Ebiten游戏库入门教程
  • 【NLP高频面题 - Transformer篇】什么是缩放点积注意力,为什么要除以根号d?
  • 开源人工智能模型框架:探索与实践
  • Leetcode打卡:不含特殊楼层的最大连续楼层数
  • 一文讲清楚PostgreSQL分区表
  • [openGauss 学废系列]-用户和模式的关系以及访问方式
  • Scala语言的语法
  • java实验6 J.U.C并发编程
  • jEasyUI 创建页脚摘要
  • Linux驱动开发 gpio_get_value读取输出io的电平返回值一直为0的问题
  • 咖啡馆系统|Java|SSM|JSP|
  • [Unity Shader] 【游戏开发】Unity基础光照1-光照模型原理
  • QT中如何限制 限制QLineEdit只能输入字母,或数字,或某个范围内数字等限制约束?
  • 26考研资料分享 百度网盘
  • Chrome 浏览器下载安装教程,保姆级教程
  • linux系统(ubuntu,uos等)连接鸿蒙next(mate60)设备
  • 【prometheus】Pushgateway安装和使用