当前位置: 首页 > article >正文

YOLOv8改进线性注意力模块 ICCV2023 FLatten Transformer

1,原理部分

论文地址:2308.00442 (arxiv.org)

在将 Transformer 模型应用于视觉任务时,自我注意的二次计算复杂性一直是一个持续的挑战。另一方面,线性注意力通过精心设计的映射函数近似 Softmax 操作,通过其线性复杂性提供了一种更有效的替代方案。然而,当前的线性注意力方法要么性能显著下降,要么从 Map 函数中引入额外的计算开销。在本文中,我们提出了一种新的 Focused Linear Attention 模块,以实现高效率和表现力。具体来说,我们首先从两个角度分析了导致线性注意力性能下降的因素:聚焦能力和特征多样性。为了克服这些限制,我们引入了一种简单而有效的映射函数和一种高效的秩恢复模型,以增强自我注意力的表现力,同时保持较低的计算复杂度。大量的实验表明,我们的线性注意力模块适用于各种先进的视觉 Transformers,并在多个基准测试中实现了持续改进的性能。


http://www.kler.cn/news/339432.html

相关文章:

  • 五十一、架构设计经验与技巧(实践经验)
  • windows C++-创建图像处理的异步消息(三)
  • Linux 基本系统命令及其使用详解手册(九)
  • yum 源配置
  • 后端路由解析:不同请求类型与数据定位
  • 前端vue-配置基地址并发送请求
  • Android开发:日志功能备忘
  • 回到原点再出发
  • 详解 Pandas 的 melt 函数
  • 【万字长文】Word2Vec计算详解(二)
  • 白盒和灰盒和黑盒测试
  • MFC多媒体定时器实例(源码下载)
  • 单片机教案 1.2 ATmega2560单片机和Arduino IDE编程基础
  • 易基因: cfMeDIP-seq揭示cfDNA甲基化高效区分原发性和转移性前列腺|Nat Commun
  • rust tokio在linux下面无法创建超过1000个线程问题解决
  • 【每日一题 | 24.10.8】确定字符串是否是另一个的排列
  • Python 卸载所有的包
  • C 数组
  • 宠物咖啡馆在线体验:SpringBoot技术的应用
  • PostgreSQL学习之有关身份鉴别的一些小想法