当前位置: 首页 > article >正文

YOLOv8创新魔改教程(三)如何添加注意力机制注意力机制的用法与思考

注意力机制的用法与思考

好多同学问我加了CA注意力机制,CBAM注意力机制,都没有涨点,然后就在不停地换不同的注意力机制,其实并不是这样的。今天和大家讨论一下注意力机制的用法与思考。

(一)添加位置

大家的注意力机制都加在哪里呢?

以YOLOv8为例,说几个可能性

1.backbone所有的卷积后面,这就包括conv和c2f后面

2.head所有的卷积后面

3.back所有的conv后面

4.backbone所有的c2f后面

5.head所有的conv后面

6.head所有的c2f后面

7.SPPF后面

8.所有的c2f后面

9.所有的conv后面

10.所有的c2f和conv后面

简单列举了一下几个位置,大家可以回想一下,自己做实验如何做的,是不是只是固定位置,不断地去换注意力机制呢,不妨就用一个注意力机制,去不断的尝试,总会有提升的,当然这些实验结果要保存,这都是可以写到论文里的消融实验部分,能增加工作量,也使自己添加的位置能够有理由进行去说明。

(二)拼接位置

大家知道,YOLOv8有好几层需要拼接,这就涉及到一个问题,比如下面这个配置文件

在这里插入图片描述

大家可以看到,其实第21层的拼接有两种选择,一种是连接到第9层的SPPF,一种是第10层的CA注意力机制,链接不同地方,结果肯定会不同。

(三)添加方式

想必各位同学一般会在yaml添加,我给大家提供一下一个新的思路,比如下图

在这里插入图片描述

我们可以在c2f的某一个卷积后面加上注意力机制,这样yaml配置文件就不需要发生任何改变,而且效果其实和在yaml文件添加也不会一样,具体效果如何,大家需要自己尝试。

(四)思考

果其实和在yaml文件添加也不会一样,具体效果如何,大家需要自己尝试。

(四)思考

今天给大家列举了几种添加方式,希望大家能够找到自己的想法,比如,我可以将注意力机制融入到SPPF里面?在c2f第二个卷积后面添加?还有就是,其他模型也同理,我们改进的模块也同理,改进大家常常会全部替换,不妨试试只替换backbone或者head或许涨点更高呢?等等等等,这些都是注意力机制的常见用法,不知大家看了这篇文章有没有收获呢。


http://www.kler.cn/a/159149.html

相关文章:

  • 机器学习-36-对ML的思考之机器学习研究的初衷及科学研究的期望
  • 8.C++面向对象5(实现一个较为完善的日期类)
  • Redis实战案例(黑马点评)
  • Python学习笔记(2)正则表达式
  • 本地部署Apache Answer搭建高效的知识型社区并一键发布到公网流程
  • SpringMVC数据校验、数据格式化处理、国际化设置
  • C# 雪花算法生成Id工具类
  • 界面控件DevExpress WPF导航组件,助力升级应用程序用户体验!(上)
  • [英语学习][8][Word Power Made Easy]的精读与翻译优化
  • _WorldSpaceLightPos0的含义 UNITY SHADER
  • vue3 学习
  • 伯俊软件CTO陈雨陆:R3全渠道业务中台的OceanBase落地实践
  • 力扣295. 数据流的中位数
  • redis整理
  • 深入理解 Go 函数:从基础到高级
  • uniapp踩坑之项目:使用过滤器将时间格式化为特定格式
  • PET(Point-Query Quadtree for Crowd Counting, Localization, and More)
  • <Linux>(极简关键、省时省力)《Linux操作系统原理分析之文件管理(3)》(24)
  • Python智能语音识别语翻译平台|项目前端搭建
  • Vue3+nuxt+ts项目引入高德地图API实现步骤
  • 一文读懂中间件
  • 【LeetCode热题100】【双指针】接雨水
  • Mybatis XML 配置文件
  • HarmonyOS学习--TypeScript语言学习(二)
  • 【Java GUI 窗体开发实践】基于抽象模板设计模式下实现Windows SSH连接Linux服务器
  • 2023美图创造力大会开幕,美图发布AI视觉大模型4.0