改进YOLO系列:YOLOv5s、YOLOv5m结合GHostv2轻量化设计,保持精度,计算量缩小40%
改进YOLO系列:YOLOv5s、YOLOv5m结合GHostv2轻量化设计,保持精度,计算量缩小40%
- 一、理论介绍
-
- 1、GhostNetV2:长距离注意力机制增强廉价操作
- 2、用于移动端架构的解耦全连接注意力机制 DFC Attention
-
- 3、借助 DFC 注意力机制增强 Ghost 模块
- 二、改进方法
-
- 另外需要修改的地方
- 三、运行测试
- 建议
一、理论介绍
1、GhostNetV2:长距离注意力机制增强廉价操作
1.1.2 重新思考 Attention 对模型架构的影响
Self-attention 的优点是长距离建模的能力,但是计算复杂度与输入的分辨率大小呈二次方增长的关系,这对于高分辨率的图片而言是非常不友好的。而一些检测和分割任务都需要高分辨率的输入,使得 Self-attention 无法扩展。
针对这个问题,一种常见的做法是把图片分成一系列的不重叠的 windows,在每个 window 内部,代表性的工作有 Swin[2] 。或者把图片分成一系列的不重叠的 patches,在 pa