改进YOLOv5/YOLOv8:(创新必备)全新注意力机制DAED-Conv | 高效轻量化注意力下采样 | 大幅降低参数量的同时增加模型精度。
@TOC
自研轻量化注意力下采样机制,在yolov5s的基础下,大幅降低参数量和计算量,并行人检测数据训练中涨点!。
理论介绍
这个模块是一个基于Deformable Convolution的通道注意力(CA)卷积层。它结合了通道注意力机制和可变形卷积来提高卷积神经网络的性能。以下是关于这个模块的理论解释,改进点和公式介绍:
通道注意力(CA):通道注意力机制关注于如何更好地捕获不同通道之间的相关性。在这个模块中,首先计算全局平均池化(Global Average Pooling, GAP)来捕获全局空间信息。接下来,将全局平均池化应用到水平和垂直方向上的自适应池化(Adaptive Pooling)。这样,通过水平和垂直方向的自适应池化,我们可以捕获更多的通道依赖信息。之后,将这两个方向上的信息通过一个卷积层进行融合,然后使用Sigmoid激活函数来计算注意力权重。
通道注意力公式:
a_h = sigmoid(conv_h(pool_h(x)))
a_w = sigmoid(conv_w(pool_w(x)))
可变形卷积(Deformable Convolution):可变形卷积是一种在空间维度上具有自适应能