当前位置: 首页 > article >正文

YOLO目标检测4

 一. 参考资料

《YOLO目标检测》 by 杨建华博士

本篇文章的主要内容来自于这本书,只是作为学习记录进行分享。

二. 环境搭建

        (1) ubuntu20.04 anaconda安装方法

        (2) 搭建yolo训练环境

# 首先,我们建议使用Anaconda来创建一个conda的虚拟环境
conda create -n yolo python=3.6
# 然后, 请激活已创建的虚拟环境
conda activate yolo
# 接着,配置环境:
pip install -r requirements.txt 
# 项目作者所使用的环境配置:

PyTorch = 1.9.1
Torchvision = 0.10.1
# 为了能够正常运行该项目的代码,请确保您的torch版本为1.x系列。

三. YOLOv1代码解读

3.1 YOLOv1整体框架

# YOLO_Tutorial/models/yolov1/yolov1.py
# --------------------------------------------------------
...
 
class YOLOv1(nn.Module):
    def __init__(self, cfg, device, input_size, num_classes,
trainable, conf_thresh, nms_thresh):
        super(YOLOv1, self).__init__()
        self.cfg=cfg                              # 模型配置文件
        self.device=device                        # 设备、CUDA或CPU
        self.num_classes=num_classes              # 类别的数量
        self.trainable=trainable                  # 训练的标记
        self.conf_thresh=conf_thresh              # 得分阈值
        self.nms_thresh=nms_thresh                # NMS阈值
        self.stride=32                            # 网络的最大步长
        # >>>>>>>>>>>>>>>>>>>> 主干网络 <<<<<<<<<<<<<<<<<<<<<
        # TODO: 构建我们的backbone网络
        # self.backbone=?
 
        # >>>>>>>>>>>>>>>>>>>> 颈部网络 <<<<<<<<<<<<<<<<<<<<<
        # TODO: 构建我们的neck网络
        # self.neck=?
 
        # >>>>>>>>>>>>>>>>>>>> 检测头 <<<<<<<<<<<<<<<<<<<<<
        # TODO: 构建我们的detection head 网络
        # self.head=?
 
        # >>>>>>>>>>>>>>>>>>>> 预测层 <<<<<<<<<<<<<<<<<<<<<
        # TODO: 构建我们的预测层
        # self.pred=?
 
    def create_grid(self, input_size):
        # TODO: 用于生成网格坐标矩阵
 
    def decode_boxes(self, pred):
        # TODO: 解算边界框坐标
 
    def nms(self, bboxes, scores):
        # TODO: 非极大值抑制操作
 
    def postprocess(self, bboxes, scores):
        # TODO: 后处理, 包括得分阈值筛选和NMS操作
 
    @torch.no_grad()
    def inference(self, x):
        # TODO: YOLOv1前向推理
 
    def forward(self, x, targets=None):
        # TODO: YOLOv1的主体运算函数

3.2 YOLOv1主干网络

作者改进的YOLOv1使用较轻量的ResNet-18作为主干网络。由于PyTorch官方已提供了ResNet的源码和相应的预训练模型,因此,这里就不需要我们自己去搭建ResNet的网络和训练了。为了方便调用和查看,ResNet的代码文件放在项目中models/yolov1/yolov1_backbone.py文件下,感兴趣的读者可以打开该文件来查看ResNet网络的代码。在确定了主干网络后,我们只需在YOLOv1框架中编写代码即可调用ResNet-18网络,如代码4-5所示。

# >>>>>>>>>>>>>>>>>>>>主干网络<<<<<<<<<<<<<<<<<<<<<
# TODO:构建我们的backbone网络
self.backbone,feat_dim=build_backbone(cfg['backbone'],trainable&cfg['pretrained'])

在代码4-5中,cfg是模型的配置文件,feat_dim变量是主干网络输出的特征图的通道数,这在后续的代码会使用到。我们通过trainable&cfg['pretrained']的组合来决定是否加载预训练权重。代码4-6展示了模型的配置文件所包含的一些参数,包括网络结构的参数、损失函数所需的权重参数、优化器参数以及一些训练配置参数等,每个参数的含义都已标注在注释中。

# YOLO_Tutorial/config/mode1_config/yolov1_config.py
# --------------------------------------------------------
...
 
yolov1_cfg={
    # input
    'trans_type': 'ssd',           # 使用SSD风格的数据增强
    'multi_scale': [0.5, 1.5],     # 多尺度的范围
    # model
    'backbone': 'resnet18',        # 使用ResNet-18作为主干网络
    'pretrained': True,            # 加载预训练权重
    'stride': 32,  # P5            # 网络的最大输出步长
    # neck
    'neck': 'sppf',                # 使用SPP作为颈部网络
    'expand_ratio': 0.5,           # SPP的模型参数
    'pooling_size': 5,             # SPP的模型参数
    'neck_act': 'lrelu',           # SPP的模型参数
    'neck_norm': 'BN',             # SPP的模型参数
    'neck_depthwise': False,       # SPP的模型参数
    # head
    'head': 'decoupled_head',      # 使用解耦检测头
    'head_act': 'lrelu',           # 检测头所需的参数
    'head_norm': 'BN',             # 检测头所需的参数
    'num_cls_head': 2,             # 解耦检测头的类别分支所包含的卷积层数
    'num_reg_head': 2,             # 解耦检测头的回归分支所包含的卷积层数
    'head_depthwise': False,       # 检测头所需的参数
    # loss weight
    'loss_obj_weight': 1.0,      # obj损失的权重
    'loss_cls_weight': 1.0,      # cls损失的权重
    'loss_box_weight': 5.0,      # box损失的权重
    # training configuration
    'no_aug_epoch': -1,          # 关闭马赛克增强和混合增强的节点
    # optimizer
    'optimizer': 'sgd',          # 使用SGD优化器
    'momentum': 0.937,           # SGD优化器的momentum参数
    'weight_decay': 5e-4,        # SGD优化器的weight_decay参数
    'clip_grad': 10,             # 梯度剪裁参数
    # model EMA
    'ema_decay': 0.9999,         # 模型EMA参数
    'ema_tau': 2000,             # 模型EMA参数
    # lr schedule
    'scheduler': 'linear',       # 使用线性学习率衰减策略
    'lr0': 0.01,                 # 初始学习率
    'lrf': 0.01,                 # 最终的学习率=lr0 * lrf
    'warmup_momentum': 0.8,      # Warmup阶段, 优化器的momentum参数的初始值
    'warmup_bias_lr': 0.1,       # Warmup阶段, 优化器为模型的bias参数设置的学习率初始值
}

3.3 YOLOv1颈部网络

作者改进的YOLOv1选择SPP模块作为颈部网络。SPP网络的结构非常简单,仅由若干不同尺寸的核的最大池化层所组成,实现起来也非常地简单,相关代码我们已经在前面展示了。而在YOLOv1中,我们直接调用相关的函数来使用SPP即可,如代码4-7所示。

# >>>>>>>>>>>>>>>>>>>> 颈部网络 <<<<<<<<<<<<<<<<<<<<<
# TODO: 构建我们的颈部网络
self.neck=build_neck(cfg, feat_dim, out_dim=512)
head_dim=self.neck.out_dim

3.4 YOLOv1检测头

有关检测头的代码和预测层相关的代码已经在前面介绍过了,这里,我们只需要调用相关的函数来使用解耦检测头,然后再使用1 \times 1卷积创建预测层,如代码4-8所示。

# >>>>>>>>>>>>>>>>>>>> 检测头 <<<<<<<<<<<<<<<<<<<<<
# TODO: 构建我们的detection head 网络
## 检测头
self.head=build_head(cfg, head_dim, head_dim, num_classes)
 
 
# >>>>>>>>>>>>>>>>>>>> 预测层 <<<<<<<<<<<<<<<<<<<<<
# TODO: 构建我们的预测层
self.obj_pred=nn.Conv2d(head_dim, 1, kernel_size=1)
self.cls_pred=nn.Conv2d(head_dim, num_classes, kernel_size=1)
self.reg_pred=nn.Conv2d(head_dim, 4, kernel_size=1)

3.5 YOLOv1前向推理函数

在上述所示的推理代码中,作者对pred操作执行了view操作,将HW两个维度合并到一起,由于这之后不会再有任何卷积操作了,而仅仅是要计算损失,因此,将输出张量的维度从[B,C,H,W]调整为[B,H \times W,C]的目的仅是方便后续的损失计算和后处理,而不会造成其他不必要的负面影响。

def forward(self, x):
    if not self.trainable:
        return self.inference(x)
    else:
        # 主干网络
        feat=self.backbone(x)
 
        # 颈部网络
        feat=self.neck(feat)
 
        # 检测头
        cls_feat, reg_feat=self.head(feat)
 
        # 预测层
        obj_pred=self.obj_pred(cls_feat)
        cls_pred=self.cls_pred(cls_feat)
        reg_pred=self.reg_pred(reg_feat)
        fmp_size=obj_pred.shape[-2:]
 
        # 对pred 的size做一些调整, 便于后续的处理
        # [B, C, H, W] -> [B, H, W, C] -> [B, H*W, C]
        obj_pred=obj_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)
        cls_pred=cls_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)
        reg_pred=reg_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)
 
        # 解耦边界框
        box_pred=self.decode_boxes(reg_pred, fmp_size)
 
        # 网络输出
        outputs={
                "pred_obj": obj_pred,         # (Tensor) [B, M, 1]
                "pred_cls": cls_pred,         # (Tensor) [B, M, C]
                "pred_box": box_pred,         # (Tensor) [B, M, 4]
                "stride": self.stride,        # (Int)
                "fmp_size": fmp_size          # (List) [fmp_h, fmp_w]
                    }
        return outputs

另外,在测试阶段,我们只需要推理当前输入图像,无须计算损失,所以我们单独实现了一个inference函数,如代码4-10所示。

@torch.no_grad()
def inference(self, x):
    # 主干网络
    feat=self.backbone(x)
 
    # 颈部网络
    feat=self.neck(feat)
 
    # 检测头
    cls_feat, reg_feat=self.head(feat)
 
    # 预测层
    obj_pred=self.obj_pred(cls_feat)
    cls_pred=self.cls_pred(cls_feat)
    reg_pred=self.reg_pred(reg_feat)
    fmp_size=obj_pred.shape[-2:]
 
    # 对pred 的size做一些调整, 便于后续的处理
    # [B, C, H, W] -> [B, H, W, C] -> [B, H*W, C]
    obj_pred=obj_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)
    cls_pred=cls_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)
    reg_pred=reg_pred.permute(0, 2, 3, 1).contiguous().flatten(1, 2)
 
    # 测试时, 默认batch是1
    # 因此, 我们不需要用batch这个维度, 用[0]将其取走
    obj_pred=obj_pred[0]       # [H*W, 1]
    cls_pred=cls_pred[0]       # [H*W, NC]
    reg_pred=reg_pred[0]       # [H*W, 4]
 
    # 每个边界框的得分
    scores=torch.sqrt(obj_pred.sigmoid() * cls_pred.sigmoid())
    # 解算边界框, 并归一化边界框: [H*W, 4]
    bboxes=self.decode_boxes(reg_pred, fmp_size)
    # 将预测放在CPU处理上, 以便进行后处理
    scores=scores.cpu().numpy()
    bboxes=bboxes.cpu().numpy()
    # 后处理
    bboxes, scores, labels=self.postprocess(bboxes, scores)
 
    return bboxes, scores, labels

在上面的用于推理的代码中,装饰器@torch.no_grad()表示该inference函数不会存在任何梯度,因为推理阶段不会涉及反向传播,无须计算变量的梯度。在这段代码中,多了一个后处理postprocess函数的调用,将在后续进行说明。

至此,我们搭建完了YOLOv1的网络,只需将上面的单独实现分别对号入座地加入YOLOv1的网络框架里。最后,我们就可以获得网络的3个预测分支的输出。但是,这里还遗留下了以下3个问题尚待处理。

(1) 如何有效地计算出边界框的左上角点坐标和右下角点坐标。

(2) 如何计算3个分支的损失。

(3) 如何对预测结果进行后处理。

3.6 YOLOv1的后处理

(1) 求解预测边界框的坐标

对于某一处的网格(grid_x,grid_y),YOLOv1输出的边界框的中心点偏移量预测为t_xt_y,宽和高的对数映射预测为t_wt_h,我们使用公式(4-6)即可解算出边界框的中心点坐标c_xc_y与宽高Wh

c_x = \left[ \text{grid}_x + \sigma(t_x) \right] \times \text{stride} \\ c_y = \left[ \text{grid}_y + \sigma(t_y) \right] \times \text{stride} \\ w = \exp(t_w) \times \text{stride} \\ h = \exp(t_h) \times \text{stride}

其中,\sigma(t_x)是Sigmoid函数。从公式中可以看出,为了计算预测的边界框的中心点坐标,我们需要获得网格的坐标(grid_x,grid_y),因为我们的YOLOv1也是在每个网格预测偏移量,从而获得精确的边界框中心点坐标。直接的方法就是遍历每一个网格,以获取网格坐标,然后加上此处预测的偏移量即可获得此处预测出的边界框中心点坐标,但是这种for循环操作的效率不高。在一般情况下,能用矩阵运算来实现的操作就尽量避免使用for循环,因为不论是GPU还是CPU,矩阵运算都是可以并行处理的,开销更小,因此,这里我们采用一个讨巧的等价方法。

在计算边界框坐标之前,先生成一个保存网格所有坐标的矩阵\mathbf{G} \in \mathbb{R}_{H_0 \times W_0 \times 2},其中H_0W_0是输出的特征图的空间尺寸,2是网格的横纵坐标。G(grid_x,grid_y)就是输出特征图上G(grid_x,grid_y)处的网格坐标(grid_x,grid_y),即G(grid_x,grid_y,0)=grid_xG(grid_x,grid_y,1)=grid_y,如图4-7所示。

所以,在清楚了G矩阵的含义后,我们便可以编写相应的代码来生成G矩阵,如代码4-11所示。

def create_grid(self, input_size):
    # 输入图像的宽和高
    w, h=input_size, input_size
    # 特征图的宽和高
    ws, hs=w // self.stride, h // self.stride
    # 生成网格的x坐标和y坐标
    grid_y, grid_x=torch.meshgrid([torch.arange(hs), torch.arange(ws)])
    # 将x和y两部分的坐标拼起来:[H, W, 2]
    grid_xy=torch.stack([grid_x, grid_y], dim=-1).float()
    # [H, W, 2] -> [HW, 2]
    grid_xy=grid_xy.view(-1, 2).to(self.device)
    return grid_xy

注意,为了后续解算边界框的方便,将grid_xy的维度调整成[HW,2]的形式,因为在讲解YOLOv1的前向推理的代码时,输出的txtytwth_pred的维度被调整为[HW,2]的形式,这里我们为了保持维度一致,也做了同样的处理。在得到了G矩阵之后,我们就可以很容易计算边界框的位置参数了,包括边界框的中心点坐标、宽、高、左上角点坐标和右下角点坐标,代码4-12展示了这一计算过程。

def decode_boxes(self, pred, fmp_size):
   """
        将txtytwth转换为常用的x1y1x2y2形式
   """
    # 生成网格坐标矩阵
    grid_cell=self.create_grid(fmp_size)
 
    # 计算预测边界框的中心点坐标、宽和高
    pred_ctr=(torch.sigmoid(pred[..., :2]) + grid_cell) * self.stride
    pred_wh=torch.exp(pred[..., 2:]) * self.stride
 
    # 将所有边界框的中心点坐标、宽和高换算成x1y1x2y2形式
    pred_x1y1=pred_ctr - pred_wh * 0.5
    pred_x2y2=pred_ctr + pred_wh * 0.5
    pred_box=torch.cat([pred_x1y1, pred_x2y2], dim=-1)
 
    return pred_box

最终,我们会得到边界框的左上和右下角点坐标。

3.7 后处理

当我们得到了边界框的位置参数后,我们还需要对预测结果做进一步的后处理,滤除那些得分低的边界框和检测到同一目标的冗余框。因此,后处理的主要作用可以总结为两点:

(1)滤除得分低的低质量边界框;

(2)滤除对同一目标的冗余检测结果,即非极大值抑制(NMS)处理。在清楚了后处理的逻辑和目的后,我们就可以编写相应的代码了,如代码4-13所示。

def postprocess(self, bboxes, scores):
    # 将得分最高的类别作为预测的类别标签
    labels=np.argmax(scores, axis=1)
    # 预测标签所对应的得分
    scores=scores[(np.arange(scores.shape[0]), labels)]
    # 阈值筛选
    keep=np.where(scores >=self.conf_thresh)
    bboxes=bboxes[keep]
    scores=scores[keep]
    labels=labels[keep]
 
    # 非极大值抑制
    keep=np.zeros(len(bboxes), dtype=np.int)
    for i in range(self.num_classes):
        inds=np.where(labels==i)[0]
        if len(inds)==0:
            continue
        c_bboxes=bboxes[inds]
        c_scores=scores[inds]
        c_keep=self.nms(c_bboxes, c_scores)
        keep[inds[c_keep]]=1
 
    keep=np.where(keep > 0)
    bboxes=bboxes[keep]
    scores=scores[keep]
    labels=labels[keep]
 
    return bboxes, scores, labels

我们采用十分经典的基于Python语言实现的代码作为本文的非极大值抑制。在入门阶段,希望读者能够将这段代码烂熟于心,这毕竟是此领域的必备算法之一。相关代码如代码4-14所示。

def nms(self, bboxes, scores):
    """Pure Python NMS baseline."""
    x1=bboxes[:, 0]  #xmin
    y1=bboxes[:, 1]  #ymin
    x2=bboxes[:, 2]  #xmax
    y2=bboxes[:, 3]  #ymax
    areas=(x2 - x1) * (y2 - y1)
    order=scores.argsort()[::-1]
    keep=[]
    while order.size > 0:
        i=order[0]
        keep.append(i)
        # 计算交集的左上角点和右下角点的坐标
        xx1=np.maximum(x1[i], x1[order[1:]])
        yy1=np.maximum(y1[i], y1[order[1:]])
        xx2=np.minimum(x2[i], x2[order[1:]])
        yy2=np.minimum(y2[i], y2[order[1:]])
        # 计算交集的宽和高
        w=np.maximum(1e-10, xx2 - xx1)
        h=np.maximum(1e-10, yy2 - yy1)
        # 计算交集的面积
        inter=w * h
        # 计算交并比
        iou=inter / (areas[i] + areas[order[1:]] - inter)
        # 滤除超过NMS阈值的边界框
        inds=np.where(iou <=self.nms_thresh)[0]
        order=order[inds + 1]
 
    return keep

经过后处理后,我们得到了最终的3个输出变量:

(1)变量bboxes,包含每一个边界框的左上角坐标和右下角坐标;

(2)变量scores,包含每一个边界框的得分;

(3)变量labels,包含每一个边界框的类别预测。

至此,我们填补了之前留下来的空白,只需要将上面实现的每一个函数放置到YOLOv1的代码框架中,即可组成最终的模型代码。读者可以打开项目中的models/yolov1/yolov1.py文件来查看完整的YOLOv1的模型代码。

四.代码

https://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorialhttps://github.com/Tipriest/Lessons/tree/master/YOLO/YOLO_Tutorial


http://www.kler.cn/a/522184.html

相关文章:

  • 智能调度体系与自动驾驶技术优化运输配送效率的研究——兼论开源AI智能名片2+1链动模式S2B2C商城小程序的应用潜力
  • 01学习预热篇(D6_正式踏入JVM深入学习前的铺垫)
  • React应用深度优化与调试实战指南
  • 数据结构与算法学习笔记----求组合数
  • GRAPHARG——学习
  • 项目开发实践——基于SpringBoot+Vue3实现的在线考试系统(九)(完结篇)
  • C#面试常考随笔6:ArrayList和 List的主要区别?
  • deepseek R1的确不错,特别是深度思考模式
  • excel如何查找一个表的数据在另外一个表是否存在
  • clean code阅读笔记——如何命名?
  • Nacos深度解析:构建高效微服务架构的利器
  • Python3 【高阶函数】项目实战:5 个学习案例
  • linux网络 | TCP可靠性策略之连接管理、滑动窗口、拥塞控制
  • CSS Fonts(字体)
  • Yolo11 + OCR 营业执照识别+信息抽取(预期后续改用其他ocr更简单,推理预计使用onnxruntim加速,分c++和python两种方式部署)
  • C#,入门教程(04)——Visual Studio 2022 数据编程实例:随机数与组合
  • Python3 OS模块中的文件/目录方法说明十三
  • 通过Redis命令建立锁机制
  • 字符设备驱动模版-中断
  • 5.1.4 软件工具+开发环境
  • 【Docker】Docker入门了解
  • 本地大模型编程实战(04)给文本自动打标签
  • 【Spring】Spring概述
  • 寒假1.26
  • 【深度学习】常见模型-Transformer模型
  • 基于微信小程序游泳馆管理系统 游泳馆管理系统小程序 (设计与实现)