当前位置: 首页 > article >正文

《目标检测》R-CNN网络基础(RCNN,Fast-RCNN)

文章目录

  • 1.Overfeat模型
  • 2.RCNN网络
    • 2.1 算法流程
      • 2.1.1 候选区域的生成(了解,已经不再使用了)
      • 2.1.2 CNN网络提取特征
      • 2.1.3 目标分类(SVM)
      • 2.1.4 目标回归(线性回归修正坐标)
      • 2.1.5 预测过程
    • 2.2 算法总结
  • 3.Fast RCNN模型
    • 3.1 算法流程
      • 3.1.1 ROI Pooling
      • 3.1.2 ⽬标分类和回归
    • 3.2 模型训练
    • 3.3 模型预测
    • 3.4 模型总结

学习目标:

  • 了解Overfeat模型的移动窗口方法
  • 了解RCNN目标检测的思想
  • 了解fastRCNN目标检测的思想
  • 知道多任务损失

1.Overfeat模型

Overfeat⽅法使⽤滑动窗⼝进⾏⽬标检测,也就是使⽤滑动窗⼝和神经⽹络来检测⽬标。滑动窗⼝使⽤ 固定宽度和高度 的矩形区域,在图像上“滑动”,并将扫描结果送⼊到神经⽹络中进⾏分类和回归。
例如要检测汽⻋,就使⽤下图中红⾊滑动窗⼝进⾏扫描,将所有的扫描结果送⼊⽹络中进⾏分类和回归,得到最终的汽⻋的检测结果。
在这里插入图片描述
这种⽅法类似⼀种暴⼒穷举的⽅式,会消耗⼤量的计算⼒,并且由于窗⼝⼤⼩问题可能会造成效果不准确。

2.RCNN网络

2014年提出R-CNN⽹络,该⽹络不再使⽤暴⼒穷举的⽅法,⽽是使⽤候选区域方法(region proposal method)创建⽬标检测的区域来完成⽬标检测的任务,R-CNN是以深度神经⽹络为基础的⽬标检测的模型 ,以R-CNN为基点,后续的Fast R-CNN、Faster R-CNN模型都延续了这种⽬标检测思路。

2.1 算法流程

RCNN的流程如下图所示:
在这里插入图片描述
Step:

  1. 候选区域⽣成:使⽤选择性搜索(Selective Search)的⽅法找出图⽚中可能存在⽬标的侯选区域
  2. CNN⽹络提取特征:选取预训练卷积神经⽹⽹络(AlexNet或VGG)⽤于进⾏特征提取。
  3. ⽬标分类:训练⽀持向量机(SVM)来辨别⽬标物体和背景,对每个类别,都要训练⼀个⼆元SVM。
  4. ⽬标定位:训练⼀个线性回归模型,为每个辨识到的物体⽣成更精确的边界框。

2.1.1 候选区域的生成(了解,已经不再使用了)

在选择性搜索(SelectiveSearch,SS)中,使⽤语义分割的⽅法,它将颜⾊、边界、纹理等信息作为合并条件,采⽤多尺度的综合⽅法,将图像
在像素级上划分出⼀系列的区域,这些区域要远远少于传统的滑动窗⼝的穷举法产⽣的候选区域。
在这里插入图片描述
SelectiveSearch在⼀张图⽚上提取出来约2000个侯选区域,需要注意的是这些候选区域的⻓宽不固定。 ⽽使⽤CNN提取候选区域的特征向量,
需要接受固定⻓度的输⼊,所以需要对候选区域做⼀些尺⼨上的修改。

根据图像像素点的相似性,分割成不同的子区域,获取外包矩形。

2.1.2 CNN网络提取特征

采⽤预训练模型(AlexNet或VGG)在⽣成的候选区域上进⾏特征提取,将提取好的特征保存在磁盘中,⽤于后续步骤的分类和回归。
在这里插入图片描述

  1. 全连接层的输⼊数据的尺⼨是固定的,因此在将候选区域送⼊CNN⽹络中时,需进⾏裁剪或变形为固定的尺⼨,在进⾏特征提取。
  2. 预训练模型在ImageNet数据集上获得,最后的全连接层是1000,在这⾥我们需要将其改为N+1(N为⽬标类别的数⽬,例如VOC数据集中N=20,coco数据集中N=80,1是加⼀个背景)后,进⾏微调即可。
    在这里插入图片描述
  3. 利⽤微调后的CNN⽹络,提取每⼀个候选区域的特征,获取⼀个4096维的特征,⼀幅图像就是2000x4096维特征存储到磁盘中。

2.1.3 目标分类(SVM)

SVM是一个二分类分类器,实现多分类时需要使用多个SVM来完成,用来判断每个候选区域的类别。

利⽤微调后的CNN⽹络,提取每⼀个候选区域的特征,获取⼀个4096维的特征,⼀幅图像就是2000x4096维特征存储到磁盘中。
在这里插入图片描述
对于N个类别的检测任务,需要训练N(⽬标类别数⽬)个SVM分类器,对候选区域的特征向量(4096维)进行二分类,判断其是某⼀类别的⽬标,还是背景来完成⽬标分类。

2.1.4 目标回归(线性回归修正坐标)

通过选择性搜索获取的⽬标位置不是⾮常的准确,实验证明,训练⼀个线性回归模型在给定的候选区域的结果上去预测⼀个新的检测窗⼝,能够获得更精确的位置。修正过程如下图所示:
在这里插入图片描述
通过训练⼀个回归器来对候选区域的范围进⾏⼀个调整,这些候选区域最开始只是⽤选择性搜索的⽅法粗略得到的,通过调整之后得到更精确的位置,如下所示:
在这里插入图片描述
红色框表示候选区域生成的结果(SS),绿色的时标注框(真实结果),蓝色框时经过线性回归模型(wx+b变换)后的框,我们的目的是修正候选区域(绿色),不断靠近真实框(绿色)。

目的:训练一个线性回归模型,用这个模型修正这个候选区域,得到一个更精确的结果。

2.1.5 预测过程

使⽤选择性搜索的⽅法从⼀张图⽚中提取2000个候选区域,将每个区域送⼊CNN⽹络中进⾏特征提取,然后送⼊到SVM中进⾏分类,并使⽤候选
框回归器,计算出每个候选区域的位置。 候选区域较多,有2000个,需要剔除掉部分检测结果。 针对每个类,通过计算IOU,采取⾮最⼤值抑制
NMS的⽅法,保留⽐较好的检测结果。

2.2 算法总结

  1. 训练阶段多,训练耗时: 微调CNN⽹络+训练SVM+训练边框回归器。
  2. 预测速度慢: 使⽤GPU, VGG16模型处理⼀张图像需要47s。
  3. 占⽤磁盘空间⼤:5000张图像产⽣⼏百G的特征⽂件。
  4. 数据的形状变化:候选区域要经过缩放来固定⼤⼩,⽆法保证⽬标的不变形

3.Fast RCNN模型

考虑到R-CNN存在的问题,2015年提出了⼀个改善模型:Fast R-CNN。相⽐于R-CNN, Fast R-CNN主要在以下三个⽅⾯进⾏了改进:

  1. 提⾼训练和预测的速度:R-CNN⾸先从测试图中提取2000个候选区域,然后将这2000个候选区域分别输⼊到预训练好的CNN中提取特征。由于候选区域有⼤量的重叠,这种提取特征的⽅法,就会重复的计算重叠区域的特征。在Fast-RCNN中,将整张图输⼊到CNN中提取特征,将候选区域映射到特征图上,这样就避免了对图像区域进⾏重复处理,提⾼效率减少时间。
  2. 不需要额外的空间保存CNN⽹络提取的特征向量:RCNN中需要将提取到的特征保存下来,⽤于为每个类训练单独的SVM分类器和边框回归器。在Fast-RCNN中,将类别判断和边框回归统⼀使⽤CNN实现,不需要在额外的空间存储特征。
  3. 不在直接对候选区域进⾏缩放:RCNN中需要对候选区域进⾏缩放送⼊CNN中进⾏特征提取,在Fast-RCNN中使⽤ROIpooling的⽅法进⾏尺⼨的调整。

3.1 算法流程

Fast-RCNN的流程如下图所示:
在这里插入图片描述
Step:

  1. 候选区域⽣成:使⽤选择性搜索(Selective Search)的⽅法找出图⽚中可能存在⽬标的侯选区域,只需要候选区域的位置信息
  2. CNN⽹络特征提取:将整张图像输⼊到CNN⽹络中,得到整副图的特征图,并将上⼀步获取的候选区域位置从原图映射到该特征图上
  3. ROIPooling: 对于每个特征图上候选框,RoI pooling层从特征图中提取固定⻓度的特征向量每个特征向量被送⼊⼀系列全连接(fc)层中。
  4. ⽬标检测:分两部分完成,⼀个输出各类别加上1个背景类别的Softmax概率估计,另⼀个为各类别的每⼀个类别输出四个实数值,来确定⽬标的位置信息。

第一步是一样的,不在赘述。但是第二步在CNN网络提取时,我们是把整幅图像送到预训练模型中进行特征提取的。

3.1.1 ROI Pooling

候选区域从原图映射到特征图中后,进⾏ROI Pooling的计算,如下图所示:
在这里插入图片描述
Step:

  1. 将候选框区域映射到特征图中得到对应的候选框
  2. 对每一个特征图中的候选框进行POI Pooling(将候选框划分成HW的子网格,H和W都是超参数,在每个子网格中取最大值,之后我们就获取了HW的特征图,再送入到网络中)

ROI Pooling层使⽤最⼤池化将输⼊的特征图中的任意区域(候选区域对应的区域)内的特征转化为固定的𝐻×𝑊的特征图,其中𝐻和𝑊是超参数。
对于任意输⼊的ℎ×𝑤的候选区域,将其分割为𝐻×𝑊的⼦⽹格,每个⼦⽹格的⼤⼩为:(h/H) x (w/W),取每个⼦⽹格中的最⼤值,送⼊后续⽹络中进⾏处理。
在这里插入图片描述
使⽤ROI Pooling层替换预训练⽹络中最后的池化层,并将并将超参𝐻,𝑊设置为和⽹络第⼀个全连接兼容的值,例如VGG16,设𝐻=𝑊=7。

3.1.2 ⽬标分类和回归

原⽹络的最后⼀个全连接层替换为两个同级层:K+1个类别的SoftMax分类层和边框的回归层。

3.2 模型训练

R-CNN中的特征提取和检测部分是分开进⾏的,Fast R-CNN提出⼀个⾼效的训练⽅法:多任务训练。

Fast R-CNN有两种输出:

  1. ⼀部分输出在K+1个类别上的离散概率分布(每个候选区域), p = ( p 0 , p 1 , . . . , p k ) p=(p0,p1,...,pk) p=(p0,p1,...,pk)。通常,通过全连接层的K+1个输出上的Softmax来计算概率值。
  2. 另⼀部分输出对于由K个类别中的每⼀个检测框回归偏移, t k = ( t x k , t y k , t w k , t h k ) t^{k}=(t{x}^{k},t{y}^{k},t{w}^{k},t{h}^{k}) tk=(txk,tyk,twk,thk)。其中 t k t_k tk指定相对于候选框的尺度不变转换和对数空间⾼度/宽度移位。

将上⾯的两个任务的损失函数放在⼀起:
在这里插入图片描述
p0表示的是背景,所以我们只计算u>=1的。

联合训练fast-RCNN⽹络。具体的我们在后续给⼤家进⾏介绍。

3.3 模型预测

Fast-RCNN的⼯作流程描述如下:

输入的图像
在这里插入图片描述
图像被送⼊到卷积⽹络进⾏特征提取,将通过选择性搜索获取的候选区域映射到特征图中:
在这里插入图片描述
在特征图上Rol中应⽤RoIPooling,获取尺⼨相同的特征向量
在这里插入图片描述
将这些区域传递到全连接的⽹络中进⾏分类和回归,得到⽬标检测的结果。
在这里插入图片描述

3.4 模型总结

Fast R-CNN是对R-CNN模型的⼀种改进:

  1. CNN⽹络不再对每个候选区域进⾏特征提取,⽽是直接对整张图像进⾏特征提取,这样减少了很多重复计算。
  2. ⽤ROI pooling进⾏特征的尺⼨变换,来满⾜FC全连接层对输⼊数据尺度的要求。
  3. 将⽬标的回归和分类统⼀在⼀个⽹络中,使⽤FC+softmax进⾏⽬标分类,使⽤FC Layer进⾏⽬标框的回归。

在Fast R-CNN中使⽤的⽬标检测识别⽹络,在速度和精度上都有了不错的结果。不⾜的是,其候选区域提取⽅法耗时较⻓,⽽且和⽬标检测⽹络
是分离的,并不是端到端的,在2016年⼜提出了Faster-RCNN模型⽤于⽬标检测。


http://www.kler.cn/a/399128.html

相关文章:

  • React Native 全栈开发实战班 -原生功能集成之相机与图片
  • 【3D Slicer】的小白入门使用指南九
  • JS的学习与使用
  • 使用win32com将ppt(x)文件转换为pdf文件
  • linux虚拟机无法使用yum在线拉取
  • 鸿蒙中如何实现图片拉伸效果
  • 笔记01----Transformer高效语义分割解码器模块DEPICT(即插即用)
  • 【配置后的基本使用】CMake基础知识
  • opc da 服务器数据 转 IEC61850项目案例
  • 人工智能+辅助诊疗
  • 雨晨 Hotpatch 24H2 Windows 11 iotltsc2024 极简版 26100.2240
  • 十五届蓝桥杯赛题-c/c++ 大学b组
  • R语言机器学习与临床预测模型77--机器学习预测常用R语言包
  • 基于STM32的智能家居系统:MQTT、AT指令、TCP\HTTP、IIC技术
  • CentOS中的Firewalld:全面介绍与实战应用
  • 《C++设计模式:重塑游戏角色系统类结构的秘籍》
  • GCP Cloud Storage 的lock retention policy是什么
  • pytorch tensor在CPU和GPU之间转换,numpy之间的转换
  • C++初级入门(1)
  • Istio分布式链路监控搭建:Jaeger与Zipkin
  • 在VMware虚拟机环境下识别U盘
  • 25-深入理解 JavaScript 异步生成器的实现
  • 基于Java的旅游类小程序开发与优化
  • Qt桌面应用开发 第四天(对话框 界面布局)
  • 【项目开发】理解SSL延迟:为何HTTPS比HTTP慢?
  • MoneyPrinterTurbo - AI自动生成高清短视频