当前位置: 首页 > article >正文

深度学习:残差网络(ResNet)的原理及优缺点

概念:  

        残差网络(Residual Network,简称ResNet)是一种深度卷积神经网络架构,它在2015年由微软研究院的Kaiming He等人提出。ResNet解决了深度学习领域中的一个关键问题:随着网络深度的增加,网络的性能反而可能下降。这一现象被称为梯度消失和梯度爆炸,它们会导致在训练过程中难以有效地更新网络权重。

如何解决问题?

为了解决梯度消失或梯度爆炸问题,论文提出通过数据的预处理以及在网络中使用 BN(Batch Normalization)层来解决。 为了解决深层网络中的退化问题,可以人为地让神经网络某些层跳过下一层神经元的连接,隔层相连,弱化每层之间的强联系。这种神经网络被称为 残差网络 (ResNets)。

residual结构使用了一种shortcut的连接方式,也可理解为捷径。让特征矩阵隔层相加,注意F(X)和X形状要相同,所谓相加是特征矩阵相同位置上的数字进行相加。

ResNet的组成:

  1. 残差块(Residual Block)

    • 每个残差块包含输入和输出之间的一条捷径(shortcut connection)或恒等连接(identity shortcut)。
    • 捷径连接可以跳过一个或多个卷积层,将输入直接添加到输出。
  2. 恒等映射(Identity Mapping)

    • 在残差块中,如果输入和输出的维度相同,输入可以直接通过捷径连接添加到输出上,即 F(x)+xF(x)+x。
    • 这种结构允许梯度在网络中直接传播,从而缓解梯度消失问题。
  3. 维度匹配(Dimension Matching)

    • 当输入和输出的维度不匹配时,通过1x1的卷积进行降维或升维,以确保输入和输出可以通过捷径连接相加。
  4. 深层网络训练

    • ResNet允许构建非常深的网络,因为残差块可以很容易地堆叠,而不会显著增加训练难度。
  5. 退化问题(Degradation Problem)

    • 随着网络深度的增加,理论上网络的性能应该提高,但实际上可能会出现性能饱和甚至下降的现象,这被称为退化问题。
    • ResNet通过残差学习解决了这个问题,即使网络很深,也能保证性能不会下降。
  6. Batch Normalization

    • ResNet在每个卷积层之后使用批量归一化(Batch Normalization),这有助于加速训练并提高性能。
  7. ReLU激活函数

    • 在每个卷积层和批量归一化之后使用ReLU激活函数,增加非线性。
  8. 全局平均池化(Global Average Pooling)

    • 在网络的最后,使用全局平均池化层代替全连接层,以减少参数数量。
  9. 训练技巧

    • 使用适当的初始化方法,如He初始化。
    • 使用适当的学习率和正则化技术。

残差网络的优缺点

优点:

  1. 解决梯度消失问题:通过残差块的恒等映射,ResNet允许梯度直接流向前面的层,有效缓解了梯度消失问题 。
  2. 提高训练效率:ResNet允许使用更大的学习率和更深层次的网络,从而加快了收敛速度 。
  3. 强大的特征提取能力:ResNet通过深层网络学习到更复杂的特征表示,提升了图像分类、目标检测等任务的性能 。
  4. 良好的泛化能力:即使网络非常深,ResNet也能保持良好的泛化能力,不会发生过拟合 。
  5. 网络结构的灵活性:ResNet的网络结构可以灵活调整,通过增减残差块的数量来适应不同的任务和数据集 。

缺点:

  1. 计算资源消耗大:ResNet模型较深,需要更多的计算资源和训练时间,特别是在网络较深时 。
  2. 参数数量较多:与一些轻量级模型相比,ResNet的参数数量较多,可能会导致在资源受限的环境中部署困难 。
  3. 可能存在冗余:ResNet中可能存在大量冗余层,这些层并不总是必要的,有时可以通过随机深度网络进行训练来解决这个问题 。
  4. 特征失真:由于残差块中输入与输出的直接相加,可能会造成特征失真,特别是当输入和输出尺寸不匹配时 。
  5. 对小规模数据集泛化能力有限:在小规模数据集上,ResNet可能不会表现得比浅层网络更好,因为它的复杂性可能导致过拟合 。

http://www.kler.cn/a/324931.html

相关文章:

  • 31.3 XOR压缩和相关的prometheus源码解读
  • vue3中pinia状态管理库使用以及持久化配置方法总结
  • 从零开始学习 sg200x 多核开发之 TF 存储卡根文件系统扩容
  • LLM - 计算 多模态大语言模型 的参数量(Qwen2-VL、Llama-3.1) 教程
  • Rust学习(五):泛型、trait
  • Hybird和WebView
  • OpenCV-图像透视变换
  • Web 3.0 介绍
  • Docker实践与应用举例
  • MPI程序实例:自适应数值积分
  • k8s中,pod生命周期,初始化容器,容器探针,事件处理函数,理解其设计思路及作用
  • 字段映射和数据转换为什么是数据集成的关键?
  • 数据结构:栈 及其应用
  • 汽车总线之---- LIN总线
  • 一文上手SpringSecurity【二】
  • Flink 结合kafka 实现端到端的一致性原理
  • 一文说完c++全部基础知识,IO流(二)
  • 2、Java 基础 - 面向对象基础
  • Qt 信号重载问题--使用lambda表达式--解决方法
  • 国庆节快乐|中国何以成为中国
  • 在Spring项目中使用MD5对数据库加密
  • QT中基于QMatrix4x4与QVector3D的三维坐标变换类实现
  • 理想汽车使用无仪表盘设计的原因和弊端
  • 传统行业选择企业大文件传输系统需要注意哪些?
  • 【C语言刷力扣】2079.给植物浇水
  • 关于MATLAB计算3维图的向量夹角总是不正确的问题记录