当前位置: 首页 > article >正文

BatchNormalization:解决神经网络中的内部协变量偏移问题

ICML2015
截至目前51172引
出处
论文链接
代码连接(planing)

文章提出的问题

  • 减少神经网络隐藏层中的”内部协变量偏移”问题。
    • 在机器学习领域存在“协变量偏移”问题,问题的前提是我们划分数据集的时候,训练集和测试集往往假设是独立同分布(i.i.d)的,这种独立同分布更有利于我们在训练数据中挖掘到的先验可以更好的应用在测试集上。
    • 在神经网络的隐藏层中,随着前一层的参数的变化,下一层输入时的数据分布也会发生变化,这种变化使得网络训练十分复杂。
  • 神经网络在训练过慢是由于,在训练时需要初始化一个比较小的学习率超参数和需要在初始化参数上浪费经历。
  • 在激活函数再做非线性映射的时候往往会出现梯度饱和的问题,比如sigmod函数,在两边容易出现梯度的饱和问题。

解决方案

  • 在每层的输入之后及激活函数之前使用batchnormalization(批量归一化,BN),将每一层的输出进行批量归一化,使网络在每一层前可以保证输入数据的独立同分布,从而减少网络内部协变量偏移。

算法详述

  • 以下是BN将上一层的输入变换的流程。

http://www.kler.cn/news/137183.html

相关文章:

  • 【Hive】3-HiveSQL 数据定义语言(DDL)
  • pikachu靶场CSRF-post测试报告
  • juzigei/基于Java语言的充电桩系统(充电桩小程序+充电桩管理平台)
  • [Vue3核心语法] ref、reactive响应式数据
  • 打造商业数字化生态,价值何在?
  • 人工智能:开启未来生活与工作的新征程
  • Ubuntu18.04安装LeGO-LOAM保姆级教程
  • 如何定位el-tree中的树节点当父元素滚动时如何定位子元素
  • 动捕设备如何推动线下活动以虚拟主持人创新升级互动形式
  • CICD 持续集成与持续交付——gitlab
  • 积分...
  • 多目标应用:基于非支配排序的蜣螂优化算法NSDBO求解微电网多目标优化调度(MATLAB)
  • JAVA sql 查询
  • 设计模式-行为型模式-模板方法模式
  • Docker 单节点部署 Consul
  • 在通用jar包中引入其他spring boot starter,并在通用jar包中直接配置这些starter的yml相关属性
  • 数据仓库高级面试题
  • Texpad所见即所得
  • WPF Button点击鼠标左键弹出菜单
  • 每日汇评:美日在两个月低点附近似乎较为脆弱,熊市可能会在FOMC会议纪要公布前暂停
  • Java查询多条数据放入word模板 多个word文件处理成zip压缩包并在前端下载.zip文件
  • [C语言 数据结构] 栈
  • C++大神之路——环境篇
  • 【TCP连接的状态】
  • 浅谈开源和闭源的认知
  • Spring的后处理器