当前位置: 首页 > article >正文

神经网络与深度学习第四章前馈神经网络习题解答

[习题4-1] 对于一个神经元\sigma \left ( w^{T} x+b\right)  ,并使用梯度下降优化参数w时,如果输入x恒大于0,其收敛速度会比零均值化的输入更慢。

首先看一下CSDN的解释:

如果输入x恒大于0,使用sigmoid作为激活函数的神经元的输出值将会处于饱和状态,导致其梯度接近于0,这会使得梯度下降算法的收敛速度变慢。而如果输入经过零均值化处理,可以使得输出值的均值为0,避免了sigmoid函数的非0均值问题,从而减少了梯度消失的风险,提高了梯度下降算法的收敛速度。因此,使用零均值化的输入可以加速神经网络的训练过程。

结合图1理解一下:

图1

说一下我的理解:

首先,神经元对w求导后的结果为\sigma \left ( 1-\sigma \right )x,此处\sigma作sigmod激活函数,我们知道sigmod的激活函数图如下:

可以看出,如果\sigma \left ( 1-\sigma \right )是恒大于0的,其次,若x恒大于0,会导致x进入神经元后,经过\sigma的输出值接近饱和状态(在0.5-1范围内),而\sigma \left ( 1-\sigma \right )的最大\sigma为0.5,说明当x大于0的时候,\sigma \left ( 1-\sigma \right )x肯定不是沿着最大的负梯度方向进行下降的,而是以曲折抖动的方式进行下降(结合图1),但是以零均值化的方式,可以最大程度的保证数据沿着最大的负梯度方向进行下降,所以当x恒大于0时,收敛速度要慢于零均值化的输入。

再举个形象的例子,比如你要从山顶走到山谷,你直线走下去即为最大负梯度方向,收敛快,但是你要很贪心的曲折的走,虽然在朝着山谷的方向走,但不是最快的方向,你同样可以到达终点,但是你的速度相较于直线走肯定是要慢的,条条大路通罗马,但是不可能全部人都走最快的大路,也有人走蜿蜒曲折的小路。


http://www.kler.cn/news/108765.html

相关文章:

  • 搞定蓝牙-第六篇(HID
  • FL Studio21.2演示版下载
  • [Leetcode] 0108. 将有序数组转换为二叉搜索树
  • unity3d场景加载
  • Sprint Cloud Stream整合RocketMq和websocket实现消息发布订阅
  • 设置Ubuntu 20.04的静态IP地址(wifi模式下)
  • 全能数字音乐工作站(DAW)编曲FL Studio21.2.0官方中文版
  • python之拟合圆心及半径
  • Opencv-图像插值与LUT查找表
  • IntelliJ IDEA 把package包展开和压缩
  • Ubuntu 22.04自动登录进入桌面
  • Error: error:0308010C:digital envelope routines::unsupported
  • YOLOv7-QAT量化部署
  • 软考系统架构师知识点集锦二:软件工程
  • 51单片机实验:数码管动态显示00-99
  • Vert.x学习笔记-异步编程和响应式系统
  • 云安全-云原生技术架构(Docker逃逸技术-特权与危险挂载)
  • 外部中断0边沿触发
  • Docker中Failed to initialize NVML: Unknown Error
  • 3DMAX快速瓦片屋顶铺设插件使用方法详解
  • JavaScript进阶知识汇总~
  • Linux--进程替换
  • C++中的成员变量内存布局
  • MinIO安装
  • Ubuntu ARMv8编译Qt源码以及QtCreator
  • NEFU数字图像处理(三)图像分割
  • 安全狗安装
  • Angular-05:管道
  • ip地址默认子网掩码怎么算
  • 案例分析大汇总