深度学习--优化器
笔记内容侵权联系删
优化器
在梯度下降算法中,有各种不同的改进版本。在面向对象的语言实现中,往往把不同的梯度下降算法封装成一个对象,称为优化器。
算法改进的目的,包括但不限于:
加快算法收敛速度;
尽量避过或冲过局部极值;
减小手工参数的设置难度,主要是Learning Rate(LR)。
常见的优化器如:普通GD优化器、动量优化器、Nesterov、AdagradRMSprop、Adam、AdaMax、Nadam。
动量优化器
Adagrad优化器
RMSprop优化器
Adam优化器