早期感知机模型权重更新方式 感知机的权重更新规则是通过误差修正进行的。如果预测结果不正确(即模型输出与真实标签不一致),则根据误差调整权重
W
=
W
+
η
⋅
(
y
true
−
y
pred
)
⋅
X
W = W + \eta \cdot (y_{\text{true}} - y_{\text{pred}}) \cdot X
W=W+η⋅(ytrue−ypred)⋅X
η
\eta
η是学习率
反向传播的权重更新规则 在多层神经网络中,权重更新通过反向传播算法来实现。首先计算损失函数相对于输出层和每一层的梯度,然后利用链式法则从输出层到输入层逐层更新权重。
W
i
j
=
W
i
j
−
η
⋅
∂
L
∂
W
i
j
W_{ij} = W_{ij} - \eta \cdot \frac{\partial L}{\partial W_{ij}}
Wij=Wij−η⋅∂Wij∂L
三、介绍一下神经网络的初始化方法。
1.均匀分布初始化 (Uniform Distribution) 在均匀分布内随机初始化权重,区间为 [−a,a]。权重的初始化公式如下:
W
∼
U
(
−
a
,
a
)
W \sim U(-a, a)
W∼U(−a,a)
2.正态分布初始化 (Normal Distribution) 权重的初始化公式如下:
W
∼
N
(
0
,
σ
2
)
W \sim \mathcal{N}(0, \sigma^2)
W∼N(0,σ2)
3.Xavier初始化 (Glorot Initialization) Xavier初始化是为了保持信号在神经网络中的传播过程方差一致。它通过设置权重的方差来避免梯度爆炸或消失。Xavier初始化主要用于激活函数是sigmoid或tanh的情况。权重的初始化公式如下:
W
∼
U
(
−
6
n
in
+
n
out
,
6
n
in
+
n
out
)
W \sim \mathcal{U}\left(-\sqrt{\frac{6}{n_{\text{in}} + n_{\text{out}}}}, \sqrt{\frac{6}{n_{\text{in}} + n_{\text{out}}}}\right)
W∼U(−nin+nout6,nin+nout6)
4.He初始化 (He Initialization) He初始化适用于ReLU激活函数的神经网络,其目的是避免ReLU激活函数中“死神经元”问题。权重的初始化公式如下:
W
∼
U
(
−
6
n
in
,
6
n
in
)
W \sim \mathcal{U}\left(-\sqrt{\frac{6}{n_{\text{in}}}}, \sqrt{\frac{6}{n_{\text{in}}}}\right)
W∼U(−nin6,nin6)
5.LeCun初始化 LeCun初始化专门为Leaky ReLU激活函数设计,权重的初始化公式如下:
W
∼
U
(
−
3
n
in
,
3
n
in
)
W \sim \mathcal{U}\left(-\sqrt{\frac{3}{n_{\text{in}}}}, \sqrt{\frac{3}{n_{\text{in}}}}\right)
W∼U(−nin3,nin3)