基于高斯噪声模型的信号去噪——图像相加去噪的理论保证
与廖老师讨论参数估计理论,意外地发现图像相加有理论保证,当噪声服从独立同分布的高斯分布时,用样本均值估计是极大似然估计,也是最小二乘估计,还是线性最小均方估计。
禹晶、肖创柏、廖庆敏《数字图像处理(面向新工科的电工电子信息基础课程系列教材)》
问题定义
假设有一个信号 f f f,受到高斯噪声的影响,有一组观测数据 g = { g 1 , g 2 , … , g n } \mathbf{g} = \{g_1, g_2, \ldots, g_n\} g={g1,g2,…,gn},这些数据是独立同分布的高斯随机变量,每个观测值 g i g_i gi 可以表示为:
g
i
=
f
+
n
i
g_i = f + n_i
gi=f+ni
其中:
-
f
f
f 是真实的信号值。
-
n
i
n_i
ni 是均值为 0、方差为
σ
2
\sigma^2
σ2 的高斯噪声。
基于高斯噪声模型的极大似然估计(Maximum Likelihood Estimation, MLE)
1. 高斯噪声模型
高斯噪声的概率密度函数(PDF)为:
P ( g i ∣ f ) = 1 2 π σ 2 exp ( − ( g i − f ) 2 2 σ 2 ) P(g_i | f) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(g_i - f)^2}{2\sigma^2}\right) P(gi∣f)=2πσ21exp(−2σ2(gi−f)2)
2. 联合概率密度函数
由于每个观测值 g i g_i gi 是独立同分布的,所以 n n n 个观测值的联合概率密度函数为:
P ( g ∣ f ) = ∏ i = 1 n P ( g i ∣ f ) P(\mathbf{g} | f) = \prod_{i=1}^n P(g_i | f) P(g∣f)=i=1∏nP(gi∣f)
代入高斯噪声的 PDF:
P ( g ∣ f ) = ∏ i = 1 n 1 2 π σ 2 exp ( − ( g i − f ) 2 2 σ 2 ) P(\mathbf{g} | f) = \prod_{i=1}^n \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(g_i - f)^2}{2\sigma^2}\right) P(g∣f)=i=1∏n2πσ21exp(−2σ2(gi−f)2)
3. 对数似然函数
为了简化计算,我们取对数似然函数:
ln P ( g ∣ f ) = ∑ i = 1 n ln ( 1 2 π σ 2 exp ( − ( g i − f ) 2 2 σ 2 ) ) \ln P(\mathbf{g} | f) = \sum_{i=1}^n \ln \left( \frac{1}{\sqrt{2\pi\sigma^2}} \exp\left(-\frac{(g_i - f)^2}{2\sigma^2}\right) \right) lnP(g∣f)=i=1∑nln(2πσ21exp(−2σ2(gi−f)2))
ln P ( g ∣ f ) = ∑ i = 1 n ( − 1 2 ln ( 2 π σ 2 ) − ( g i − f ) 2 2 σ 2 ) \ln P(\mathbf{g} | f) = \sum_{i=1}^n \left( -\frac{1}{2} \ln(2\pi\sigma^2) - \frac{(g_i - f)^2}{2\sigma^2} \right) lnP(g∣f)=i=1∑n(−21ln(2πσ2)−2σ2(gi−f)2)
忽略常数项,我们得到:
ln P ( g ∣ f ) = − 1 2 σ 2 ∑ i = 1 n ( g i − f ) 2 \ln P(\mathbf{g} | f) = -\frac{1}{2\sigma^2} \sum_{i=1}^n (g_i - f)^2 lnP(g∣f)=−2σ21i=1∑n(gi−f)2
4. 最大似然估计
为了最大化对数似然函数,我们需要最小化以下目标函数:
J ( f ) = ∑ i = 1 n ( g i − f ) 2 J(f) = \sum_{i=1}^n (g_i - f)^2 J(f)=i=1∑n(gi−f)2
这是一个二次函数,可以通过求导并令导数为零来找到最小值:
d J ( f ) d f = − 2 ∑ i = 1 n ( g i − f ) = 0 \frac{dJ(f)}{df} = -2 \sum_{i=1}^n (g_i - f) = 0 dfdJ(f)=−2i=1∑n(gi−f)=0
解这个方程:
∑ i = 1 n g i − n f = 0 \sum_{i=1}^n g_i - nf = 0 i=1∑ngi−nf=0
f = 1 n ∑ i = 1 n g i f = \frac{1}{n} \sum_{i=1}^n g_i f=n1i=1∑ngi
5. 结论
因此,基于高斯噪声模型的极大似然估计(MLE)结果是:
f ^ = 1 n ∑ i = 1 n g i \hat{f} = \frac{1}{n} \sum_{i=1}^n g_i f^=n1i=1∑ngi
即,观测值的算术平均值。
这个结果表明,在高斯噪声假设下,通过最大似然估计得到的最佳估计值就是这些像素点的算术平均值。在高斯噪声模型中,算术平均值也是最小二乘估计的最优解。
基于高斯噪声模型的线性最小均方估计
线性最小均方估计的目标是找到一个线性估计器,使得估计值与真实值之间的均方误差最小。
1.线性最小均方估计
线性最小均方估计的目标是找到一个线性估计器 f ^ \hat{f} f^,使得估计值与真实值之间的均方误差最小。假设我们有 n n n 个观测值 g 1 , g 2 , … , g n g_1, g_2, \ldots, g_n g1,g2,…,gn,线性估计器的形式为:
f ^ = ∑ i = 1 n w i g i \hat{f} = \sum_{i=1}^n w_i g_i f^=i=1∑nwigi
其中 w i w_i wi 是权重,满足 ∑ i = 1 n w i = 1 \sum_{i=1}^n w_i = 1 ∑i=1nwi=1。
2. 均方误差
均方误差(MSE)定义为:
MSE = E [ ( f ^ − f ) 2 ] \text{MSE} = E[(\hat{f} - f)^2] MSE=E[(f^−f)2]
代入线性估计器的形式:
MSE = E [ ( ∑ i = 1 n w i g i − f ) 2 ] \text{MSE} = E\left[\left(\sum_{i=1}^n w_i g_i - f\right)^2\right] MSE=E (i=1∑nwigi−f)2
3. 代入观测模型
将观测模型 g i = f + n i g_i = f + n_i gi=f+ni 代入均方误差:
MSE = E [ ( ∑ i = 1 n w i ( f + n i ) − f ) 2 ] \text{MSE} = E\left[\left(\sum_{i=1}^n w_i (f + n_i) - f\right)^2\right] MSE=E (i=1∑nwi(f+ni)−f)2
MSE = E [ ( ∑ i = 1 n w i f + ∑ i = 1 n w i n i − f ) 2 ] \text{MSE} = E\left[\left(\sum_{i=1}^n w_i f + \sum_{i=1}^n w_i n_i - f\right)^2\right] MSE=E (i=1∑nwif+i=1∑nwini−f)2
MSE = E [ ( f ∑ i = 1 n w i + ∑ i = 1 n w i n i − f ) 2 ] \text{MSE} = E\left[\left(f \sum_{i=1}^n w_i + \sum_{i=1}^n w_i n_i - f\right)^2\right] MSE=E (fi=1∑nwi+i=1∑nwini−f)2
由于 ∑ i = 1 n w i = 1 \sum_{i=1}^n w_i = 1 ∑i=1nwi=1,上式可以简化为:
MSE = E [ ( f + ∑ i = 1 n w i n i − f ) 2 ] \text{MSE} = E\left[\left(f + \sum_{i=1}^n w_i n_i - f\right)^2\right] MSE=E (f+i=1∑nwini−f)2
MSE = E [ ( ∑ i = 1 n w i n i ) 2 ] \text{MSE} = E\left[\left(\sum_{i=1}^n w_i n_i\right)^2\right] MSE=E (i=1∑nwini)2
4. 计算均方误差
由于 n i n_i ni 是独立同分布的高斯噪声,其均值为 0,方差为 σ 2 \sigma^2 σ2,因此:
E [ ( ∑ i = 1 n w i n i ) 2 ] = ∑ i = 1 n w i 2 E [ n i 2 ] + 2 ∑ i < j w i w j E [ n i n j ] E\left[\left(\sum_{i=1}^n w_i n_i\right)^2\right] = \sum_{i=1}^n w_i^2 E[n_i^2] + 2 \sum_{i < j} w_i w_j E[n_i n_j] E (i=1∑nwini)2 =i=1∑nwi2E[ni2]+2i<j∑wiwjE[ninj]
由于 E [ n i n j ] = 0 E[n_i n_j] = 0 E[ninj]=0 (因为 n i n_i ni 和 n j n_j nj 是独立的),上式进一步简化为:
E [ ( ∑ i = 1 n w i n i ) 2 ] = ∑ i = 1 n w i 2 E [ n i 2 ] E\left[\left(\sum_{i=1}^n w_i n_i\right)^2\right] = \sum_{i=1}^n w_i^2 E[n_i^2] E (i=1∑nwini)2 =i=1∑nwi2E[ni2]
由于 E [ n i 2 ] = σ 2 E[n_i^2] = \sigma^2 E[ni2]=σ2,我们得到:
MSE = σ 2 ∑ i = 1 n w i 2 \text{MSE} = \sigma^2 \sum_{i=1}^n w_i^2 MSE=σ2i=1∑nwi2
5. 最小化均方误差
为了最小化均方误差 MSE \text{MSE} MSE,我们需要最小化 ∑ i = 1 n w i 2 \sum_{i=1}^n w_i^2 ∑i=1nwi2。在约束条件 ∑ i = 1 n w i = 1 \sum_{i=1}^n w_i = 1 ∑i=1nwi=1 下,使用拉格朗日乘数法:
L ( w 1 , w 2 , … , w n , λ ) = ∑ i = 1 n w i 2 + λ ( 1 − ∑ i = 1 n w i ) L(w_1, w_2, \ldots, w_n, \lambda) = \sum_{i=1}^n w_i^2 + \lambda \left(1 - \sum_{i=1}^n w_i\right) L(w1,w2,…,wn,λ)=i=1∑nwi2+λ(1−i=1∑nwi)
对 w i w_i wi 求偏导并令其为零:
∂ L ∂ w i = 2 w i − λ = 0 \frac{\partial L}{\partial w_i} = 2w_i - \lambda = 0 ∂wi∂L=2wi−λ=0
解得:
w i = λ 2 w_i = \frac{\lambda}{2} wi=2λ
代入约束条件 ∑ i = 1 n w i = 1 \sum_{i=1}^n w_i = 1 ∑i=1nwi=1:
∑ i = 1 n λ 2 = 1 \sum_{i=1}^n \frac{\lambda}{2} = 1 i=1∑n2λ=1
n λ 2 = 1 \frac{n\lambda}{2} = 1 2nλ=1
λ = 2 n \lambda = \frac{2}{n} λ=n2
因此:
w i = 1 n w_i = \frac{1}{n} wi=n1
6. 结论
最优的权重 w i w_i wi 为 1 n \frac{1}{n} n1,因此线性最小均方估计器为:
f ^ = ∑ i = 1 n 1 n g i = 1 n ∑ i = 1 n g i \hat{f} = \sum_{i=1}^n \frac{1}{n} g_i = \frac{1}{n} \sum_{i=1}^n g_i f^=i=1∑nn1gi=n1i=1∑ngi
在高斯噪声模型中,最小化平方误差(即最小二乘估计)等价于最大似然估计。