当前位置: 首页 > article >正文

统计学中的得分函数(Score Function)是什么?它和Fisher信息矩阵有什么关系?

得分函数:统计学中的“敏感探针”

在统计学和概率论中,得分函数(Score Function)是一个看似简单却非常重要的概念。它不仅是Fisher信息矩阵的核心组成部分,还在参数估计、模型优化等领域发挥着关键作用。今天,我们就来聊聊什么是得分函数,它有什么用,以及为什么它能揭示参数间的“正交性”——比如在正态分布中,均值 ( μ \mu μ ) 和方差 ( σ 2 \sigma^2 σ2 ) 的得分函数为何在期望上“互不干扰”。


什么是得分函数?

得分函数的定义非常直白:它是对数似然函数(log-likelihood)对某个参数的偏导数。假设我们有一个概率分布 ( p ( x ∣ θ ) p(x|\theta) p(xθ) ),其中 ( θ \theta θ ) 是参数(可以是一个标量或向量),对数似然函数是 ( log ⁡ p ( x ∣ θ ) \log p(x|\theta) logp(xθ) )。那么,得分函数就是:

s ( θ ) = ∂ log ⁡ p ( x ∣ θ ) ∂ θ s(\theta) = \frac{\partial \log p(x|\theta)}{\partial \theta} s(θ)=θlogp(xθ)

简单来说,得分函数衡量了当参数 ( θ \theta θ ) 发生微小变化时,对数似然函数的“敏感度”。它就像一个探针,告诉你数据对参数的依赖程度。

一个通俗的比喻

想象你在调收音机的频率,想找到最清晰的信号(最佳参数)。你轻轻转动旋钮,信号强度的变化就是“得分函数”——它告诉你当前频率是否接近最佳点。如果变化很大(得分函数值大),说明你离目标还远;如果变化趋于零,说明你可能已经调到最佳位置了。


得分函数的数学性质

得分函数不仅仅是一个偏导数,它还有一些有趣的统计性质,让它在理论和实践中都非常有用。

期望为零

一个关键性质是:得分函数在真实参数下的期望为零。数学上:

E [ ∂ log ⁡ p ( x ∣ θ ) ∂ θ ∣ θ ] = 0 E\left[ \frac{\partial \log p(x|\theta)}{\partial \theta} \bigg| \theta \right] = 0 E[θlogp(xθ) θ]=0

为什么会这样?因为对数似然函数的导数反映了似然函数的“坡度”,而在真实参数 ( θ \theta θ ) 下,似然函数达到极大值(对于最大似然估计来说),坡度为零。这个性质可以通过积分证明:

E [ s ( θ ) ] = ∫ ∂ log ⁡ p ( x ∣ θ ) ∂ θ p ( x ∣ θ )   d x = ∫ 1 p ( x ∣ θ ) ∂ p ( x ∣ θ ) ∂ θ p ( x ∣ θ )   d x = ∫ ∂ p ( x ∣ θ ) ∂ θ   d x E[s(\theta)] = \int \frac{\partial \log p(x|\theta)}{\partial \theta} p(x|\theta) \, dx = \int \frac{1}{p(x|\theta)} \frac{\partial p(x|\theta)}{\partial \theta} p(x|\theta) \, dx = \int \frac{\partial p(x|\theta)}{\partial \theta} \, dx E[s(θ)]=θlogp(xθ)p(xθ)dx=p(xθ)1θp(xθ)p(xθ)dx=θp(xθ)dx

由于 ( p ( x ∣ θ ) p(x|\theta) p(xθ) ) 是概率密度函数,其积分恒等于 1,对 ( θ \theta θ ) 求导后:

∂ ∂ θ ∫ p ( x ∣ θ )   d x = ∫ ∂ p ( x ∣ θ ) ∂ θ   d x = 0 \frac{\partial}{\partial \theta} \int p(x|\theta) \, dx = \int \frac{\partial p(x|\theta)}{\partial \theta} \, dx = 0 θp(xθ)dx=θp(xθ)dx=0

所以期望为零。这说明得分函数的波动是围绕零对称的。

方差与Fisher信息

具体请看笔者的另一篇博客:Fisher信息矩阵(Fisher Information Matrix,简称FIM)

得分函数的方差却不是零,而是与Fisher信息密切相关。对于单个参数 ( θ \theta θ ):

I ( θ ) = E [ ( ∂ log ⁡ p ( x ∣ θ ) ∂ θ ) 2 ∣ θ ] I(\theta) = E\left[ \left( \frac{\partial \log p(x|\theta)}{\partial \theta} \right)^2 \bigg| \theta \right] I(θ)=E[(θlogp(xθ))2 θ]

如果是多参数情况,Fisher信息矩阵的元素是:

I i j = E [ ∂ log ⁡ p ∂ θ i ∂ log ⁡ p ∂ θ j ∣ θ ] I_{ij} = E\left[ \frac{\partial \log p}{\partial \theta_i} \frac{\partial \log p}{\partial \theta_j} \bigg| \theta \right] Iij=E[θilogpθjlogp θ]

这意味着Fisher信息捕捉了得分函数的“波动大小”或“信息含量”。


得分函数有什么用?

得分函数看似抽象,但在实际应用中非常强大。以下是它的几个主要用途:

1. 最大似然估计(MLE)

在最大似然估计中,我们通过求解得分函数等于零的点来估计参数:

∂ log ⁡ p ( x ∣ θ ) ∂ θ = 0 \frac{\partial \log p(x|\theta)}{\partial \theta} = 0 θlogp(xθ)=0

这就像找到山顶(似然函数的最大值)。例如,对于正态分布 ( N ( μ , σ 2 ) N(\mu, \sigma^2) N(μ,σ2) ):

  • ( ∂ log ⁡ p ∂ μ = x − μ σ 2 \frac{\partial \log p}{\partial \mu} = \frac{x - \mu}{\sigma^2} μlogp=σ2xμ ),令其为零,解得 ( μ ^ = x \hat{\mu} = x μ^=x )。

得分函数直接引导我们找到最佳估计。

2. Fisher信息与参数不确定性

Fisher信息矩阵由得分函数的二阶统计量构成,它告诉我们参数估计的精度有多高。Fisher信息的逆矩阵给出了参数估计方差的下界(Cramér-Rao下界),反映了估计的不确定性。

例如,在正态分布中:

  • ( I μ μ = 1 σ 2 I_{\mu\mu} = \frac{1}{\sigma^2} Iμμ=σ21 ),说明 ( μ \mu μ ) 的估计方差下界与 ( σ 2 \sigma^2 σ2 ) 成正比。

3. 参数正交性与 ( I 12 = 0 I_{12} = 0 I12=0 )

当我们有多个参数时,得分函数之间的关系揭示了参数间的依赖性。如果 ( I i j = 0 I_{ij} = 0 Iij=0 )(( i ≠ j i \neq j i=j )),说明 ( θ i \theta_i θi ) 和 ( θ j \theta_j θj ) 的得分函数在期望上无关,这种情况称为“信息正交”。

以正态分布为例:

  • ( ∂ log ⁡ p ∂ μ = x − μ σ 2 \frac{\partial \log p}{\partial \mu} = \frac{x - \mu}{\sigma^2} μlogp=σ2xμ )

  • ( ∂ log ⁡ p ∂ σ 2 = − 1 2 σ 2 + ( x − μ ) 2 2 ( σ 2 ) 2 \frac{\partial \log p}{\partial \sigma^2} = -\frac{1}{2\sigma^2} + \frac{(x - \mu)^2}{2(\sigma^2)^2} σ2logp=2σ21+2(σ2)2(xμ)2 )

计算交叉项:

I 12 = E [ x − μ σ 2 ⋅ ( − 1 2 σ 2 + ( x − μ ) 2 2 ( σ 2 ) 2 ) ] I_{12} = E\left[ \frac{x - \mu}{\sigma^2} \cdot \left( -\frac{1}{2\sigma^2} + \frac{(x - \mu)^2}{2(\sigma^2)^2} \right) \right] I12=E[σ2xμ(2σ21+2(σ2)2(xμ)2)]

展开后取期望,因为 ( E [ x − μ ] = 0 E[x - \mu] = 0 E[xμ]=0 ) 和 ( E [ ( x − μ ) 3 ] = 0 E[(x - \mu)^3] = 0 E[(xμ)3]=0 )(正态分布奇数阶矩为零),结果为 ( I 12 = 0 I_{12} = 0 I12=0 )。这表明 ( μ \mu μ ) 和 ( σ 2 \sigma^2 σ2 ) 的信息是独立的,估计一个参数不会干扰另一个。具体计算过程请看笔者的另一篇博客:Fisher信息矩阵(Fisher Information Matrix,简称FIM)


参数正交的意义

当 ( I 12 = 0 I_{12} = 0 I12=0 ) 时,参数在信息上是正交的,这有什么实际意义呢?

1. 估计的独立性

信息正交意味着估计 ( μ \mu μ ) 时,方差 ( σ 2 \sigma^2 σ2 ) 的不确定性不会混淆结果,反之亦然。这简化了统计推断,尤其在大样本下,估计的协方差矩阵是对角的。

2. 模型设计的启示

在参数化模型设计中,如果能让参数正交,就能减少估计时的相互干扰。例如,正态分布的自然参数化(用 ( 1 σ 2 \frac{1}{\sigma^2} σ21 ) 和 ( μ σ 2 \frac{\mu}{\sigma^2} σ2μ ))保持了这种正交性。

3. 机器学习中的应用

在深度学习中,Fisher信息矩阵用于优化(如自然梯度下降)。参数正交性可以帮助分离梯度方向,提高训练效率。


总结

得分函数是对数似然函数的偏导数,是统计学中的“敏感探针”。它不仅帮助我们找到最大似然估计,还通过Fisher信息揭示参数的信息含量和不确定性。当不同参数的得分函数交叉项期望为零(如 ( I 12 = 0 I_{12} = 0 I12=0 )),它们在信息上正交,意味着参数估计互不干扰。这种性质在正态分布等模型中尤为明显,也为统计建模和优化提供了重要指导。

后记

2025年2月24日21点53分于上海,在Grok3大模型辅助下完成。


http://www.kler.cn/a/563053.html

相关文章:

  • LabVIEW形状误差测量系统
  • Docker基础实践与应用举例
  • 10. docker nginx官方镜像使用方法
  • 剑指 Offer II 032. 有效的变位词
  • 面试基础---ConcurrentHashMap vs HashMap
  • 音效:石头滚动墙壁倒塌滑坡音效素材 Just Sound Effects - Stones and Debris WAV
  • nginx 正向代理与反向代理
  • 计算机毕业设计 ——jspssm508Springboot 的旅游管理
  • 【Linux 进程状态】—— 从创建到消亡的全生命周期
  • leetcode day23 54 螺旋矩阵
  • 音视频编码和封装格式
  • 基于DeepSeek-R1-70b的医疗AI训练推理框架的详细解析
  • 【万字长文】开源之播对话白鲸开源CEO郭炜--乐观主义的开源精神走得更远
  • Imagination 最新的D系列GPU IP 为智能手机和其他电力受限设备上图形和计算工作负载的高效加速设定了新的标准
  • Python 流程控制终极指南:if-else 和 for-while深度解析
  • 单片机病房呼叫系统设计
  • Java常见设计模式(上):创建型模式
  • 介绍一下自动驾驶 泊车算法
  • Agilent83630B信号发生器,可提供用来满足各种应用需要的机型选择机会
  • 【医学分割】基于显式形状先验学习的医学图像分割