当前位置: 首页 > article >正文

参数估计(一)(点估计)

文章目录

  • 点估计和估计量的求法
    • 点估计概念
    • 矩估计法
    • 极大似然估计法
  • 参考文献

参数估计是数理统计中重要的基本问题之一。通常,称参数的可容许值的全体为参数空间,并记为 Θ \Theta Θ。所谓参数估计就是由样本对总体分布所含的未知参数做出估计。另外,在有些实际问题中,由于事先并不知道总体 X X X 的分布类型,而要对其某些数字特征,如均值、方差等做出估计,习惯上也把这些数字特征称为参数,对它们进行估计也属于参数估计范畴。

点估计和估计量的求法

点估计概念

设总体 X X X 的分布函数是 F ( x ; θ 1 , . . . , θ l ) F(x;\theta_1,...,\theta_l) F(x;θ1,...,θl),其中 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl 是未知参数, X 1 , . . . , X n X_1,...,X_n X1,...,Xn 是来自总体 X X X 的样本, x 1 , . . . , x n x_1,...,x_n x1,...,xn 是相应的样本值,参数点估计就是研究如何构造适当的统计量 θ ^ i ( X 1 , . . . , X n ) \hat{\theta}_i(X_1,...,X_n) θ^i(X1,...,Xn),并分别用观察值 θ ^ i ( x 1 , . . . , x n ) \hat{\theta}_i(x_1,...,x_n) θ^i(x1,...,xn) 作为未知参数 θ i \theta_i θi 的估计

通常,称用作估计的统计量 θ ^ i ( X 1 , . . . , X n ) \hat{\theta}_i(X_1,...,X_n) θ^i(X1,...,Xn)估计量,称其观察值 θ ^ i ( x 1 , . . . , x n ) \hat{\theta}_i(x_1,...,x_n) θ^i(x1,...,xn)估计值

由于对不同的样本值,得到的参数估计值往往不同,因此,点估计问题的关键在于构造估计量的方法。下面介绍求估计量的一些常用方法。

矩估计法

设总体 X X X 的分布中含有 l l l 个未知参数 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl,又设总体 X X X 的前 l l l 阶原点矩 α k = E ( X k ) ( k = 1 , . . . , l ) \alpha_k=E(X^k)(k=1,...,l) αk=E(Xk)(k=1,...,l) 存在,且是 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl 的函数,即 α k = α k ( θ 1 , . . . , θ l ) \alpha_k=\alpha_k(\theta_1,...,\theta_l) αk=αk(θ1,...,θl),令
α k ( θ ^ 1 , . . . , θ ^ l ) = A k , k = 1 , . . . , l \alpha_k(\hat{\theta}_1,...,\hat{\theta}_l)=A_k,\quad k=1,...,l αk(θ^1,...,θ^l)=Ak,k=1,...,l
解此方程组可得 θ ^ 1 , . . . , θ ^ l \hat{\theta}_1,...,\hat{\theta}_l θ^1,...,θ^l,并将它们分别作为 θ 1 , . . . , θ l \theta_1,...,\theta_l θ1,...,θl 的估计量。这种求估计量的方法称为矩估计法,用矩估计法求得的估计量称为矩估计量

例:设总体 X X X 的二阶矩存在, X 1 , . . . , X n X_1,...,X_n X1,...,Xn 为总体 X X X 的样本,求总体均值 μ \mu μ 与总体方差 σ 2 \sigma^2 σ2 的矩估计。

解:因 α 1 = μ , α 2 = σ 2 + μ 2 \alpha_1=\mu, \alpha_2=\sigma^2+\mu^2 α1=μ,α2=σ2+μ2,令 { μ ^ = A 1 = X ˉ σ ^ 2 + μ ^ 2 = A 2 = 1 n ∑ i = 1 n X i 2 \begin{cases} \hat{\mu}=A_1=\bar{X} \\ \hat{\sigma}^2+\hat{\mu}^2=A_2=\frac{1}{n}\sum_{i=1}^n X_i^2 \end{cases} {μ^=A1=Xˉσ^2+μ^2=A2=n1i=1nXi2
解得 μ \mu μ σ 2 \sigma^2 σ2 的矩估计分别为
μ ^ = X ˉ \hat{\mu}=\bar{X} μ^=Xˉ σ ^ 2 = A 2 − X ˉ 2 = S 2 \hat{\sigma}^2=A_2-\bar{X}^2=S^2 σ^2=A2Xˉ2=S2

极大似然估计法

以下用 X = ( X 1 , . . . , X n ) T \boldsymbol{X}=(X_1,...,X_n)^T X=(X1,...,Xn)T 表示样本, x = ( x 1 , . . . , x n ) T \boldsymbol{x}=(x_1,...,x_n)^T x=(x1,...,xn)T 表示样本点, f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) 表示样本分布。

极大似然法的提出是基于如下的想法:

当给定 θ \theta θ 时, f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) 度量样本 X \boldsymbol{X} X x \boldsymbol{x} x 点发生的可能性。对于样本空间中的两个不同样本点 x 1 , x 2 ∈ X \boldsymbol{x}_1, \boldsymbol{x}_2 \in \mathcal{X} x1,x2X,如果有 f ( x 1 ; θ ) > f ( x 2 ; θ ) f(\boldsymbol{x}_1;\theta) > f(\boldsymbol{x}_2;\theta) f(x1;θ)>f(x2;θ),自然会认为样本 X \boldsymbol{X} X 更可能在 x 1 \boldsymbol{x}_1 x1 点发生。

现在换个角度来看待 f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ)。当给定样本点 x \boldsymbol{x} x 时,对参数空间中的两个不同参数 θ 1 , θ 2 ∈ Θ \theta_1,\theta_2 \in \Theta θ1,θ2Θ,如果有 f ( x ; θ 1 ) > f ( x ; θ 2 ) f(\boldsymbol{x};\theta_1) > f(\boldsymbol{x};\theta_2) f(x;θ1)>f(x;θ2),那么会认为样本点 x \boldsymbol{x} x是来自总体 f ( X ; θ 1 ) f(\boldsymbol{X};\theta_1) f(X;θ1),所以,数 f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) 的大小可作为参数 θ \theta θ 对产生样本观察值 x \boldsymbol{x} x 有多大似然性的一种度量。

当给定样本点 x \boldsymbol{x} x 时,称 f ( x ; θ ) f(\boldsymbol{x};\theta) f(x;θ) θ \theta θ似然函数,记为 L ( θ ; x ) L(\theta;\boldsymbol{x}) L(θ;x),即
L ( θ ; x ) = f ( x ; θ ) = { ∏ i = 1 n p ( x i ; θ ) , 总体 X 为离散型随机变量 ∏ i = 1 n f ( x i ; θ ) , 总体 X 为连续型随机变量 L(\theta;\boldsymbol{x})=f(\boldsymbol{x};\theta)=\begin{cases} \prod_{i=1}^np(x_i;\theta), & 总体 X 为离散型随机变量 \\ \prod_{i=1}^nf(x_i;\theta), & 总体 X 为连续型随机变量 \end{cases} L(θ;x)=f(x;θ)={i=1np(xi;θ),i=1nf(xi;θ),总体X为离散型随机变量总体X为连续型随机变量
而称 ln ⁡ f ( x ; θ ) \ln f(\boldsymbol{x};\theta) lnf(x;θ)对数似然函数,记为 ln ⁡ L ( θ ; x ) \ln L(\theta;\boldsymbol{x}) lnL(θ;x)

若有统计量 θ ^ ≏ θ ^ ( X ) \hat{\theta}\bumpeq \hat{\theta}(\boldsymbol{X}) θ^θ^(X),使得
L ( θ ^ ( x ) ; x ) = sup ⁡ θ ∈ Θ { L ( θ ; x ) } L(\hat{\theta}(\boldsymbol{x});\boldsymbol{x})=\sup_{\theta \in \Theta}\{L(\theta;\boldsymbol{x})\} L(θ^(x);x)=θΘsup{L(θ;x)}
或等价的,使得
ln ⁡ L ( θ ^ ( x ) ; x ) = sup ⁡ θ ∈ Θ { ln ⁡ L ( θ ; x ) } \ln L(\hat{\theta}(\boldsymbol{x});\boldsymbol{x})=\sup_{\theta \in \Theta}\{\ln L(\theta;\boldsymbol{x})\} lnL(θ^(x);x)=θΘsup{lnL(θ;x)}
则称 θ ^ ( X ) \hat{\theta}(\boldsymbol{X}) θ^(X) 为参数 θ \theta θ极大似然估计量(Maximum Likelihood Estimators, MLE)。

例:设总体 X ∼ P ( λ ) , λ > 0 X \sim P(\lambda),\lambda>0 XP(λ),λ>0,试求参数 λ \lambda λ 的极大似然估计量。

解: X X X 的概率函数为
P { X = x } = λ x x ! e − λ , x = 0 , 1 , 2 , . . . P\{X=x\}=\frac{\lambda^x}{x!}e^{-\lambda},\quad x=0,1,2,... P{X=x}=x!λxeλ,x=0,1,2,...
λ \lambda λ 的似然函数为
L ( λ ) = ∏ i = 1 n ( λ x i x i ! e − λ ) = e − n λ λ ∑ i = 1 n x i ∏ i = 1 n ( x i ! ) L(\lambda)=\prod_{i=1}^n (\frac{\lambda^{x_i}}{x_i!}e^{-\lambda})=e^{-n\lambda}\frac{\lambda^{\sum_{i=1}^nx_i}}{\prod_{i=1}^n(x_i!)} L(λ)=i=1n(xi!λxieλ)=ei=1n(xi!)λi=1nxi
对数似然函数为
ln ⁡ L ( λ ) = − n λ + ln ⁡ λ ∑ i = 1 n x i − ∑ i = 1 n ln ⁡ ( x i ! ) \ln L(\lambda)=-n\lambda+\ln \lambda \sum_{i=1}^nx_i-\sum_{i=1}^n \ln(x_i!) lnL(λ)=+lnλi=1nxii=1nln(xi!)

∂ ln ⁡ L ( λ ) ∂ λ = − n + 1 λ ∑ i = 1 n x i = 0 \frac{\partial \ln L(\lambda)}{\partial \lambda}=-n+\frac{1}{\lambda}\sum_{i=1}^nx_i=0 λlnL(λ)=n+λ1i=1nxi=0
该似然方程有唯一解 λ ^ = 1 n ∑ i = 1 n x i = x ˉ \hat{\lambda}=\frac{1}{n}\sum_{i=1}^nx_i=\bar{x} λ^=n1i=1nxi=xˉ,又因
∂ 2 ln ⁡ L ( λ ) ∂ λ 2 ∣ λ = x ˉ < 0 \frac{\partial^2 \ln L(\lambda)}{\partial \lambda^2}|_{\lambda=\bar{x}}<0 λ22lnL(λ)λ=xˉ<0
λ \lambda λ 的极大似然估计量为 λ ^ = X ˉ \hat{\lambda}=\bar{X} λ^=Xˉ

参考文献

[1] 《应用数理统计》,施雨,西安交通大学出版社。


http://www.kler.cn/news/135743.html

相关文章:

  • Spring Boot接口设计规范
  • 网络参考模型与标准协议(二)-TCP/IP对等模型详细介绍
  • 杭电oj 2050 折线分割平面 C语言
  • Tomcat web.xml文件中的mime-mapping
  • clickhouse数据结构和常用数据操作
  • Flutter笔记:桌面端应用多窗口管理方案
  • Javaweb之Ajax的详细解析
  • Jenkins代码检测和本地静态检查
  • 探索亚马逊大语言模型:开启人工智能时代的语言创作新篇章
  • ES的索引概念
  • 关于node安装和nvm安装的问题
  • 《缺氧》笔记整理
  • AIGC ChatGPT 4 将数据接口文件使用Python进行入库Mysql
  • 信息安全相关标准
  • 新人报到
  • 【仿真动画】ABB IRB 8700 机器人搬运(ruckig在线轨迹生成)动画欣赏
  • 场景交互与场景漫游-交运算与对象选取(8-1)
  • 微服务实战系列之Token
  • 深度学习二维码识别 计算机竞赛
  • 黑马程序员 计算机网络(笔记)
  • Hello World分析
  • iceberg学习笔记(2)—— 与Hive集成
  • webSocket基于面向对象二次封装
  • vue3基于vite打包
  • echarts 折线图内容区域渐变、曲线平滑
  • MyBatis 事务源码分析
  • 2024年软件测试面试必看系列,看完去面试你会感谢我的!!
  • [Jenkins] Docker 安装Jenkins及迁移流程
  • nginx代理本地服务请求,避免跨域;前端图片压缩并上传
  • ajax,axios,fetch