当前位置: 首页 > article >正文

从统计学视角看机器学习的训练与推理

从统计学视角看机器学习的训练与推理

目录

  1. 引言:统计学与机器学习的奇妙缘分
  2. 训练与推理:你得先学会“看数据”再“用数据”
  3. 最大似然估计(MLE):从直觉到数学证明
    • 3.1 伯努利分布的MLE
    • 3.2 单变量高斯分布的MLE
    • 3.3 多元高斯与线性回归中的MLE
  4. 经验风险最小(ERM):MLE的自然推广
  5. 其他估计方法:矩估计、在线递归估计与指数加权移动平均
  6. 总结与展望

引言:统计学与机器学习的奇妙缘分

当我们谈论机器学习时,其实是在说如何“训练”一个模型,让它能够从数据中“推理”出规律。统计学作为这一过程的数学基石,提供了严格的理论支持。从古老的贝叶斯推理到现代的频数推理,每种方法都有其独特的数学证明和直观解释。本文就将带你走进这些理论的世界,让你在大白话的解释中,感受到数学公式背后的美妙逻辑!

训练与推理:你得先学会“看数据”再“用数据”

在机器学习中,我们通常把整个过程分为两个阶段:训练和推理。训练阶段,我们使用大量数据来“教会”模型识别数据的内在规律;而在推理阶段,模型利用学到的知识对新数据进行预测。两者的区别在于:

  • 训练(Training): 模型根据已知数据调整自身参数,就像你学习数学时不断做题、修正错误。这个过程本质上就是参数估计和优化问题。
  • 推理(Inference): 模型用训练中学到的参数去处理未知数据,给出预测结果,就像考试时你凭借平时的训练作答。

在统计学里,我们往往用概率分布来刻画数据,通过最大似然估计、贝叶斯方法等工具,实现训练与推理的数学转化。

最大似然估计(MLE):从直觉到数学证明

最大似然估计是统计学中最核心的参数估计方法之一,它的思想其实很直白——选择使得观测数据出现概率最大的参数值。下面,我们通过几个经典例子来详细说明这一过程。

伯努利分布的MLE

假设你在做一个抛硬币实验,每次实验的结果只有“正面”(1)和“反面”(0)。用$ \theta $表示出现正面的概率,那么一组独立实验的似然函数为:

L ( θ ) = ∏ i = 1 n θ x i ( 1 − θ ) 1 − x i L(\theta)=\prod_{i=1}^{n} \theta^{x_i}(1-\theta)^{1-x_i} L(θ)=i=1nθxi(1θ)1xi

为了方便求导,我们取对数,得到对数似然函数:

ℓ ( θ ) = ∑ i = 1 n [ x i log ⁡ θ + ( 1 − x i ) log ⁡ ( 1 − θ ) ] \ell(\theta)=\sum_{i=1}^{n} \Bigl[x_i\log\theta+(1-x_i)\log(1-\theta)\Bigr] (θ)=i=1n[xilogθ+(1xi)log(1θ)]

接下来,对 θ \theta θ求导并令导数为零,我们可以得到:

d ℓ ( θ ) d θ = ∑ i = 1 n x i θ − n − ∑ i = 1 n x i 1 − θ = 0 \frac{d\ell(\theta)}{d\theta}=\frac{\sum_{i=1}^{n}x_i}{\theta}-\frac{n-\sum_{i=1}^{n}x_i}{1-\theta}=0 dθd(θ)=θi=1nxi1θni=1nxi=0

解得:

θ = 1 n ∑ i = 1 n x i \theta=\frac{1}{n}\sum_{i=1}^{n}x_i θ=n1i=1nxi

这告诉我们,最佳的参数 θ \theta θ就是正面出现的频率。简单明了,对吧?

单变量高斯分布的MLE

对于连续变量,最常用的分布之一就是高斯分布。设数据服从单变量高斯分布:

p ( x ∣ μ , σ 2 ) = 1 2 π σ 2 exp ⁡ ( − ( x − μ ) 2 2 σ 2 ) p(x|\mu,\sigma^2)=\frac{1}{\sqrt{2\pi\sigma^2}}\exp\Bigl(-\frac{(x-\mu)^2}{2\sigma^2}\Bigr) p(xμ,σ2)=2πσ2 1exp(2σ2(xμ)2)

对于独立数据集,似然函数为:

L ( μ , σ 2 ) = ∏ i = 1 n 1 2 π σ 2 exp ⁡ ( − ( x i − μ ) 2 2 σ 2 ) L(\mu,\sigma^2)=\prod_{i=1}^{n}\frac{1}{\sqrt{2\pi\sigma^2}}\exp\Bigl(-\frac{(x_i-\mu)^2}{2\sigma^2}\Bigr) L(μ,σ2)=i=1n2πσ2 1exp(2σ2(xiμ)2)

取对数后得到:

ℓ ( μ , σ 2 ) = − n 2 log ⁡ ( 2 π σ 2 ) − 1 2 σ 2 ∑ i = 1 n ( x i − μ ) 2 \ell(\mu,\sigma^2)=-\frac{n}{2}\log(2\pi\sigma^2)-\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\mu)^2 (μ,σ2)=2nlog(2πσ2)2σ21i=1n(xiμ)2

分别对 μ \mu μ σ 2 \sigma^2 σ2求导并令导数为零,我们能推导出:

μ = 1 n ∑ i = 1 n x i \mu=\frac{1}{n}\sum_{i=1}^{n}x_i μ=n1i=1nxi

σ 2 = 1 n ∑ i = 1 n ( x i − μ ) 2 \sigma^2=\frac{1}{n}\sum_{i=1}^{n}(x_i-\mu)^2 σ2=n1i=1n(xiμ)2

这两个公式直观地告诉我们,数据的均值和方差正是高斯分布参数的最佳估计。

多元高斯与线性回归中的MLE

当数据是多维的,我们用多元高斯分布来描述数据。设 x ∈ R d \mathbf{x}\in \mathbb{R}^d xRd,其概率密度函数为:

p ( x ∣ μ , Σ ) = 1 ( 2 π ) d / 2 ∣ Σ ∣ 1 / 2 exp ⁡ ( − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) ) p(\mathbf{x}|\boldsymbol{\mu},\Sigma)=\frac{1}{(2\pi)^{d/2}|\Sigma|^{1/2}}\exp\Bigl(-\frac{1}{2}(\mathbf{x}-\boldsymbol{\mu})^T\Sigma^{-1}(\mathbf{x}-\boldsymbol{\mu})\Bigr) p(xμ,Σ)=(2π)d/2∣Σ1/21exp(21(xμ)TΣ1(xμ))

同样地,对数似然函数为:

ℓ ( μ , Σ ) = − n 2 log ⁡ ( ( 2 π ) d ∣ Σ ∣ ) − 1 2 ∑ i = 1 n ( x i − μ ) T Σ − 1 ( x i − μ ) \ell(\boldsymbol{\mu},\Sigma)=-\frac{n}{2}\log((2\pi)^d|\Sigma|)-\frac{1}{2}\sum_{i=1}^{n}(\mathbf{x}_i-\boldsymbol{\mu})^T\Sigma^{-1}(\mathbf{x}_i-\boldsymbol{\mu}) (μ,Σ)=2nlog((2π)d∣Σ∣)21i=1n(xiμ)TΣ1(xiμ)

通过对 μ \boldsymbol{\mu} μ Σ \Sigma Σ求导,可以得到最优估计公式。特别地,在线性回归中,我们假定目标变量 y y y与输入特征 x \mathbf{x} x之间满足:

y = x T β + ϵ , ϵ ∼ N ( 0 , σ 2 ) y=\mathbf{x}^T\boldsymbol{\beta}+\epsilon,\quad \epsilon\sim N(0,\sigma^2) y=xTβ+ϵ,ϵN(0,σ2)

在这种假设下,最大似然估计的求解过程等价于最小二乘法,最佳参数为:

β ^ = ( X T X ) − 1 X T y \hat{\boldsymbol{\beta}}=(X^TX)^{-1}X^Ty β^=(XTX)1XTy

同时,噪声方差的估计为:

σ ^ 2 = 1 n ∥ y − X β ^ ∥ 2 \hat{\sigma}^2=\frac{1}{n}\|y-X\hat{\boldsymbol{\beta}}\|^2 σ^2=n1yXβ^2

这些推导不仅告诉我们如何从数据中“学习”参数,更为后续更复杂的模型训练提供了理论基础。

经验风险最小(ERM):MLE的自然推广

最大似然估计是一种非常特殊的经验风险最小(ERM)方法。当我们在训练一个模型时,目标是最小化经验风险,即:

θ ^ = arg ⁡ min ⁡ θ 1 n ∑ i = 1 n L ( y i , f ( x i ; θ ) ) \hat{\theta}=\arg\min_{\theta}\frac{1}{n}\sum_{i=1}^{n}L(y_i,f(x_i;\theta)) θ^=argθminn1i=1nL(yi,f(xi;θ))

这里, L L L是损失函数,而 f ( x i ; θ ) f(x_i;\theta) f(xi;θ)是模型预测值。如果我们选择 L L L为负对数似然,那么ERM就完全等价于MLE。这说明,经验风险最小化不仅适用于概率模型,也适用于更广泛的模型训练问题,是MLE思想的自然推广。

其他估计方法:矩估计、在线递归估计与指数加权移动平均

除了MLE之外,统计学中还有许多其他参数估计方法。下面我们用大白话和公式来解释几种常见的方法:

矩估计法(Method of Moments, MOM)

矩估计法的基本思想是:用样本矩来估计分布的理论矩。例如,对于单变量高斯分布,我们有:

μ = E [ x ] ≈ 1 n ∑ i = 1 n x i \mu=E[x]\approx \frac{1}{n}\sum_{i=1}^{n}x_i μ=E[x]n1i=1nxi

σ 2 = E [ ( x − μ ) 2 ] ≈ 1 n ∑ i = 1 n ( x i − μ ) 2 \sigma^2=E[(x-\mu)^2]\approx \frac{1}{n}\sum_{i=1}^{n}(x_i-\mu)^2 σ2=E[(xμ)2]n1i=1n(xiμ)2

对于均匀分布 U ( a , b ) U(a,b) U(a,b),已知其理论均值和方差分别为:

μ = a + b 2 , σ 2 = ( b − a ) 2 12 \mu=\frac{a+b}{2},\quad \sigma^2=\frac{(b-a)^2}{12} μ=2a+b,σ2=12(ba)2

利用样本均值和样本方差,我们可以反推出分布的参数。这种方法简单直观,适用于很多分布的参数估计。

在线递归估计与高斯分布均值的递归MLE

在实际应用中,数据往往是不断到来的,我们希望能够实时更新模型参数。在线递归估计便是一种非常实用的方法。例如,对高斯分布均值的递归估计公式为:

μ ^ t = μ ^ t − 1 + α ( x t − μ ^ t − 1 ) \hat{\mu}_t=\hat{\mu}_{t-1}+\alpha(x_t-\hat{\mu}_{t-1}) μ^t=μ^t1+α(xtμ^t1)

其中, α \alpha α是一个学习率参数,控制新数据对估计值的影响。这其实和我们日常生活中的“不断修正预期”很像:每次遇到新情况,我们就会略微调整之前的看法。

指数加权移动平均(Exponential Weighted Moving Average, EWMA)

当我们希望对时间序列数据进行平滑处理时,指数加权移动平均是一个好方法。其公式为:

S t = λ x t + ( 1 − λ ) S t − 1 S_t=\lambda x_t+(1-\lambda)S_{t-1} St=λxt+(1λ)St1

其中, λ \lambda λ为平滑系数(通常在 0 0 0 1 1 1之间), S t S_t St为当前的平滑值。简单来说,每个时刻的估计值不仅考虑当前数据 x t x_t xt,还会参考之前的状态 S t − 1 S_{t-1} St1,使得整体估计更平滑、鲁棒性更高。

总结与展望

通过上面的讨论,我们可以看到,统计学不仅为机器学习中的训练和推理提供了理论基础,更在参数估计上展现出极大的魅力。无论是最大似然估计的严谨证明,还是经验风险最小化的广义框架,都为我们理解机器学习模型的本质提供了强有力的支持。同时,矩估计、在线递归估计和指数加权移动平均等方法,也展示了数据流时代实时更新模型参数的可能性。



http://www.kler.cn/a/569137.html

相关文章:

  • Svelte 开发 AI 应用:高效轻量级前端框架的 AI 集成探索
  • LM studio 加载ollama的模型
  • 阿里云ECS Ubuntu PPTP VPN无法访问以太网
  • 通信原理速成笔记(信息论及编码)
  • Spring Boot 异步编程深入剖析
  • openssl下aes128算法ofb模式加解密运算实例
  • AI人工智能机器学习之聚类分析
  • 迷你世界脚本聊天接口:Chat
  • 【Android】安卓付款密码输入框、支付密码输入框
  • Maven的传递性、排除依赖、生命周期、插件
  • AWS SQS跨账户访问失败排查指南
  • 蓝桥杯 之 填空题-位运算与循环
  • Electron + Vite + React + TypeScript 跨平台开发实践指南
  • AWS ALB 实现灰度验证指南:灵活流量分配与渐进式发布
  • 题解 | 牛客周赛82 Java ABCDEF
  • 【51单片机】快速入门
  • 软件工程---基于构件的软件工程
  • 攻防世界WEB(新手模式)18-easyphp
  • node项目前后端密码加密传输及存储方案
  • 【终篇】基于C++的通讯录管理系统(完整源码)