当前位置: 首页 > article >正文

【漫话机器学习系列】154.岭回归(Ridge Regression)

岭回归(Ridge Regression)详解

1. 引言

岭回归(Ridge Regression)是一种改进的线性回归方法,它通过引入正则化项来解决普通最小二乘法(OLS, Ordinary Least Squares)可能遇到的多重共线性问题。岭回归的核心思想是在损失函数中加入参数的 L2 正则化,从而使模型更具稳定性,减少过拟合的风险。

2. 岭回归的数学表达式

普通的线性回归模型可以表示为:

Y = X\beta + \epsilon

其中:

  • Y 为目标变量(因变量)

  • X 为特征矩阵(自变量)

  • β 为回归系数

  • ϵ 为误差项

普通最小二乘法的目标是最小化残差平方和(RSS, Residual Sum of Squares):

RSS = \sum_{i=1}^{n} (y_i - \hat{y}_i)^2

岭回归在此基础上增加了一个正则化项,即回归系数的平方和:

RSS + \lambda \sum_{j=1}^{p} \beta_j^2

其中:

  • λ 为调节参数(Regularization Parameter),用于控制正则化的强度

  • \sum_{j=1}^{p} \beta_j^2​ 为所有回归系数的平方和

3. 岭回归的作用

岭回归的主要作用是通过 L2 正则化(即回归系数的平方和)来防止模型过拟合。具体来说:

  1. 减少多重共线性影响

    • 当自变量之间高度相关时,普通最小二乘法可能会得到不稳定的回归系数,即某些回归系数的数值可能会非常大或方向不稳定。

    • 岭回归通过对回归系数施加约束,使其保持在较小的范围内,从而减少多重共线性的影响。

  2. 特征缩减(Feature Shrinkage)

    • 岭回归不会像 Lasso 回归那样将某些特征的系数直接降为 0,而是会缩小所有回归系数的绝对值,使其更接近于 0。

    • 这样可以避免模型对某些特征的依赖过大,提高泛化能力。

  3. 降低模型的方差

    • 在高维数据集中,普通最小二乘法容易因噪声导致模型方差较大。

    • 通过正则化项,岭回归减少了系数的波动,从而降低了模型的方差,提高了稳定性。

4. 岭回归的调节参数(λ)

调节参数 λ\lambdaλ 控制正则化的强度:

  • λ→0 时,岭回归退化为普通最小二乘回归(OLS)。

  • λ 较小时,模型仍然倾向于普通最小二乘法,但稍有正则化作用。

  • λ 较大时,正则化作用增强,回归系数被压缩得更接近 0,但不会完全归零。

λ 的选择

选择合适的 λ 值通常需要使用交叉验证(Cross Validation)来找到最优值。在实际应用中,可以使用以下方法:

  • 网格搜索(Grid Search):在一组候选的 λ 值中进行搜索,选择最优的 λ 值。

  • 交叉验证(Cross Validation):使用 K 折交叉验证(K-Fold Cross Validation)来评估不同 λ\lambdaλ 值下的模型表现,选取最优的 λ\。

5. 岭回归 vs. Lasso 回归

Lasso(Least Absolute Shrinkage and Selection Operator)回归是一种与岭回归类似的正则化方法,但它使用的是 L1 正则化(即参数的绝对值之和):

RSS + \lambda \sum_{j=1}^{p} |\beta_j|

与岭回归相比,Lasso 回归的特点是:

  • Lasso 可将某些回归系数压缩为 0,从而实现特征选择,而岭回归只能缩小系数,但不会归零。

  • Lasso 更适用于高维稀疏数据集,因为它可以自动选择重要的特征并丢弃不重要的特征。

  • 岭回归适用于所有特征都有贡献的情况,因为它不会让某些特征的系数变为 0。

6. 岭回归的应用场景

由于岭回归能够有效减少过拟合并提高模型的稳定性,因此它被广泛应用于:

  1. 高维数据建模

    • 当数据集的维度(特征数量)远大于样本数量时,普通回归方法容易出现过拟合,而岭回归可以很好地解决这个问题。

  2. 多重共线性问题

    • 在经济学、金融建模等领域,自变量之间往往存在较高的相关性,岭回归可以有效降低多重共线性的影响,使回归系数更稳定。

  3. 医疗和生物统计分析

    • 在基因研究、疾病预测等领域,数据通常是高维的,并且不同基因之间可能存在共线性,岭回归可以帮助构建更稳定的预测模型。

  4. 推荐系统

    • 在个性化推荐系统中,特征维度通常很高,岭回归可以有效控制模型复杂度,提高泛化能力。

7. 实现岭回归(Python 示例)

在 Python 中,我们可以使用 scikit-learn 库来实现岭回归:

from sklearn.linear_model import Ridge
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
import numpy as np

# 生成示例数据
np.random.seed(42)
X = np.random.rand(100, 5)
y = 3*X[:, 0] + 2*X[:, 1] - X[:, 2] + np.random.randn(100) * 0.1

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 训练岭回归模型
ridge = Ridge(alpha=1.0)  # 这里的 alpha 就是 λ
ridge.fit(X_train, y_train)

# 预测
y_pred = ridge.predict(X_test)

# 计算均方误差
mse = mean_squared_error(y_test, y_pred)
print(f'均方误差:{mse}')
均方误差:0.021834065378890568

8. 总结

岭回归是一种强大的回归方法,它通过 L2 正则化减少过拟合,提高模型的稳定性。相比普通最小二乘回归,它更适用于高维数据和多重共线性问题,但不能像 Lasso 一样进行特征选择。适当调整正则化参数 λ\lambdaλ 是使用岭回归的关键,通常可以使用交叉验证来选择最优值。


通过本文的详细讲解,相信你已经掌握了岭回归的基本概念、数学原理、应用场景以及如何在 Python 中实现它。如果你对岭回归的实际应用有兴趣,可以尝试使用不同的数据集进行实验,并观察正则化参数 λ 对模型的影响!


http://www.kler.cn/a/600864.html

相关文章:

  • JMeter JSON断言讲解和错误用例
  • kubernetes高级资源之污点和容忍
  • mapbox进阶,添加鹰眼图控件
  • 基于Spring Boot的个性化商铺系统的设计与实现(LW+源码+讲解)
  • 鸿蒙移动应用开发--UI组件布局
  • react中防止数据多大并需要二次加工处理进行单线程转多线程webworker优化处理(不借助react-webworker)
  • 代码随想录刷题day52|(二叉树篇)106.从中序与后序遍历序列构造二叉树
  • 大疆上云api如何配置开放平台
  • DM9162使用记录
  • Tekton系列之实践篇-从触发到完成的完整执行过程
  • 【无标题】QT相关练习
  • 框架的CVE漏洞利用 php类 java类 手工操作和自动化操作蓝队分析漏洞利用的流量特征
  • 力扣题(3):寻找两个正序数组的中位数
  • 纯HTML+CSS实现3D空间正方体旋转
  • Opencv计算机视觉编程攻略-第三节 图像颜色处理
  • 23种设计模式-中介者(Mediator)设计模式
  • 网关助力冶金厂电表数据高效采集与监控
  • 【Redis】redis实现消息的发布和订阅
  • 使用python爬取网络资源
  • sendRedirect()和forward()方法有什么区别?