当前位置: 首页 > article >正文

线性回归模型标准公式

用一组特征 x ( i ) { x^{(i)}} x(i)来预测或估计一个响应变量 y ( i ) y^{(i)} y(i),公式如下:
y ( i ) = θ T x ( i ) + ϵ ( i ) y^{(i)} = \theta^T x^{(i)} + \epsilon^{(i)} y(i)=θTx(i)+ϵ(i)
各名词解释:
y ( i ) y^{(i)} y(i):这是第 i i i个观察点的响应变量,也就是我们想要预测的目标值。
x ( i ) { x^{(i)}} x(i):这是一个特征向量,包含了与第 i i i个观察点相关的所有特征值。例如,在房价预测模型中,这些特征可能包括房屋的大小、位置、房间数量等。
θ θ θ:这是一个参数向量,包含了每个特征对预测结果 y ( i ) y^{(i)} y(i)影响的权重。在机器学习中,这些权重通常是通过训练数据学习得到的。
θ T θ^T θT:这表示参数向量 θ θ θ的转置。在数学中,一个列向量的转置变为行向量。在这个公式中,它允许我们将 θ θ θ与特征向量 x ( i ) { x^{(i)}} x(i)相乘,得到一个标量值。
ϵ ( i ) \epsilon^{(i)} ϵ(i):这代表误差项,是实际响应值 y ( i ) y^{(i)} y(i)与通过模型预测的 θ T x ( i ) \theta^T x^{(i)} θTx(i)之间的差异。在现实世界中,数据往往不会完美地落在一条直线上,误差项就是用来捕捉这些无法通过模型解释的变异性。

将这些组件结合起来, θ T x ( i ) \theta^T x^{(i)} θTx(i)表示给定特征向量 x ( i ) { x^{(i)}} x(i)时,模型预测的响应值。当我们把所有的特征 x ( i ) { x^{(i)}} x(i)与它们对应的权重 θ θ θ相乘并求和时,我们就得到了一个数值,这个数值是响应变量的预测值,或者说是我们期望的 y y y值。

y ( i ) y^{(i)} y(i)是实际观测到的响应值。理想情况下,如果模型是完美的,那么 ϵ ( i ) \epsilon^{(i)} ϵ(i)将会是0,这意味着所有的观测值都完全位于由参数向量 θ θ θ定义的模型预测的线上。然而,实际情况是,数据会有一些随机性或者是由于模型无法捕捉的因素造成的变异,这就是为什么我们需要 ϵ ( i ) \epsilon^{(i)} ϵ(i)来表示这些偏差。

在进行线性回归分析时,我们的目标是找到最佳的参数向量 θ θ θ,使得误差项的平方和最小,这也就是最小二乘法的原理。通过这种方式,模型能够尽可能准确地拟合训练数据,同时也能够对新的未见过的数据进行有效的预测。


http://www.kler.cn/a/163146.html

相关文章:

  • Autosar CP 基于CAN的时间同步规范导读
  • 第74期 | GPTSecurity周报
  • 【日志】392.判断子序列
  • Python多进程间通讯(包含共享内存方式)
  • 系统架构设计师论文:大数据Lambda架构
  • vue2或vue3的name属性有什么作用?
  • 解决MySQL字段名与关键字冲突
  • 身份统一管理创新与优化 ——华为云OneAccess应用身份管理服务的2023年
  • cookie总结
  • 什么是自动化测试?什么情况下使用?
  • 【1day】泛微e-office OA系统xml.php 文件 SORT_ID 参数 SQL 注入漏洞学习
  • 计算机基础知识65
  • Linux文件系统与基础IO
  • 【hugging face】bitsandbytes中8 bit量化的理解
  • 在oracle的scn详细说明
  • Kotlin 中密封类、枚举类与密封接口的对比分析
  • Linux——基本指令(一)
  • Nginx按指定格式记录访问日志
  • 联邦多任务蒸馏助力多接入边缘计算下的个性化服务 | TPDS 2023
  • 【LeetCode】28. 找出字符串中第一个匹配项的下标 【字符串单模匹配:KMP算法】
  • Linux设备分类与设备号
  • Django讲课笔记01:初探Django框架
  • 面试宝典之自我介绍
  • 【嵌入式开发 Linux 常用命令系列 4.2 -- .repo 各个目录介绍】
  • 集简云 x 零售企业丨快速集成有赞商城和微盛企微管家,实现私域运营自动化
  • YOLOv8分割训练及分割半自动标注