吴恩达机器学习笔记复盘(四)线性回归模型概述
线性回归模型
简介
是用一条直线拟合数据的模型,是当今比较常用的学习模型。
举例
以根据房子大小预测价格为例,使用波特兰的房屋大小和价格数据集。若客户想卖房(房子 1250 平方英尺),可通过建立线性回归模型,根据数据拟合直线,预测房子能卖约 22 万美元。
监督学习
监督学习是通过给出正确答案的数据来训练模型,如上述房屋数据集中既有房子大小,也有每栋房子对应的价格。(通过人为标记数据是否为正确答案)
回归模型与分类模型区别
线性回归模型属于回归模型,其预测数字作为输出;分类模型预测类别,如预测图片是猫、狗还是狼,或预测病人所患疾病。分类问题输出可能有限,回归问题模型可输出无限多个数字。
数据可视化表示
数据除了可视化为图,还可通过数据表呈现,表中包含输入(房子大小)和输出(要预测的价格)。用于训练模型的数据集叫训练集,输入用小写 X 表示,也叫特征或输入特征;输出用小写 Y 表示,也叫目标值。训练样本总数用小写 M 表示,如该数据集中 M = 47。特定训练例子用 X 上标在括号 I,逗号 Y 上标在括号 I 表示,I 指表中的特定行。
学习过程
训练集包含输入特征(如房子大小)和输出目标(如房子价格),将它们提供给学习算法,算法会产生函数 F(也叫模型),F 的任务是根据新输入 X 输出预测值 Y 帽,Y 帽是对真实值 Y 的估计。
线性函数的表示
让函数F为直线,可写成(W和B是数字,其取值决定预测值Y),有时也写成
。
选择线性函数的原因
线性函数相对简单、容易处理,以它为基础有助于获得更复杂的非线性模型,本次讨论的是有一个变量(输入变量X即房子大小)的线性回归,也叫单变量线性回归。
扩展学习
线性回归是一种经典的机器学习算法,用于建立一个线性关系模型来预测连续型的目标变量。
原理
线性回归假设自变量 x与因变量 y之间存在线性关系,可以用一个线性方程来表示:,其中
是模型的参数,
是误差项。线性回归的目标就是通过给定的训练数据找到一组最优的参数
,使得模型预测值与真实值之间的误差最小。
求解方法
通常使用最小二乘法来求解线性回归模型的参数。最小二乘法的目标是最小化预测值与真实值之间的平方误差之和,即,其中m是训练数据的样本数量,
是第i个样本的真实值,
是第i个样本的预测值。通过对
求偏导数并令其为0,可以得到一组关于
的方程组,解这个方程组就可以得到最优的参数值。
评估指标
常用均方误差(MSE)、均方根误差(RMSE)、平均绝对误差(MAE)和 \(R^2\) 分数等来评估线性回归模型的性能。
示例
假设我们有一组关于房屋面积(平方米)和房价(万元)的数据,如下表所示:
| 房屋面积(\(x\)) | 房价(\(y\)) | | ---- | ---- | | 100 | 200 | | 120 | 240 | | 80 | 160 | | 150 | 300 | | 90 | 180 |
我们希望通过线性回归算法建立一个房屋面积和房价之间的线性关系模型,以便根据房屋面积来预测房价。
首先,设线性回归模型为 。
使用最小二乘法求解参数和
。经过计算(计算过程见后面解题原理),得到
,
。所以,得到的线性回归方程为 y = 2x。 接下来,我们可以用这个模型来进行预测。例如,当房屋面积为130平方米时,根据模型预测房价为 y = 2×130 = 260(万元)。 然后,我们可以用上述提到的评估指标来评估模型的性能。比如计算均方误差,先计算每个样本的预测误差的平方,再求平均值。以这组数据为例,计算可得均方误差为0(因为数据是完全线性的),这表明模型在这组数据上的拟合效果非常好。但在实际情况中,数据往往不会这么理想,均方误差会是一个大于0的值,值越小说明模型的拟合效果越好。
模型解题过程原理
设我们有m个样本点,
,线性回归模型为
。
最小二乘法的目标函数是误差平方和:
为了找到使最小的
和
,我们对
分别求关于
和
的偏导数,并令偏导数等于0。
对求偏导数
令,则有:
(式子1)
对求偏导数:
令
,则有:
(式子2)
将式子1代入式子2中
=0
对于我们给出的样本数据
(100,200),(120,240),(80,160),(150,300),(90,180),(m = 5)。
把代入式子1
所以,得到的线性回归方程为y = 2x。