当前位置: 首页 > article >正文

机器学习入门——线性回归

线性回归

    • 什么是线性回归?
      • 回归分析:
      • 线性回归:
    • 回归问题求解
    • 单因子线性回归
      • 简单实例
      • 评估模型表现
      • 可视化模型展示
    • 多因子线性回归

什么是线性回归?

回归分析:

根据数据,确定两种或两种以上变量间相互依赖的定量关系
在这里插入图片描述

线性回归:

回归分析中,变量与因变量存在线性关系
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

回归问题求解

在这里插入图片描述
注解:为了找合适的a和b,问题被替换成了寻找预测值和实际值之间的距离最小化。

损失函数:
在这里插入图片描述
注解:为什么要除以2m,是为了我们后面方便求解,因为我们要进行求导。这里除以2m后对最后的ab求解没有影响。

梯度下降法:
在这里插入图片描述
在这里插入图片描述

单因子线性回归

简单实例

简单说就是为了求y=ax+b中的a和b

假设我们有一份数据如下:
在这里插入图片描述
我们先看一下这些数据的分布:

from matplotlib import pyplot as plt
# 输入数据
x = [1,2,3,4,5,6,7,8,9,10]
y = [7,9,11,13,15,17,19,21,23,25]

# 生成一个画布,设置坐标轴的比例
plt.figure(figsize=(5,5))

# 创建散点图
plt.scatter(x,y)

# 显示图形
plt.show()

在这里插入图片描述

要对上述数据使用线性回归算法进行拟合,需要用到scikit-learn库。

scikit-learn是一个适用于python语言的、专门针对于机器学习应用的算法库。

使用sklearn.linear_model库中的线性回归算法进行拟合的示例代码:

from sklearn.linear_model import LinearRegression
import numpy as np

# 输入数据
x = [1,2,3,4,5,6,7,8,9,10]
y = [7, 9, 11, 13, 15, 17, 19, 21, 23, 25]

# 把x从一维转为二维
x = np.array(x)
x = x.reshape(-1,1)

# 建立线性回归模型
model = LinearRegression()

# 训练模型
model.fit(x, y)

# 获得y=ax+b中的a和b
a=model.coef_
b=model.intercept_
print(a)
print(b)

# 预测
x_new = [[11], [12], [13], [14], [15]]
y_pred = model.predict(x_new)

# 输出预测结果
print(y_pred)

注解:
在这个例子中,输入数据 x 和输出数据 y 分别被定义为两个列表。
然后,需要把x从一维转为二维,让x 中的每个元素是一个列表,包含一个自变量的值。 这是为了满足 LinearRegression() 函数的输入要求。否则会报错。
我们首先使用 LinearRegression() 函数初始化一个线性回归模型对象 model。
然后,我们使用模型对象的 fit() 方法训练模型,输入参数为 x 和 y。
然后,model.coef_获取系数,model.intercept_获取截距
最后,我们使用模型对象的 predict() 方法预测 x_new 中对应的因变量值 y_pred。
最后,我们输出预测结果。

评估模型表现

在上述代码的基础上添加如下代码:

from sklearn.metrics import mean_squared_error, r2_score

# 计算预测值与真实值之间的MSE
mse = mean_squared_error(y, model.predict(x))

# 计算决定系数R2
r2 = r2_score(y, model.predict(x))

# 输出MSE和R2
print("MSE:", mse)
print("R2:", r2)

注解:
我们使用 mean_squared_error 函数计算预测值与真实值之间的均方误差(MSE)。
我们使用 r2_score 函数计算模型的决定系数(R2)。
最后,我们输出计算得到的MSE和R2。

MSE越小越好,R2分数越接近1越好

可视化模型展示

在上述代码的基础上添加如下代码:

import matplotlib.pyplot as plt

# 绘制数据散点图
plt.scatter(x, y, color='black')

# 绘制拟合直线
plt.plot(x, model.predict(x), color='blue', linewidth=3)

# 添加图例
plt.legend(['Linear Regression Model', 'Data'])

# 添加坐标轴标签
plt.xlabel('X')
plt.ylabel('Y')

# 添加标题
plt.title('Linear Regression Model')

# 显示图形
plt.show()

注解:
我们使用 scatter 函数绘制数据散点图,其中 x 和 y 分别是自变量和因变量。
我们使用 plot 函数绘制线性回归模型的拟合直线,其中 x 和 model.predict(x) 分别表示自变量和对应的因变量预测值。
我们使用 legend 函数添加图例,其中 [‘Linear Regression Model’, ‘Data’] 分别表示拟合直线和数据散点图的标签。
我们使用 xlabel 和 ylabel 函数添加坐标轴标签。
我们使用 title 函数添加标题。
最后,我们使用 show 函数显示图形。
在这里插入图片描述

多因子线性回归


http://www.kler.cn/a/382.html

相关文章:

  • 智慧水务监控系统-智慧水务信息化平台建设
  • gcov的覆盖率统计
  • RK3568平台开发系列讲解(Linux系统篇)消息队列
  • 蓝桥杯刷题冲刺 | 倒计时28天
  • day8-字典作业
  • ChatGPT的前世今生
  • 【网络编程】
  • Mybatis之Mapper代理开发
  • IOS - 抓包通杀篇
  • 【c++】:模拟实现STL模板中的string
  • 2023携程面试题
  • 系统重装漏洞
  • 【项目实现典型案例】12.数据库数据类型不一致导致查询慢
  • Visual Studio 2022 安装.NET Framework4.5及以下目标包
  • 利用蜜罐捕捉攻击实验(31)
  • docker-dockerfile
  • 初入了解——什么是VUE
  • 在 4G 内存的机器上,申请 8G 内存会怎么样?
  • 想要成为高级网络工程师,只需要具备这几点
  • C语言函数调用栈