当前位置: 首页 > article >正文

线性回归一些基本术语

线性回归函数

形如 Y = X ∗ w e i g h t + b i a s Y=X*weight+bias Y=Xweight+bias式子的回归方程就叫线性回归,X一般用一个 n ∗ m n*m nm的矩阵来表示,n表示有n个样本,m表示有m个特征,每一个样本对应的y标签是一个一维的值。

所以我们整个线性回归的任务就是算出weight和bias,也即下面说的params。

线性传播过程

线性传播过程分为 前向传播构造计算图;根据计算图计算梯度;根据优化函数更新参数;循环。

在这里插入图片描述

前向传播

前向传播包括两个过程,分别是

  1. y ^ = w e i g h t T ∗ x + b i a s \hat{y} = weight^T*x+bias y^=weightTx+bias计算 y ^ \hat{y} y^
  2. 根据损失函数计算损失。

损失函数

损失函数用于衡量线性回归参数估计的拟合程度,拟合的越好,损失函数值越低。我们由极大似然估计得到损失函数,近似于MSE,我们直接用MSE作为损失函数。

所以我们要算出weight和bias这个任务就等价于让损失函数最小。

优化函数

要解得损失函数的最小值可以使用解析解,但是对于深度的网络往往很难求得解析解,这个时候我们就需要用到优化函数。最常用的优化函数就是梯度下降算法(SGD - 随机梯度下降):

P a r a m s = P a r a m s − L e a r n i n g R a t e ∗ G r a d i e n t Params = Params - LearningRate*Gradient Params=ParamsLearningRateGradient

你会发现当Gradient等于0的时候,Params==Params,损失函数收敛,损失为最小值,且你求得了Params。

反向传播

你完全不需要了解链式法则和反向传播,你只需要知道反向传播已经被pytorch封装成了backward()方法,该方法实现了根据计算图自动计算梯度并存储,也就是上面优化函数中的公式里的Gradient。

在这里插入图片描述


http://www.kler.cn/a/3835.html

相关文章:

  • MongoDB vs Redis:相似与区别
  • PHP:从入门到进阶的全方位指南
  • 如何使用MaskerLogger防止敏感数据发生泄露
  • Java基础(二)
  • 【大数据2025】Yarn 总结
  • UDP 单播、多播、广播:原理、实践
  • 24万字智慧城市顶层设计及智慧应用解决方案
  • Node.js学习笔记——包管理工具
  • 用于人工智能研究的开源Python微电网模拟器pymgrid(入门篇)
  • Linux硬链接与软链接
  • 大前端05-用vue轻量级第三方组件库快速创建个画板,可以支持画板、直线、圆形等输入,可以撤回,改变颜色
  • IDEA连接Linux服务器进行文件操作
  • Windows权限提升—令牌窃取、UAC提权、进程注入等提权
  • 蓝桥杯刷题冲刺 | 倒计时13天
  • OSPF----特殊区域
  • Yolov5改进: Yolov5-FasterNet网络推理加速
  • 微信小程序——API promise化,全局数据共享,MobX,将Stroe中的成员绑定到页面中,在页面上使用Strore中的成员
  • Python调用GPT3.5接口的最新方法
  • 又一个免费GPT-4工具 Cursor,程序员写代码将被颠覆
  • ③【Java组】蓝桥杯省赛真题 持续更新中...
  • Centos7安装、各种环境配置和常见bug解决方案,保姆级教程(更新中)
  • 【javaEE】阻塞队列、定时器、线程池
  • 进程间通信----信号量
  • GPIO的八种模式分析
  • 【数据结构篇C++实现】- 栈
  • dolphinscheduler 2.0.6 资源中心改造方案二:通过NFS挂载共享目录