当前位置: 首页 > article >正文

<<机器学习实战>>15-26节笔记:逻辑回归参数估计、梯度下降及优化、模型评价指标

  1. 梯度下降缺点:有可能有鞍点(如果不是凸函数的时候),不一定能找到最小值
  2. 解决方法:随机梯度下降(选一条数据)和小批量梯度下降(选几条数据
  3. 这两个解决方法又会带来新问题,比如收敛过程不稳定、收敛结果持续震荡,解决方案是数据归一化(包括Z-SCORE方法和0-1方法)和学习率调整

归一化算法评价:1.线性模型和聚类模型会受到影响,但树模型不会

  1. 会使得模型失去可解释性
  2. 归一化后梯度下降速度更快,因为等高线更加均匀
  1. SCORE算法更常用(缺点是要算均值方差,慢一些

学习率调整:就是随着梯度下降的过程学习率减小

实际建模过程中,当数据集量较小时:梯度下降+枚举

数据量较大时:小批量梯度下降+学习率调整

24.逻辑回归决策边界是一条直线,而KNN(最近k个邻居决定分类)和决策树则是如下图所示

还有一些模型则是去改变样本空间然后做划分(比如SVM)

注意:逻辑回归中特征值的权重大小并不代表特征的重要性

25、26两节讲了分类模型的评估指标,包括F1-SCORE、ROC-AUC

准确率不好:因为同样把一个样本判定为1,概率为0.8和0.6是不同的,所以一般训练时候用交叉熵做损失函数

为什么不用交叉熵做损失函数:因为损失函数太小会过拟合,要结合其它指标一起判断才好

几个指标:

召回率:1里面识别出多少

准确率:每次识别1有多少正确率

F1-score:两者调和平均

引申:多分类问题怎么办:

分别计算各类的recall然后求平均

ROC曲线:以TPR(即recall)和FPR(负样本中有多少识别为正样本)作为纵横坐标,调整阈值遍历所有样本得到的曲线

另一种理解:TPR看作一类概率的累计结果,FPR看作0类概率累计结果,也就是出现一个1就说明一类概率累计结果上去了

由此我们也可以想出一种例子

这两种其实A效果更好,但ROC是判断不出的,因为都是11010,但交叉熵可以判断出。也就是说ROC只对排序结果敏感,对概率大小无感。

但也不用担心这个问题,一方面,交叉熵损失函数可能导致过拟合,ROC可以消除这个问题;而概率敏感这个问题可以通过手动调整阈值来让它变得概率敏感。

F1-score和ROC对比:前者更偏重对1类样本的判别能力,而ROC是类别对称的,这也提供了评判指标的选择依据。


http://www.kler.cn/news/368582.html

相关文章:

  • Docker下载途径
  • Python之Excel自动化处理(三)
  • Python条形图 | 指标(特征)重要性图的绘制
  • Python -- 网络爬虫
  • ​Java基础面试题--
  • 在时间敏感网络中启用网络诊断:协议、算法和硬件
  • 【了解一下静态代理与动态代理】
  • 无线红外单点温度传感器解决方案
  • git lfs问题(下载大模型的时候出的问题)
  • C语言单链表
  • 数字后端零基础入门系列 | Innovus零基础LAB学习Day5
  • Fragments by E2B:AI生成应用模板,让应用开发更智能
  • MATLAB生物细胞瞬态滞后随机建模定量分析
  • 若依微服务15 - RuoYi-Vue3 实现前端独立运行
  • 进程间通信(二)消息队列、共享内存、信号量
  • 国家数据局发布41个数据领域名词官方解释
  • Keep健身TV版 3.3.0 | 针对智能电视的健身塑形软件
  • linux文件的权限
  • RabbitMq-队列交换机绑定关系优化为枚举注册
  • 使用 telnet 连接 dubbo 服务调用暴露的 dubbo 接口
  • HTML,CSS,JavaScript三件套
  • git命令报错:fatal: not a git repository (or any of the parent directories): .git
  • ELK日志分析系统部署
  • oneApi中,渠道 M3E配置
  • Redis学习文档(Redis基本数据类型【Hash、Set】)
  • MATLAB代码优化