当前位置: 首页 > article >正文

机器学习常用评估Metric(ACC、AUC、ROC)

一、混淆矩阵

基于样本预测值和真实值是否相符,可得到4种结果:

TP(True Positive):样本预测值与真实值相符且均为正,即真阳性
FP(False Positive):样本预测值为正而真实值为负,即假阳性
FN(False Negative):样本预测值为负而真实值为正,即假阴性
TN(True Negative):样本预测值与真实值相符且均为负,即真阴性

总结:第一个字母代表预测值与真实值是否相符(True/False)

           第二个字母代表预测值是正还是负(Positive/Negative)

二、Metric

0. TPR(Recall)、FPR

  • TPR:真阳性率,也称为灵敏度(Sensitivity)或召回率(Recall),表示的是在所有真实为正的样本中,被正确预测为正的比例。其计算公式为:

  • FPR:假阳性率,表示在所有真实为负的样本中,被错误预测为正的比例。其计算公式为:

1. ACC(准确率)

ACC即为预测正确(预测值与真实值相符)的概率。

2. Precision(精确率)

精确度:以预测结果为判断依据,预测为正例的样本中预测正确的比例。

精确度还有一个名字,叫做“查准率”,我们关心的主要部分是正例,所以查准率就是相对正例的预测结果而言,正例预测的准确度。直白的意思就是模型预测为正例的样本中,其中真正的正例占预测为正例样本的比例,用此标准来评估预测正例的准确度

3. F1 值

F1值就是中和了精确率Precision和召回率Recall的指标:

4. ROC

ROC 曲线,用于评价二分类模型性能。它通过显示真阳性率TPR与假阳性率FPR之间的权衡来帮助我们理解模型的分类能力。

绘制 ROC 曲线的步骤:

  1. 选择阈值:从 0 到 1 的不同阈值。

  2. 计算 TPR 和 FPR:对于每个阈值,计算相应的 TPR 和 FPR。

  3. 绘制曲线:以 FPR 为横轴,TPR 为纵轴,绘制 ROC 曲线。

5. AUC

AUC,即曲线下面积(Area Under Curve),是ROC曲线下面积的一个数值表示。它提供了一个定量的指标,用来衡量分类模型的整体表现。AUC 值范围从 0 到 1,值越大表示模型性能越好。

三、参考

一文彻底理解机器学习 ROC-AUC 指标-CSDN博客


http://www.kler.cn/a/454061.html

相关文章:

  • Educational Codeforces Round 173 (Rated for Div. 2) - Codeforces
  • 探秘仓颉编程语言:使用体验与功能剖析
  • 【前端】MVC模式详解:如何构建高效的Web应用程序?
  • AI无人直播详解
  • 基于Spring Boot的中国戏曲文化传播系统
  • WhisperKit: Android 端测试 Whisper -- Android手机(Qualcomm GPU)部署音频大模型
  • 自動提取API爬蟲代理怎麼實現?
  • Docker环境下数据库持久化与多实例扩展实践指南
  • 再谈ChatGPT降智:已蔓延到全端,附解决方案!
  • docker怎么复制容器的文件到宿主机
  • 基于Spring Boot的电影售票系统
  • OCR(三)windows 环境基于c++的 paddle ocr 编译【CPU版本】
  • flask后端开发(6):模板继承
  • 【C++boost::asio网络编程】有关服务端退出方法的笔记
  • 华为OD E卷(100分)39-最长子字符串的长度(二)
  • SpringBoot + HttpSession 自定义生成sessionId
  • 数据中台从centos升级为国产操作系统后,资源增加字段时,提交报500错误
  • 网页中字体图标Fontawesome的使用
  • linux-22 目录管理(二)rmdir命令,删除目录
  • 白牛招投标数据库介绍
  • 什么是Web应用防火墙,简称:WAF(Web Application Firewall)
  • 前端请求跨域问题
  • Docker部署GitLab服务器
  • UDP的报文结构和特点
  • leetcode1110删点成林
  • MATLAB中UWB工具箱的使用建议