文章目录

  • 一个例子
  • Precision 精准率
  • 召回率
  • 其他
  • Reference

一个例子

首先我们看下面的一个表格,也是经典的二分类问题,常常会看见的表格:

如上表所示,行表示预测的label值,列表示真实label值。TP,FP,FN,TN分别表示如下意思:

  • TP(true positive):表示样本的真实类别为正,最后预测得到的结果也为正;
  • FP(false positive):表示样本的真实类别为负,最后预测得到的结果却为正;
  • FN(false negative):表示样本的真实类别为正,最后预测得到的结果却为负;
  • TN(true negative):表示样本的真实类别为负,最后预测得到的结果也为负.

我平时用到的最多的两个指标就是precision 和 recall, 翻译过来就是精准率和召回率, 以及F1 值 F1 只是 F-measure 中特殊的一种情况


Precision 精准率

precision 表示的是被识别为正类别的样本中,确实为正类别的比例是多少?

Precision=TPTP+FPPrecision = \frac{TP}{TP + FP}Precision=TP+FPTP​

当我们有ground truth 的时候,举个例子,我的GT不是二分类问题,GT指出了所有的正样本,这个时候我们要计算

  • TP 就是 ground truth 和测试结果取得交集
  • FP 就是我们的实际测出来的结果减去我们的TP就是我们的false positive
  • FN 就是我们的ground truth 的结果减去我们的测试

我自己在处理系统检测时候的快速计算的一些小的技巧

使用检测出来的结果,和GT我们可以取交集,这个时候得到的就是TP,precision 就是我们的TP除以我们的检测出来的数量,我们的recall 就是我们TP除以我们的GT就可以得到的结果。


召回率

在所有的正类别样本中,被正确识别到的比例是多少?

Recall=TPTP+FNRecall = \frac{TP}{TP+FN}Recall=TP+FNTP​

要全面评估模型的有效性,必须同时检查精确率和召回率。遗憾的是,精确率和召回率往往是此消彼长的情况。也就是说,提高精确率通常会降低召回率值,反之亦然。


其他

Accuracy=TP+TNTP+FP+TN+FNAccuracy = \frac{TP+TN}{TP + FP + TN + FN}Accuracy=TP+FP+TN+FNTP+TN​

F1−score=2×recall×precisionrecall+precisionF1-score = \frac{2 \times recall \times precision}{recall + precision}F1−score=recall+precision2×recall×precision​

F1-score表示的是precision和recall的调和平均评估指标。

Reference

https://www.csuldw.com/2016/03/12/2016-03-12-performance-evaluation/

https://developers.google.com/machine-learning/crash-course/classification/precision-and-recall?hl=zh-CN

性能评估指标(Precision, Recall, Accuracy, F1-measure)相关推荐

  1. 机器学习性能评估指标汇总

    机器学习性能评估指标汇总 Accuracy:准确率 Precision:精确率 / 查准率 Recall:召回率 / 查全率 F1 score:F1 值 PR:查准率.查全率曲线 ROC:真正率.假正 ...

  2. 回归和分类模型性能评估指标MSE,MAE,PR,ROC,AUC

    文章目录 0. 模型评估是什么,为什么 1. 不同类型问题的评估指标 1.1 回归问题 1.2 分类问题 1.2.1 准确率和错误率 1.2.2 精确率和召回率 1.2.3 PR曲线图 1.2.4 F ...

  3. 【理论 | 代码】机器学习分类与回归性能评估指标大全

    一.回归指标 1.1 均方误差(Mean Squared Error, MSE) MSE 称为均方误差,又被称为 L2 范数损失,该统计参数是预测数据和原始数据对应点误差的平方和的均值,公式如下: M ...

  4. auuc 评估指标_分类之性能评估指标

    本文主要介绍几种常用的用于分类的性能评估指标,同时介绍如何绘制ROC曲线以及计算AUC值的便捷方法.最后再附上一个绘制ROC曲线和计算AUC的Python源码实现. Precision和Recall ...

  5. 多类别分类任务(multi-class)中为何precision,recall和F1相等?

    文章目录 背景: precision, recall和F1 score的定义 micro averaging的计算及其示例 macro averaging 和 weighted averaging m ...

  6. R语言使用caret包对GBM模型自定义参数调优:自定义优化参数网格、可视化核心参数与评估指标关系、Accuracy与树的深度、个数的关系、Kappa与树的深度、个数的关系

    R语言使用caret包对GBM模型自定义参数调优:自定义优化参数网格.可视化核心参数与评估指标关系.Accuracy与树的深度.个数的关系.Kappa与树的深度.个数的关系 目录 R语言使用caret ...

  7. 16_非监督学习、k-means 4阶段、kmeans API、Kmeans性能评估指标、案例

    1.聚类算法介绍 关于聚类算法,可以查看:常见的六大聚类算法 2.k-means 4阶段 K-means通常被称为劳埃德算法,这在数据聚类中是最经典的,也是相对容易理解的模型.算法执行的过程分为4个阶 ...

  8. auuc 评估指标_机器学习性能评估指标汇总

    跑完分类模型(Logistic回归.决策树.神经网络等),我们经常面对一大堆模型评估的报表和指标,如ACC.ROC.AUC等,对以上提到的各个评估指标逐一点评,并力图表明: 指标分类 学习分类 性能指 ...

  9. python + sklearn ︱分类效果评估——acc、recall、F1、ROC、回归、距离

    之前提到过聚类之后,聚类质量的评价: 聚类︱python实现 六大 分群质量评估指标(兰德系数.互信息.轮廓系数) R语言相关分类效果评估: R语言︱分类器的性能表现评价(混淆矩阵,准确率,召回率,F ...

最新文章

  1. “一切都是消息”--iMSF(即时消息服务框架)入门简介
  2. html表格筛选排序规则,excel表的排序功能你真的会吗?带你重新认识真正的排序功能...
  3. 高德地图SDK大致使用
  4. Metasploit渗透某高校域服务器
  5. Luogu_2774 方格取数问题
  6. (3)nginx的虚拟主机配置
  7. Cheatsheet: 2011 12.01 ~ 12.12
  8. 面对面交流的好处_我们的交流方式是如何被网络社交媒体一步步改变的
  9. 使用 docker 构建分布式调用链跟踪框架skywalking
  10. 消息称快手已通过港交所聆讯 计划2月第一周上市
  11. 计算机实验室工作案例,2011年计算机学院实验室工作计划.
  12. 判断 小程序_怎么判断小程序开发公司靠不靠谱?
  13. Ubuntu 10.10用LibreOffice替换OpenOffice
  14. rospy Odometry天坑小计
  15. while循环的使用
  16. psv变革怎么安装游戏_创造变革游戏
  17. matlab 高级绘图函数
  18. Python​ 重解零基础100题(2)
  19. 课程笔记《碳中和产业报告》
  20. 模板解析原理,脱裤子放屁

热门文章

  1. 雷军这个程序员!真的牛逼!
  2. 阿里的御用框架,它非常牛啤!不服不行!
  3. SpringBoot内置tomcat启动原理
  4. 查询提升200倍,ClickHouse你值得拥有!
  5. 活久见!64 张图带你 Maven 实战通关
  6. 压缩 20M 文件从 30 秒到 1 秒的优化过程!
  7. 基于大数据的Uber数据实时监控(Prat 3:使用Vert.x的实时仪表盘)
  8. JavaScript的运行模式
  9. android思维导图github,2020年GitHub 上那些优秀Android开源库,这里是Top10!
  10. quado编辑Android代码步骤,Ubuntu11.10下编译android内核源码