Precision 和 Recall 是常考的知识点,就其区别做一个详细总结

1. Precision

中文翻译 “精确率”,“查准率”。 “查准率”这个名字更能反应其特性,就是该指标关注准确性。 

计算公式如下:

这里TP,FP的概念来自统计学中的混淆矩阵,TP指 “预测为正(Positive), 预测正确(True)” (可以这里记忆:第一位表示该预测是否正确,第二位表示该预测结果为正还是负)    , 于是,我们可以这样理解 Precision :  所有预测为正例的案例中,预测准确的比例        

Precision适用什么样的场景呢?

适用于 需要尽可能地把所需的类别检测准确,而不在乎这些类别是否都被检测出来 ,宁可放过一些坏人,也不冤枉一个好人(识别坏人(正例)的准确性很高,但不一定能识别所有坏人)   

具体来说,银行人脸识别系统,B来识别,系统能预测为B即可,至于A C来识别是否真的预测为A C不重要.

2.Recall

中文翻译 “查全率” “召回率”,等价于 “灵敏度(Sensitivity)” , “真正率(TPR)” (真正率就是ROC曲线的纵轴,我们总是期望一个学习器的TPR越高越好,理想情况就是1)

计算公式如下 :

Recall的解释是:所有预测准确的案例中,正例所占的比例      

适用的场景是:要尽可能地把所需的类别检测出来,而不在乎结果是否准确  , 也就是 宁可错杀一千,也不放过一个  

具体来说,地震预测,我们希望把所有的地震都预测到,可以牺牲 Precision(存在误报)

总结一下查全率和查准率的区别:

(1). Recall 和 Precision是相互矛盾的。如果想要更高的recall,那么就要让模型的预测能覆盖到更多的样本,但是这样模型就更有可能犯错,也就是说precision会比较低。如果模型很保守,只能检测出它很确定的样本,那么其precision会很高,但是recall会相对低。

(2). Recall(TPR)的分母是样本中正类的个数,因此样本一旦确定,其分母即为定值,也就是说recall的变化随分子增加而单调递增;precision的分母是样本中预测为正类的个数,其会随着分类阈值的变化而变化,因此Precision的变化受TP和FP的综合影响,不单调,变化情况不可预测。

3. 一些相关参数

真阳性率 TPR (见上文),假阳性率(FPR), FPR 公式为 :

FPR= FP / (FP + TN)

FPR的意义:所有实际为负的例子中,预测错误的比例。 FPR = 1 - Specificity (特异性)

假阴性率:FNR = 1 - Sensitivity  (灵敏度,Recall, TPR)

在现实中,人们往往对查全率和查准率都有要求,但是会根据应用场景偏向某一边. 此时需要用到PR曲线。

PR曲线应用场景:需要根据需求找到对应的precision和recall值。如果偏向precison,那就是在保证recall的情况下提升precision;如果偏向recall,那就是在保证precision的情况下提升recall

机器学习系列(二)——评价指标Precision和Recall相关推荐

  1. 计算深度学习评价指标Precision、Recall、F1

    计算深度学习评价指标Precision.Recall.F1 对深度学习的结果进行评价是深度学习的重要一环,一般常用的评价方法有:准确率(Accuracy),精确率(Precision),召回率(Rec ...

  2. 吴恩达机器学习(九)Precision、Recall、F-score、TPR、FPR、TNR、FNR、AUC、Accuracy

    目录 0. 前言 1. Precision.Recall.F-score(F-measure) 2. TPR.FPR.TNR.FNR.AUC 3. Accuracy 学习完吴恩达老师机器学习课程的机器 ...

  3. 信息检索的评价指标(Precision、Recall、F-score、MAP、ROC、AUC)

    from:https://blog.csdn.net/universe_ant/article/details/70090026 一:Precision.Recall.F-score 信息检索.分类. ...

  4. 深度学习笔记——秒懂评价指标precision和recall(附例子)

    Precision:查准率,识别正确的/所有识别出来的. 这个指标反应了你的可信度,比如让儿子把药拿过来,他一定不能错,他可以不把家里全部的药都拿过来,但是他要保证拿过来必须是降压药.也就是拿药的pr ...

  5. 多分类f1分数_分类模型的F1-score、Precision和Recall 计算过程

    分类模型的F1分值.Precision和Recall 计算过程 引入 通常,我们在评价classifier的性能时使用的是accuracy 考虑在多类分类的背景下 accuracy = (分类正确的样 ...

  6. 评估指标:ROC,AUC,Precision、Recall、F1-score

    一.ROC,AUC ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣 . ROC曲线一般的 ...

  7. 机器学习中的评价指标(分类指标评Accuracy、Precision、Recall、F1-score、ROC、AUC )(回归指标评价MSE、RMSE、MAE、MAPE、R Squared)

    文章目录 1.机器学习中的评价指标 基础 (一)分类指标评价 1.Accuracy 2.Precision.查准率 3.Recall.查全率 4.F1-score 举个例子: 5.ROC 6.AUC ...

  8. 机器学习分类模型评价指标之Accuracy、Precision、Recall、F-Score、P-R Curve、AUC、AP 和 mAP

    前文:https://www.cnblogs.com/odesey/p/16902836.html 介绍了混淆矩阵.本文旨在说明其他机器学习模型的评价指标. 1. 准确率(Accuracy-Acc) ...

  9. 机器学习模型常用评价指标(Accuracy, Precision, Recall、F1-score、MSE、RMSE、MAE、R方)

    前言 众所周知,机器学习分类模型常用评价指标有Accuracy, Precision, Recall和F1-score,而回归模型最常用指标有MAE和RMSE.但是我们真正了解这些评价指标的意义吗? ...

最新文章

  1. javascript 事件冒泡 和 冒泡事件阻止
  2. 使用Gradle第一次构建Web应用
  3. java9特性_96.java基础10(java9/10/11新特性)
  4. HDU 5371 Manacher Hotaru's problem
  5. C++三路比较运算符
  6. history模式监听_面试题:VueRouter中的 hash 模式和 history 模式有什么区别
  7. Lync开发实例3—自定义客户端
  8. MinIO客户端快速入门指南
  9. 菜鸟玩qt(9)---qt常见问题(转)
  10. 写了一套优雅接口之后,领导让我给大家讲讲这背后的技术原理
  11. 马来西亚理科大学计算机专业雅思,马来西亚理科大学本科雅思成绩要求
  12. 2021年R1快开门式压力容器操作考试报名及R1快开门式压力容器操作考试试题
  13. windows上如何安装Sqlite
  14. dpl服务器维护,巨无霸核心!超微发布X12DPL系列服务器主板
  15. javaweb项目,配置servlet后报错:java.lang.ClassCastException: cannot be cast to class javax.servlet.Servlet
  16. Mac系统软件安装攻略
  17. ReportViewer在Chrome 浏览器中无法显示的解决方法
  18. 想了解云掣科技?首先,跟我念云掣YUNCHE……
  19. 时间序列分析(5)| 趋势平稳模型和差分平稳模型
  20. 电脑连接的U盘无法弹出怎么办?

热门文章

  1. springboot中使用aliyun的oss
  2. win10蓝牙声音断断续续卡顿解决方法
  3. 使用Node.js创建命令行工具
  4. 高斯消去法与列主元消去法
  5. 青蛙过河程序及其解析
  6. Team Foundation Power Tools 1.2发布
  7. 情人节翻译软件测试,TechPowerUp
  8. Linux 下 lsof 命令的几个高效用法
  9. AD中出现off grid pin问题的解决方法
  10. 局域网 --- 共享文件夹设置与访问