机器学习系列(二)——评价指标Precision和Recall
Precision 和 Recall 是常考的知识点,就其区别做一个详细总结
1. Precision
中文翻译 “精确率”,“查准率”。 “查准率”这个名字更能反应其特性,就是该指标关注准确性。
计算公式如下:
这里TP,FP的概念来自统计学中的混淆矩阵,TP指 “预测为正(Positive), 预测正确(True)” (可以这里记忆:第一位表示该预测是否正确,第二位表示该预测结果为正还是负) , 于是,我们可以这样理解 Precision : 所有预测为正例的案例中,预测准确的比例
Precision适用什么样的场景呢?
适用于 需要尽可能地把所需的类别检测准确,而不在乎这些类别是否都被检测出来 ,即 宁可放过一些坏人,也不冤枉一个好人(识别坏人(正例)的准确性很高,但不一定能识别所有坏人)
具体来说,银行人脸识别系统,B来识别,系统能预测为B即可,至于A C来识别是否真的预测为A C不重要.
2.Recall
中文翻译 “查全率” “召回率”,等价于 “灵敏度(Sensitivity)” , “真正率(TPR)” (真正率就是ROC曲线的纵轴,我们总是期望一个学习器的TPR越高越好,理想情况就是1)
计算公式如下 :
Recall的解释是:所有预测准确的案例中,正例所占的比例 需
适用的场景是:要尽可能地把所需的类别检测出来,而不在乎结果是否准确 , 也就是 宁可错杀一千,也不放过一个
具体来说,地震预测,我们希望把所有的地震都预测到,可以牺牲 Precision(存在误报)
总结一下查全率和查准率的区别:
(1). Recall 和 Precision是相互矛盾的。如果想要更高的recall,那么就要让模型的预测能覆盖到更多的样本,但是这样模型就更有可能犯错,也就是说precision会比较低。如果模型很保守,只能检测出它很确定的样本,那么其precision会很高,但是recall会相对低。
(2). Recall(TPR)的分母是样本中正类的个数,因此样本一旦确定,其分母即为定值,也就是说recall的变化随分子增加而单调递增;precision的分母是样本中预测为正类的个数,其会随着分类阈值的变化而变化,因此Precision的变化受TP和FP的综合影响,不单调,变化情况不可预测。
3. 一些相关参数
真阳性率 TPR (见上文),假阳性率(FPR), FPR 公式为 :
FPR= FP / (FP + TN)
FPR的意义:所有实际为负的例子中,预测错误的比例。 FPR = 1 - Specificity (特异性)
假阴性率:FNR = 1 - Sensitivity (灵敏度,Recall, TPR)
在现实中,人们往往对查全率和查准率都有要求,但是会根据应用场景偏向某一边. 此时需要用到PR曲线。
PR曲线应用场景:需要根据需求找到对应的precision和recall值。如果偏向precison,那就是在保证recall的情况下提升precision;如果偏向recall,那就是在保证precision的情况下提升recall
机器学习系列(二)——评价指标Precision和Recall相关推荐
- 计算深度学习评价指标Precision、Recall、F1
计算深度学习评价指标Precision.Recall.F1 对深度学习的结果进行评价是深度学习的重要一环,一般常用的评价方法有:准确率(Accuracy),精确率(Precision),召回率(Rec ...
- 吴恩达机器学习(九)Precision、Recall、F-score、TPR、FPR、TNR、FNR、AUC、Accuracy
目录 0. 前言 1. Precision.Recall.F-score(F-measure) 2. TPR.FPR.TNR.FNR.AUC 3. Accuracy 学习完吴恩达老师机器学习课程的机器 ...
- 信息检索的评价指标(Precision、Recall、F-score、MAP、ROC、AUC)
from:https://blog.csdn.net/universe_ant/article/details/70090026 一:Precision.Recall.F-score 信息检索.分类. ...
- 深度学习笔记——秒懂评价指标precision和recall(附例子)
Precision:查准率,识别正确的/所有识别出来的. 这个指标反应了你的可信度,比如让儿子把药拿过来,他一定不能错,他可以不把家里全部的药都拿过来,但是他要保证拿过来必须是降压药.也就是拿药的pr ...
- 多分类f1分数_分类模型的F1-score、Precision和Recall 计算过程
分类模型的F1分值.Precision和Recall 计算过程 引入 通常,我们在评价classifier的性能时使用的是accuracy 考虑在多类分类的背景下 accuracy = (分类正确的样 ...
- 评估指标:ROC,AUC,Precision、Recall、F1-score
一.ROC,AUC ROC(Receiver Operating Characteristic)曲线和AUC常被用来评价一个二值分类器(binary classifier)的优劣 . ROC曲线一般的 ...
- 机器学习中的评价指标(分类指标评Accuracy、Precision、Recall、F1-score、ROC、AUC )(回归指标评价MSE、RMSE、MAE、MAPE、R Squared)
文章目录 1.机器学习中的评价指标 基础 (一)分类指标评价 1.Accuracy 2.Precision.查准率 3.Recall.查全率 4.F1-score 举个例子: 5.ROC 6.AUC ...
- 机器学习分类模型评价指标之Accuracy、Precision、Recall、F-Score、P-R Curve、AUC、AP 和 mAP
前文:https://www.cnblogs.com/odesey/p/16902836.html 介绍了混淆矩阵.本文旨在说明其他机器学习模型的评价指标. 1. 准确率(Accuracy-Acc) ...
- 机器学习模型常用评价指标(Accuracy, Precision, Recall、F1-score、MSE、RMSE、MAE、R方)
前言 众所周知,机器学习分类模型常用评价指标有Accuracy, Precision, Recall和F1-score,而回归模型最常用指标有MAE和RMSE.但是我们真正了解这些评价指标的意义吗? ...
最新文章
- javascript 事件冒泡 和 冒泡事件阻止
- 使用Gradle第一次构建Web应用
- java9特性_96.java基础10(java9/10/11新特性)
- HDU 5371 Manacher Hotaru's problem
- C++三路比较运算符
- history模式监听_面试题:VueRouter中的 hash 模式和 history 模式有什么区别
- Lync开发实例3—自定义客户端
- MinIO客户端快速入门指南
- 菜鸟玩qt(9)---qt常见问题(转)
- 写了一套优雅接口之后,领导让我给大家讲讲这背后的技术原理
- 马来西亚理科大学计算机专业雅思,马来西亚理科大学本科雅思成绩要求
- 2021年R1快开门式压力容器操作考试报名及R1快开门式压力容器操作考试试题
- windows上如何安装Sqlite
- dpl服务器维护,巨无霸核心!超微发布X12DPL系列服务器主板
- javaweb项目,配置servlet后报错:java.lang.ClassCastException: cannot be cast to class javax.servlet.Servlet
- Mac系统软件安装攻略
- ReportViewer在Chrome 浏览器中无法显示的解决方法
- 想了解云掣科技?首先,跟我念云掣YUNCHE……
- 时间序列分析(5)| 趋势平稳模型和差分平稳模型
- 电脑连接的U盘无法弹出怎么办?