准确率(Accuracy) | 查准率(Precision) | 查全率(Recall)
目录
样本
识别结果
指标计算
Accuracy(准确率)
Precision(精确率、查准率)
Recall (召回率、查全率)
为什么要不同的指标?
综合评价 (F-Score)
在机器学习中,对于一个模型的性能评估是必不可少的。准确率(Accuracy)、查准率(Precision)、查全率(Recall)是常见的基本指标。
为了方便说明,假设有以下问题场景:
一个班有50人,在某场考试中有40人及格,10人不及格。
现在需要根据一些特征预测出所有及格的学生。某一模型执行下来,给出了39人,其中37人确实及格了,剩下2人实际上不及格。
样本
要了解这些指标的含义,首先需要了解两种样本:
- 正样本:即属于某一类(一般是所求的那一类)的样本。在本例中是
及格的学生
。- 负样本:即不属于这一类的样本。在本例中是
不及格的学生
。
识别结果
于是我们可以得到下面一张表:
正类 | 负类 | |
---|---|---|
被检索 | True Positive | False Positive |
未检索 | False Negative | True Negative |
- TP:被检索到正样本,实际也是正样本(正确识别)
在本例表现为:预测及格,实际也及格。 - FP:被检索到正样本,实际是负样本(一类错误识别)
在本例表现为:预测及格,实际不及格。 - FN:未被检索到正样本,实际是正样本。(二类错误识别)
在本例表现为:预测不及格,实际及格了。 - TN:未被检索到正样本,实际也是负样本。(正确识别)
在本例表现为:预测不及格,实际也不及格。
指标计算
有了上述知识,就可以计算各种指标了。
Accuracy(准确率)
分类正确的样本数 与 样本总数之比。即:(TP + TN) / ( ALL )
.
在本例中,正确分类了45人(及格37 + 不及格8),所以 Accuracy = 45 / 50 = 90%
.
Precision(精确率、查准率)
被正确检索的样本数 与 被检索到样本总数之比。即:TP / (TP + FP)
.
在本例中,正确检索到了37人,总共检索到39人,所以 Precision = 37 / 39 = 94.9%
.
Recall (召回率、查全率)
被正确检索的样本数 与 应当被检索到的样本数之比。即:TP / (TP + FN)
.
在本例中,正确检索到了37人,应当检索到40人,所以 Recall = 37 / 40 = 92.5%
.
为什么要不同的指标?
根据上边公式的不同,可以借此理解不同指标的意义。
准确率是最常用的指标,可以总体上衡量一个预测的性能。但是某些情况下,我们也许会更偏向于其他两种情况。
「宁愿漏掉,不可错杀」
在识别垃圾邮件的场景中可能偏向这一种思路,因为我们不希望很多的正常邮件被误杀,这样会造成严重的困扰。
因此,Precision 将是一个被侧重关心的指标。
「宁愿错杀,不可漏掉」
在金融风控领域大多偏向这种思路,我们希望系统能够筛选出所有有风险的行为或用户,然后交给人工鉴别,漏掉一个可能造成灾难性后果。
因此,Recall 将是一个被侧重关心的指标。
综合评价 (F-Score)
更多时候,我们希望能够同时参考 Precision 与 Recall,但又不是像 Accuracy 那样只是泛泛地计算准确率,此时便引入一个新指标 F-Score
,用来综合考虑 Precision 与 Recall.
其中 β 用于调整权重,当 β=1
时两者权重相同,简称为 F1-Score
.
若认为 Precision 更重要,则减小 β,若认为 Recall 更重要,则增大 β.
链接:https://www.jianshu.com/p/8b7324b0f307
准确率(Accuracy) | 查准率(Precision) | 查全率(Recall)相关推荐
- 机器学习11. ROC曲线、AUC值、Accuracy、Precision、Recall 含义
AUC/ROC,Accuracy,Precision,Recall 含义.查准率,查全率,样本均衡问题 部分图片转自这里 行的True和False表示预测为正负 列的Pos和Neg表示真实的正负 表哥 ...
- Spark - AUC、Accuracy、Precision、Recall、F1-Score 理论与实战
一.引言 推荐场景下需要使用上述指标评估离.在线模型效果,下面对各个指标做简单说明并通过 spark 程序全部搞定. 二.指标含义 1.TP.TN.FP.FN 搜广推场景下最常见的就是 Ctr 2 分 ...
- R语言构建混淆矩阵(仿真数据)并基于混淆矩阵(confusion matrix)计算并计算Accuracy、Precision、Recall(sensitivity)、F1、Specificity指标
R语言构建混淆矩阵(仿真数据)并基于混淆矩阵(confusion matrix)计算并计算Accuracy.Precision.Recall(sensitivity).F1.Specificity指标 ...
- 机器学习常用性能度量中的Accuracy、Precision、Recall、ROC、F score等都是些什么东西?...
一篇文章就搞懂啦,这个必须收藏! 我们以图片分类来举例,当然换成文本.语音等也是一样的. Positive 正样本.比如你要识别一组图片是不是猫,那么你预测某张图片是猫,这张图片就被预测成了正样本. ...
- 准确率,查准率,查全率,ROC曲线,AUC面积
正确翻译: T :正确 P:正样本 TP:表示正确预测,预测为正样本 True Positive(真正,TP):将正类预测为正类数 True Negative(真负,TN):将负类预测为负类数 ...
- 【机器学习】评价指标 : 准确率,查准率与查全率
引言 在机器学习中,有几个评价指标,今天专门来介绍一下.之前的学习中主要是看模型,学算法,突然有一天发现,机器学习中的一些基本概念还是有点模糊,导致不知道如何综合评价模型的好坏. 这篇文章主要介绍如下 ...
- 机器学习中的评价指标(分类指标评Accuracy、Precision、Recall、F1-score、ROC、AUC )(回归指标评价MSE、RMSE、MAE、MAPE、R Squared)
文章目录 1.机器学习中的评价指标 基础 (一)分类指标评价 1.Accuracy 2.Precision.查准率 3.Recall.查全率 4.F1-score 举个例子: 5.ROC 6.AUC ...
- 【ML】混淆矩阵(Accuracy,Precision,Recall,F1)
混淆矩阵(评价模型的重要指标) 如上图,有以下规律:深绿色为预测真确,浅绿色为预测错误,也可以说以T开头的都是预测对的,以F开头的都是预测错误的.比如TP:即预测为真的实际也为真的样本数量,反过来,F ...
- 机器学习分类模型评价指标之Accuracy、Precision、Recall、F-Score、P-R Curve、AUC、AP 和 mAP
前文:https://www.cnblogs.com/odesey/p/16902836.html 介绍了混淆矩阵.本文旨在说明其他机器学习模型的评价指标. 1. 准确率(Accuracy-Acc) ...
最新文章
- 9款超赞的AI开源项目!| 本周Github精选
- teginx编译安装FAQ
- python3扫雷代码_GitHub - pantaduce/minesweeper: Python代码编写的扫雷游戏
- 009_关闭linux的THP
- 操作系统之存储管理——FIFO算法和LRU算法
- Laravel开发:Laravel核心——Ioc服务容器源码解析(服务器绑定)
- wxWidgets:wxPython 概述
- 存储过程内基础语法---补充while循环
- WINDOWS8.1 安装 .NET35方法
- ubuntu18.04纯命令行安装chrome
- leetcode题解-买卖股票的最佳时机
- 文艺小清新手绘秋季秋天叶片,值得设计师收藏的好素材
- cli vue webpack 实战_Vuejs技术栈从CLI到打包上线实战全解析
- Linux下使用ps命令来查看Oracle相关的进程
- python学习--关注容易被忽略的知识点--(二)函数
- Microsoft ASP.NET 4 Step by Step
- 【C语言】C语言小项目—贪吃蛇
- 导航电子地图数据格式概论
- 百度senta使用方法
- 郎咸平:用友和金蝶的长板在哪儿