详解准确率acc、精确率p、准确率acc、F1 score
准确率 Accuracy:
模型预测正确的比例;总样本中预测对的概率;所有样本中实际是正例的占比;正确预测的样本数与总样本数之比。
准确率 =(真正例+真负例)/(真正例+真负例+假正例+假负例)。
精确率 Precision:
又叫查准率,表示预测为正的样本中,有多少是真正的真样本(找得对);即真正例(True Positive)与预测为正的样本数之比。
精确率 = 真正例/(真正例+假正例)
召回率 Recall:
表示样本中的正例被预测正确了(找得全);正例占预测对的占比;预测结果正确的样本中,有多少是真正的真样本;即真正例(True Positive)与实际为正的样本数之比。
召回率 = 真正例/(真正例+假负例)
F1 Score:
既能体现精确率又能体现召回率,是精确率和召回率的调和平均数。
F1 = 2*精确率*召回率/(精确率+召回率)
精确率和召回率的关系:
精确率和召回率其实就是分母的不同,精确率是针对预测为正的结果,召回率是针对实际为正的结果。
计算公式总结:
准确率acc:accuracy = (TP+TN)/(TP+TN+FP+FN)
精确率p:precision = TP/(TP+FP)
召回率rec:recall = TP/(TP+FN)
F1 Score:F1=2 * Precision * Recall / (Precision + Recall)
计算公式的理解:
TP+FP+TN+FN:所有样本数;
TP+TN:预测结果是对的;
TP+FP:预测为正的;
TP+FN:实际为正的;
说到这,就不得不提混淆矩阵了,能帮助我们理解和记忆以上评估模型的几个指标:
混淆矩阵 |
预测结果 |
||
1-Positive |
0-Negative |
||
真实情况 |
1-Positive |
TP |
FN |
0-Negative |
FP |
TN |
真正例(True Positive):模型预测为正,且实际也为正的样本数。(预测结果是对的)
假正例(False Positive):模型预测为正,但实际为负的样本数。(预测结果是错的)
假负例(False Negative):模型预测为负,但实际为正的样本数。(预测结果是错的)
真负例(True Negative):模型预测为负,且实际也为负的样本数。(预测结果是对的)
T:True的首字母,表示预测结果是正确的;
F:False的首字母,表示预测结果是错误的;
P:Positive的首字母,预测是正样本;
N:Negative的首字母,预测是负样本;
补充:
样本不平衡时,评价模型的方法用ROC或AUC;平衡数据,用准确率accuracy。
详解准确率acc、精确率p、准确率acc、F1 score相关推荐
- 详解准确率、精确率、召回率、F1值的含义
机器学习问题之中,通常需要建立模型来解决具体问题,但对于模型的好坏,也就是模型的泛化能力,如何进行评估呢? 很简单,我们可以定一些评价指标,来度量模型的优劣.比如准确率.精确率.召回率.F1值.ROC ...
- 【机器学习】准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure
在机器学习.数据挖掘.推荐系统完成建模之后,需要对模型的效果做评价. 业内目前常常采用的评价指标有准确率(Precision).召回率(Recall).F值(F-Measure)等,下图是不同机器学习 ...
- 机器学习分类模型中的评价指标介绍:准确率、精确率、召回率、ROC曲线
文章来源:https://blog.csdn.net/wf592523813/article/details/95202448 1 二分类评价指标 准确率,精确率,召回率,F1-Score, AUC, ...
- 机器学习算法中的准确率、精确率、召回率和F值
机器学习算法中的准确率.精确率.召回率和F值:https://www.jianshu.com/p/d400a821ef3d
- python垃圾分类准确率计算公式_准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure...
机器学习(ML),自然语言处理(NLP),信息检索(IR)等领域,评估(Evaluation)是一个必要的 工作,而其评价指标往往有如下几点:准确率(Accuracy),精确率(Precision), ...
- 准确率、精确率、召回率、F值
准确率:正确的数量除以总数量 准确率(accuracy),是一个用来衡量分类器预测结果与真实结果差异的一个指标,越接近于1说明分类结果越准确.举个例子,比如现在有一个猫狗图片分类器对100张图片进行分 ...
- 一文详尽混淆矩阵、准确率、精确率、召回率、F1值、P-R 曲线、ROC 曲线、AUC 值、Micro-F1 和 Macro-F1
文章目录 二分类的评价指标 一.混淆矩阵与 TP.TN.FP.FN 二.准确率.精确率.召回率.F1值 三.P-R 曲线 四.ROC 曲线.AUC 值 五.P-R曲线和ROC曲线有什么区别,如何选择? ...
- 通俗解释机器学习中的召回率、精确率、准确率
赶时间的同学们看这里:提升精确率是为了不错报.提升召回率是为了不漏报 网络上很多地方分不清准确率和精确率,在这里先正确区分一下精确率和准确率,以及他们的别称 切入正题 很多人分不清召回率和精确率的区别 ...
- 准确率、精确率、召回率、F1-score
准确率.精确率.召回率.F1-score 概念理解 准确率(accuracy) 精确率(也叫查准率,precision) 召回率(也叫查全率,recall) F1-score 概念理解 TP(True ...
- 机器学习算法衡量指标——准确率、精确率(查准率)、召回率(查全率)
机器学习算法衡量指标 在分类问题中,将机器学习模型的预测与实际情况进行比对后,结果可以分为四种:TP.TN.FN.FP.每个的第一个字母:T/F,代表预测结果是否符合事实,模型猜得对不对,True o ...
最新文章
- tiny4412学习之u-boot启动过程
- LinFu Dynamic Proxy - LinFu 2.3, LinFu.DynamicProxy 1.031
- 用archoctopus下载花瓣
- yjv是电缆还是电线_YJV与VV电缆的区别你知道吗?推荐
- 关于怎么获取jsp的web站点的目录问题
- python rpc webservice_关于RPC、HTTP、WebService的区别
- Java基础入门笔记-包装类
- 在线笔记存代码_李宏毅《机器学习》完整版笔记发布
- [Python] L1-040. 最佳情侣身高差 团体程序设计天梯赛GPLT
- ExtJs布局学习笔记
- iOS开发技巧:使用Objective-C创建UUID
- 网易163邮箱和网易126邮箱有什么区别?
- 大一上学期高数期中复习 高数叔复习笔记
- 推荐一款好玩的处理照片的软件 叫“可牛影像”
- 马原期末复习知识点完整版!
- UE5 c++ 写一个livelink插件
- Excel文件怎样加密?这两种方法值得收藏!
- ICH1/ICH2/ICH3/ICH4/ICH5/ICH6/ICH7/ICH8/ICH9的区别和联系
- 17 年微软老兵,非典型跨领域 AI 科研之路
- Klin、Druid、ClickHouse核心技术对比