准确率 Accuracy:

模型预测正确的比例;总样本中预测对的概率;所有样本中实际是正例的占比;正确预测的样本数与总样本数之比。

准确率 =(真正例+真负例)/(真正例+真负例+假正例+假负例)。

精确率 Precision:

又叫查准率,表示预测为正的样本中,有多少是真正的真样本(找得对);即真正例(True Positive)与预测为正的样本数之比。

精确率 = 真正例/(真正例+假正例)

召回率 Recall:

表示样本中的正例被预测正确了(找得全);正例占预测对的占比;预测结果正确的样本中,有多少是真正的真样本;即真正例(True Positive)与实际为正的样本数之比。

召回率 = 真正例/(真正例+假负例)

F1 Score:

既能体现精确率又能体现召回率,是精确率和召回率的调和平均数。

F1 = 2*精确率*召回率/(精确率+召回率)

精确率和召回率的关系:

精确率和召回率其实就是分母的不同,精确率是针对预测为正的结果,召回率是针对实际为正的结果。


计算公式总结:

准确率acc:accuracy = (TP+TN)/(TP+TN+FP+FN)

精确率p:precision = TP/(TP+FP)

召回率rec:recall = TP/(TP+FN)

F1 Score:F1=2 * Precision * Recall / (Precision + Recall)

计算公式的理解:

TP+FP+TN+FN:所有样本数;

TP+TN:预测结果是对的;

TP+FP:预测为正的;

TP+FN:实际为正的;


说到这,就不得不提混淆矩阵了,能帮助我们理解和记忆以上评估模型的几个指标:

混淆矩阵

预测结果

1-Positive

0-Negative

真实情况

1-Positive

TP

FN

0-Negative

FP

TN

真正例(True Positive):模型预测为正,且实际也为正的样本数。(预测结果是对的)

假正例(False Positive):模型预测为正,但实际为负的样本数。(预测结果是错的)

假负例(False Negative):模型预测为负,但实际为正的样本数。(预测结果是错的)

真负例(True Negative):模型预测为负,且实际也为负的样本数。(预测结果是对的)

T:True的首字母,表示预测结果是正确的;

F:False的首字母,表示预测结果是错误的;

P:Positive的首字母,预测是正样本;

N:Negative的首字母,预测是负样本;


补充:

样本不平衡时,评价模型的方法用ROC或AUC;平衡数据,用准确率accuracy。

详解准确率acc、精确率p、准确率acc、F1 score相关推荐

  1. 详解准确率、精确率、召回率、F1值的含义

    机器学习问题之中,通常需要建立模型来解决具体问题,但对于模型的好坏,也就是模型的泛化能力,如何进行评估呢? 很简单,我们可以定一些评价指标,来度量模型的优劣.比如准确率.精确率.召回率.F1值.ROC ...

  2. 【机器学习】准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure

    在机器学习.数据挖掘.推荐系统完成建模之后,需要对模型的效果做评价. 业内目前常常采用的评价指标有准确率(Precision).召回率(Recall).F值(F-Measure)等,下图是不同机器学习 ...

  3. 机器学习分类模型中的评价指标介绍:准确率、精确率、召回率、ROC曲线

    文章来源:https://blog.csdn.net/wf592523813/article/details/95202448 1 二分类评价指标 准确率,精确率,召回率,F1-Score, AUC, ...

  4. 机器学习算法中的准确率、精确率、召回率和F值

    机器学习算法中的准确率.精确率.召回率和F值:https://www.jianshu.com/p/d400a821ef3d

  5. python垃圾分类准确率计算公式_准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure...

    机器学习(ML),自然语言处理(NLP),信息检索(IR)等领域,评估(Evaluation)是一个必要的 工作,而其评价指标往往有如下几点:准确率(Accuracy),精确率(Precision), ...

  6. 准确率、精确率、召回率、F值

    准确率:正确的数量除以总数量 准确率(accuracy),是一个用来衡量分类器预测结果与真实结果差异的一个指标,越接近于1说明分类结果越准确.举个例子,比如现在有一个猫狗图片分类器对100张图片进行分 ...

  7. 一文详尽混淆矩阵、准确率、精确率、召回率、F1值、P-R 曲线、ROC 曲线、AUC 值、Micro-F1 和 Macro-F1

    文章目录 二分类的评价指标 一.混淆矩阵与 TP.TN.FP.FN 二.准确率.精确率.召回率.F1值 三.P-R 曲线 四.ROC 曲线.AUC 值 五.P-R曲线和ROC曲线有什么区别,如何选择? ...

  8. 通俗解释机器学习中的召回率、精确率、准确率

    赶时间的同学们看这里:提升精确率是为了不错报.提升召回率是为了不漏报 网络上很多地方分不清准确率和精确率,在这里先正确区分一下精确率和准确率,以及他们的别称 切入正题 很多人分不清召回率和精确率的区别 ...

  9. 准确率、精确率、召回率、F1-score

    准确率.精确率.召回率.F1-score 概念理解 准确率(accuracy) 精确率(也叫查准率,precision) 召回率(也叫查全率,recall) F1-score 概念理解 TP(True ...

  10. 机器学习算法衡量指标——准确率、精确率(查准率)、召回率(查全率)

    机器学习算法衡量指标 在分类问题中,将机器学习模型的预测与实际情况进行比对后,结果可以分为四种:TP.TN.FN.FP.每个的第一个字母:T/F,代表预测结果是否符合事实,模型猜得对不对,True o ...

最新文章

  1. tiny4412学习之u-boot启动过程
  2. LinFu Dynamic Proxy - LinFu 2.3, LinFu.DynamicProxy 1.031
  3. 用archoctopus下载花瓣
  4. yjv是电缆还是电线_YJV与VV电缆的区别你知道吗?推荐
  5. 关于怎么获取jsp的web站点的目录问题
  6. python rpc webservice_关于RPC、HTTP、WebService的区别
  7. Java基础入门笔记-包装类
  8. 在线笔记存代码_李宏毅《机器学习》完整版笔记发布
  9. [Python] L1-040. 最佳情侣身高差 团体程序设计天梯赛GPLT
  10. ExtJs布局学习笔记
  11. iOS开发技巧:使用Objective-C创建UUID
  12. 网易163邮箱和网易126邮箱有什么区别?
  13. 大一上学期高数期中复习 高数叔复习笔记
  14. 推荐一款好玩的处理照片的软件 叫“可牛影像”
  15. 马原期末复习知识点完整版!
  16. UE5 c++ 写一个livelink插件
  17. Excel文件怎样加密?这两种方法值得收藏!
  18. ICH1/ICH2/ICH3/ICH4/ICH5/ICH6/ICH7/ICH8/ICH9的区别和联系
  19. 17 年微软老兵,非典型跨领域 AI 科研之路
  20. Klin、Druid、ClickHouse核心技术对比

热门文章

  1. BMPFont使用教程--免费的位图字体制作工具字体制作(2)
  2. 网络字节顺,大头,小头
  3. 算法竞赛进阶指南——兔子与兔子【哈希】
  4. altium designer 文件转换成 allegro 文件
  5. win+r 快捷命令
  6. 如何提高MySQL的安全性!
  7. 华为OD机试真题 Java 实现【记票统计】【牛客练习题】
  8. vmware centos设置基础软件仓库时出错error set up base repository
  9. python字符编码使用ascii编码储存_python与字符编码问题
  10. 如何将ie9转为ie8