实际上非常简单,精确率是针对我们预测结果而言的,它表示的是预测为正的样本中有多少是对的。那么预测为正就有两种可能了,一种就是把正类预测为正类(TP),另一种就是把负类预测为正类(FP)。

P = TP/(TP+FP)

召回率是针对我们原来的样本而言的,它表示的是样本中的正例有多少被预测正确了。那也有两种可能,一种是把原来的正类预测成正类(TP),另一种就是把原来的正类预测为负类(FN)。

R = TP/(TP+FN)            
T


在信息检索领域,精确率和召回率又被称为查准率查全率


ROC 曲线

我们先来看下维基百科的定义,

In signal detection theory, a receiver operating characteristic (ROC), or simply ROC curve, is a graphical plot which illustrates the performance of a binary classifier system as its discrimination threshold is varied.

比如在逻辑回归里面,我们会设一个阈值,大于这个值的为正类,小于这个值为负类。如果我们减小这个阀值,那么更多的样本会被识别为正类。这会提高正类的识别率,但同时也会使得更多的负类被错误识别为正类。为了形象化这一变化,在此引入 ROC ,ROC 曲线可以用于评价一个分类器好坏。

ROC 关注两个指标,

直观上,TPR 代表能将正例分对的概率,FPR 代表将负例错分为正例的概率。在 ROC 空间中,每个点的横坐标是 FPR,纵坐标是 TPR,这也就描绘了分类器在 TP(真正率)和 FP(假正率)间的 trade-off2


AUC

AUC(Area Under Curve)被定义为ROC曲线下的面积,显然这个面积的数值不会大于1。

The AUC value is equivalent to the probability that a randomly chosen positive example is ranked higher than a randomly chosen negative example.

翻译过来就是,随机挑选一个正样本以及一个负样本,分类器判定正样本的值高于负样本的概率就是 AUC 值。

简单说:AUC值越大的分类器,正确率越高3

  • 完美分类器,采用这个预测模型时,不管设定什么阈值都能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  • ,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  • ,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  • ,比随机猜测还差;但只要总是反预测而行,就优于随机猜测,因此不存在  的情况。

既然已经这么多评价标准,为什么还要使用ROC和AUC呢?因为ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反)


回归4

平均绝对误差

平均绝对误差MAE(Mean Absolute Error)又被称为  范数损失(l1-norm loss):


平均平方误差

平均平方误差 MSE(Mean Squared Error)又被称为  范数损失(l2-norm loss):

模型评估准确率、召回率、ROC曲线、AUC总结相关推荐

  1. 混淆矩阵 正确率 召回率 ROC曲线

    混淆矩阵: 预测结果 真实结果 +1 -1 +1 TP FN -1 FP TN TP:真阳      TN:真阴 FP:假阳      FN:假阴 正确率/精准率(precision):TP/(TP+ ...

  2. 准确率-召回率 - Precision-Recall

    Precision-Recall 准确率-召回率 本文翻译自 Precision-Recall 更多翻译可以看 Scikit-learn 某部分的中文翻译 用于评估分类器输出质量的 准确率-召回率 指 ...

  3. [机器学习] 二分类模型评估指标---精确率Precision、召回率Recall、ROC|AUC

    一 为什么要评估模型? 一句话,想找到最有效的模型.模型的应用是循环迭代的过程,只有通过持续调整和调优才能适应在线数据和业务目标. 选定模型时一开始都是假设数据的分布是一定的,然而数据的分布会随着时间 ...

  4. 准确率,召回率,F值,ROC,AUC

    准确率,召回率,F值,ROC,AUC 责任编辑:词汇网 发表时间:2016-4-23 20:08:08 度量表 1.准确率 (presion)p=TPTP+FP 理解为你预测对的正例数占你预测正例总量 ...

  5. 准确率/召回率/精准率/F值_模型评价

    准确率/召回率/精准率/F值 模型选择:对特定任务最优建模方法的选择或者对特定模型最佳参数的选择. 在训练数据集上运行模型(算法)并在测试数据集中测试效果, 迭代进行数据模型的修改, 这种方式被称为交 ...

  6. 【数据挖掘】K-NN 分类 ( 简介 | 分类概念 | K-NN 分类实例 | K-NN 分类准确度评估 | K-NN 分类结果评价指标 | 准确率 | 召回率 )

    文章目录 I . K-NN 简介 II . K-NN 分类 III . K-NN 分类实例 IV . K-NN 分类 准确性评估方法 V . 保持法 VI . kkk-交叉确认法 VII . K-NN ...

  7. 逻辑回归模型混淆矩阵评价与ROC曲线最佳阈值的好处(附Accuracy,TPR,FPR计算函数)

    一.得到阈值在0.5和0.8下模型的混淆矩阵 y_prob=result.predict(X_test)#得到概率值y_predict1=pd.DataFrame(y_prob>0.5).ast ...

  8. 模型测试集上准确率(ACC)、精确率precision、召回率recall、AUC评估指标计算

    TP: 预测为正,实际为正 TN: 预测为负,实际为负 FP:预测为正,实际为负 FN: 预测为负,实际为正 准确率(accuracy) = 预测对的/所有 = (TP+TN)/(TP+FN+FP+T ...

  9. 模型评价指标——混淆矩阵/ROC曲线/AUC曲线

    一.混淆矩阵 TP = True Postive真阳性:FP = False Positive假阳性 :FN = False Negative假阴性:TN = True Negative真阴性 ① 精 ...

最新文章

  1. LeetCode简单题之子数组最大平均数 I
  2. RESTful Android
  3. 中随机打乱序列的函数_提前准备,方能“随机”应对,人生不悔
  4. php获取图像尺寸大小的方法,Javascript从php生成的图像中获取图像大小
  5. Android开发之git提交代码到GitHub仓库教程
  6. 如果出现网络请求3840的这种错误
  7. Adminers 1.0.7 正式发布,MySQL 管理客户端
  8. adb工具下载及安装
  9. android获取路由器ip地址吗,查看路由器IP地址方法(管理后台地址)
  10. 虚幻四C++ 添加角色动画
  11. IP地址(配置),MAC地址,DNS,电脑无法上网解决解决步骤
  12. win10可以上网但显示无网络连接
  13. No binary rubies available for: osx/10.8/x86_64/ruby-1.9.2-p320解决
  14. 压缩包密码如何加密解密
  15. UNI APP---Android端原生插件开发实战(二)
  16. 提示“SystemSettings.exe-系统错误
  17. 推荐:走遍美国视频下载
  18. k、K、kb、kB、Kb、KB、GB、MB之间的关系
  19. DDoS攻击的原理是什么
  20. 北京理工计算机实验二报告,北京理工大学计算机实验二报告表.doc

热门文章

  1. 【最佳解法】剑指 Offer 42. 连续子数组的最大和
  2. 【三万字!】Dubbo、Zookeeper学习笔记!秒杀面试官!——双非上岸阿里巴巴系列
  3. [leetcode]106.从中序与后序遍历序列构造二叉树
  4. Redis单线程执行流程
  5. 数据结构题:根据所给权值设计相应的哈夫曼树,并设计哈夫曼编码
  6. 点击打印出现IE已经阻止此站点用不安全方式使用 ActiveX 控件解决方
  7. mysql启动报错2002_mysql登陆启动报错 ERROR 2002 (HY000) 解决方法
  8. @override报错_C++ 多态性:C++11:override 与 final(学习笔记:第8章 09)
  9. 51单片机auxr寄存器_STC12C5A60S2单片机AD采样程序及其寄存器讲解
  10. phpstorm安装_快速打造自己的PHPStorm主题