ROC曲线的横坐标轴是FPR(False Positive Rate),纵坐标轴是TPR(True Positive Rate),对应于下面的混淆矩阵(fusion matrix):

TPR=TPTP+FNTPR = \frac{TP}{TP+FN}TPR=TP+FNTP​

TP指的是正类被分为正类的个数,FN指的是正类被分为负类的个数(错误的负类),所以TP+FN指的就是所有正类的个数,这样这个比值的意义就是所有正类样本中被正确分类为正类的比值。结合异常点检测的例子(异常点是正类,正常点是负类)就是,异常点中被正确分为异常点的比值。

FPR=FPFP+TNFPR = \frac{FP}{FP+TN}FPR=FP+TNFP​
FP指的是负类被分为正类的个数(错误的正类),TN指的是负类被分为负类的个数,所以FP+TN就是所有负类的个数,这样这个比值的意义就是所有负类样本中被错误分为正类的比值。还是结合异常点检测的例子就是,正常点中被错误地分为异常点的比值。

再用在知乎上看到的一句来升华:AUC指的是分类器输出该正样本为正的那个概率值 比 分类器输出该负样本为正的那个概率值 要大的可能性。

因此,总的来说TPR和FPR分别
可以看出TPR和FPR分别是TP和FP在其所在混淆矩阵的所在列的比例。

ROC曲线的作用是为分类器选择最优阈值,如一个二分类的分类器对一个样本的的分类score是0.6,阈值设置为大于0.5时分类为正类,那么这个样本就是正类。而如果阈值设置为大于0.7时分类为正类,那么自然这个样本就被分为了负类。这样不同阈值得到的TPR和FPR自然是不一样的,但是总有一个阈值是最合适的。

所以,在ROC曲线中,一般认为ROC曲线中最靠近左上角的点是分类错误最少的最优阈值。另外,所取的阈值越多,采样的点也就越多,从而形成的ROC曲线也就越平滑。如下图中分别是对应了TPR和FPR在(0,0)、(0.5,0.75)以及(1,1)条件下形成的ROC曲线。


AUC即是ROC曲线下方区域构成的面积(Area Under ROC Curve)。AUC面积越大,模型的分类效果越好。

ROC和AUC一般常用于label unbanlance的数据的分类指标中。如在异常点检测中,异常点,也就是正类,常常很少。如100个样本点中只有一个异常点,我们把所有数据都分类为负类,得到的accuracy是99%,但是显然accuracy并不是我们要的衡量指标。而通过ROC曲线得到的TPR和FPR都是0(TP和FP都是0),这样得到的AUC也就是0了。

文中图片来源:如何理解机器学习和统计中的AUC? - 无涯的回答 - 知乎
https://www.zhihu.com/question/39840928/answer/241440370

【机器学习】ROC曲线和AUC面积相关推荐

  1. ROC曲线,AUC面积

    AUC(Area under Curve):Roc曲线下的面积,介于0.1和1之间.Auc作为数值可以直观的评价分类器的好坏,值越大越好. 首先AUC值是一个概率值,当你随机挑选一个正样本以及负样本, ...

  2. 分类模型性能评价指标:混淆矩阵、F Score、ROC曲线与AUC面积、PR曲线

    以二分类模型为例:二分类模型最终需要判断样本的结果是1还是0,或者说是positive还是negative. 评价分类模型性能的场景: 采集一个称之为测试集的数据集: 测试集的每一个样本由特征数据及其 ...

  3. 准确率,查准率,查全率,ROC曲线,AUC面积

    正确翻译: T :正确 P:正样本    TP:表示正确预测,预测为正样本 True Positive(真正,TP):将正类预测为正类数  True Negative(真负,TN):将负类预测为负类数 ...

  4. 【机器学习】--模型评估指标之混淆矩阵,ROC曲线和AUC面积

    一.前述 怎么样对训练出来的模型进行评估是有一定指标的,本文就相关指标做一个总结. 二.具体 1.混淆矩阵 混淆矩阵如图:  第一个参数true,false是指预测的正确性.  第二个参数true,p ...

  5. Sklearn机器学习——ROC曲线、ROC曲线的绘制和AUC面积、运用ROC曲线找到最佳阈值

    目录 1 ROC曲线 2 ROC曲线的绘制 2.1 Sklearn中的ROC曲线和AUC面积 2.2 利用ROC曲线找到最佳阈值 1 ROC曲线 上篇博客介绍了ROC曲线的概率和阈值还有SVM实现概率 ...

  6. 机器学习分类问题指标理解——准确率(accuracy)、精确率(precision)、召回率(recall)、F1-Score、ROC曲线、P-R曲线、AUC面积

    2020.08.25更新: 修改了ROC曲线中TPR公式的错误. 2020.07.25更新: 修改了混淆矩阵,每一行为实际值,每一列与预测值. 机器学习分类问题指标理解 0. 一个例子 1.准确率(A ...

  7. 「机器学习速成」分类,评估指标(TP、FP、TN、FN),ROC曲线和AUC

    https://www.toutiao.com/a6706449645901464078/ 2019-06-25 20:49:47 大家好,今天我们学习[机器学习速成]之 分类,评估指标(TP.FP. ...

  8. 机器学习之分类性能度量指标 : ROC曲线、AUC值、正确率、召回率

    北京 | 高性能计算之GPU CUDA课程11月24-26日3天密集学习 快速带你晋级阅读全文> 在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度.错误率指的是在所有测试样例中错分 ...

  9. 【深度学习-机器学习】分类度量指标 : 正确率、召回率、灵敏度、特异度,ROC曲线、AUC等

    来源于博文:https://blog.csdn.net/tanzuozhev/article/details/79109311 在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度.错误率指 ...

  10. 机器学习中的度量指标:ROC曲线,AUC值,K-S曲线

    机器学习中的度量指标:ROC曲线,AUC值,K-S曲线 首先,回顾一下二分类问题的一些定义: 预测 1 0 实 1 TP FN ​际 0 FP TN 上表中,四个项分别为:TP真阳性:FN假阴性:FP ...

最新文章

  1. opencv运行时exe 无法写进去的解决方法
  2. C++ vector 容器浅析
  3. NOIP2017总结与反思
  4. puppet kick 功能
  5. C#连接基于Java开发IM——Openfire
  6. 一文读懂深度学习:从神经元到BERT
  7. bzoj千题计划181:bzoj1878: [SDOI2009]HH的项链
  8. OpenResty(nginx)操作mysql的初步应用
  9. 5gh掌上云计算认证不通过_5GH币项目介绍及评级分析
  10. 2020蓝桥杯省内模拟赛C++B组1-8(详细解析,看完就会)
  11. python中的zen原则到底是什么
  12. UNIX和LINUX系统下载中心
  13. html 右边是iframe 左右结构_HTML iframe 用法总结收藏
  14. 云开发数据库update函数控制台显示更新成功,但数据库中的数据并没有更新(已解决)
  15. SpringCloud 第十二章 Gateway新一代网关
  16. STL 堆 鱼塘钓鱼
  17. Bit Miracle Jpegv2.1.1117
  18. 【AWS+Drupal应用案例】如何让一个千万级流量网站从一直挂机到起死回生?
  19. 红米2a android5,红米手机/小米手机2S/2A三机对比图赏
  20. 求某天是该年的第几天(matlab实现)

热门文章

  1. python人脸识别门禁系统毕设_基于人脸识别的门禁系统设计与实现
  2. 高端存储“四十不惑”
  3. 累计独立访客(UV)不低于 1000 是什么意思,怎么推广呢解决1000呢?
  4. 【Paper Reading】Improving Availability of Vertical Federated Learning Relaxing Inference on Non-overl
  5. windows 安装cab文件
  6. 中国3G蛋糕1.5万亿 10倍三峡工程
  7. ubuntu操作系统firefox浏览器安装flashplayer后仍无法播放的问题解决
  8. 云服务器下行_阿里云ECS服务器下行带宽和上行带宽详解及选择
  9. Interactive Sketch-Based Normal Map Generation with Deep Neural Networks
  10. keil函数和变量无法跳转到定义处的原因有哪些