一、总述

为了评估机器学习算法在某项任务中好坏,需要我们设计方法去度量性能,比如,在分类任务中,我们经常衡量模型的精度(accuracy),即正确分类数据与全部分类数据的比值。与之相对应,我们去测量错误分类数据在全部分类数据比例,称之为错误率(error rate),也常将错误率称为0-1损失期望。

机器学习算法是在实际环境中运行的,也就是说,机器学习所面临的数据是未知的。生活告诉我们,实践才能出真知,但未来总是复杂多变的,庄子曾说过“吾生也有涯,而知也无涯,以有涯随无涯,殆已。”告诉我们要从已知中去追寻未知。因此我们需要“假造”一些未知数据,我们称之为测试数据集(test set of data),我们将训练好的机器学习算法拿到这些测数据集上进行性能测量,然后我们就“自欺欺人”的宣称我们设计的算法如何的好。测试数据也是已知数据的一部分,实际这部分数据我们首先密封起来,只在最终的性能测试时才用。

其中在分类模型评价的指标中,常见的方法有如下三种:

  • 混淆矩阵(也称误差矩阵,Confusion Matrix)
  • ROC曲线
  • AUC值

在回归模型评价指标中,常用的方法有如下几种:

  • MSE
  • RMSE
  • MAE
  • R^2

二、分类模型评价

举例

拿课程作为类比,平时做的练习题或者家庭作业就是我们的训练数据(trainning set of data),老师组织的月考、期中考,我们称之为验证数据,最后参加的期末考试我们称之为测试数据,这三部分数据全是已有的数据,其中训练数据只用来训练,学生(学习算法)的目标是在这部分数据上不断提高性能,而老师(算法调整人员)会使用验证数据监控学生的学习情况,然后去调整学生的学习方式,当老师认为该学生已经无法再提高时,就是用测试数据模拟未知数据对学生进行最后的性能测试。

2.1、查全率和查准率

错误率和精度是最常用的度量方式,但在特定的任务中,我们还需要一些额外的度量方式,比如进行信息检索时,我们经常需要关心“检索的信息中有多少是用户感兴趣的”以及“用户感兴趣的信息有多少被检索出来了”这两类问题,而此时,我们引入查准率(precision)与查全率(recall)

为了更好介绍查准率和查全率,以二分类问题为例子,我们需要将分类器预测结果分为以下4种情况。

  • <1>真正例(True Positive,TP),分类器预测1,真实类标为“1”的分类数据。
  • <2>假正例(False Positive,FP),分类器预测1,真实类标为“0”的分类数据。
  • <3>真反例(True Negative,TN),分类器预测0,真实类标为“0”的分类数据。
  • <4>假反例(False Negative,FN),分类器预测0,真实类标为“1”的分类数据

而TP+FP+TN+FN = 数据总量,如下表所示为混淆矩阵(Confusion Matrix)

真实情况 预测结果
正例 反例
正例 TP(真正例) FN(假反例)
反例 FP(假正例) TN(真反例)

如上表,

准确率Accuracy),表示正确分类的测试实例的个数占测试实例总数的比例,计算公式为:

                              

查准率Precision),也称精确率,表示正确分类的正例个数占分类为正例的实例个数的比例:

                                  

查全率Recall),也称召回率,表示正确分类的正例个数占实际正例个数的比例:

                                     

查准率和查全率是一对“鱼”与“熊掌”,一把来说,查准率高时,查全率往往偏低;而查全率高时,查准率往往偏低。

例如,如果想将垃圾邮件都选取出来,可以将所有邮件都标签为垃圾邮件,那么查全率就接近于1,但这样查准率就会比较低;如果希望分类垃圾邮件的查准率足够高,那么可以让分类器尽可能挑选最有把握的垃圾邮件,但这样往往会有大量的垃圾邮件成为漏网之鱼,此时查全率就会比较低。

需要注意的是,性能度量也依赖于所需完成任务的应用场景。任务场景不同,度量手段也不同,如果性能度量选取不当,对于该任务可能是毁灭级的。比如我们让机器完成指纹识别任务,但应用在超市中和应用在安全机构部门的指纹识别系统,其度量方式完全不同。在某个超市会员系统中,需要识别用户的指纹以确定用户是否为会员,然后对部分商品进行打折或者抽奖服务,此时我们并不关心指纹识别的精准度,假设一个会员用户总是被识别错误,那么该用户就会非常恼火,超市很可能会失去一个老顾客。相反,将一个非会员顾客识别错误,其损失就没那么高,或许还有可能获得一个新会员,因此该任务更关心查全率,也就是期望所有会员都要被识别出来。但如果指纹识别应用到安全部门,用于识别员工的身份,此时我们就更关心识别员工的正确性,因此机器只会在最有“把握”的情况下才允许员工通过,此时我们更关心查准率。我们或许情愿对员工识别错误100次,也不愿意放过一个非员工,或许此时机器学习可能“非常不好用”,但安全性得到了报障。

2.2、P-R曲线、平衡点和F1度量

2.2.1、P-R曲线

在很多情形下,我们可根据学习器的预测结果对样例进行排序,排在前面的是学习器认为“最可能”是正例的样本,排在最后的是学习器认为“最不可能”是正例的样本。按此顺序设置不同的阈值,逐个把样本作为正例进行预测,则每次可以计算出当前的查准率、查全率。以查准率为纵轴、查全率为横轴作图,就得到了查准率-查全率曲线,简称“P-R曲线”,显示该曲线的图称为“P-R图”。

P-R图直观地显示出学习器在样本总体上的查全率、查准率。在进行比较时,若一个学习器的P-R曲线被另一个学习器的曲线完全“包住”,则可断言后者的性能优于前者,例如上图中学习器A的性能优于学习器C;如果两个学习器的P-R曲线发生了交叉,例如图1中的A和B,则难以一般性地断言两者孰优孰劣,只能在具体的查准率或查全率条件下进行比较。然而,在很多情形下,人们往往仍然希望把学习器A与B比出个高低。这时,一个比较合理的判断依据是比较P-R曲线下面积的大小,它在一定程度上表征了学习器在查准率和查全率上取得相对“双高”的比例。但这个值不太容易估算,因此,人们设计了一些综合考虑查准率、查全率的性能度量,比如BEP度量、F1度量。

2.2.2、平衡点(BEP)

“平衡点”(Break-Even-Point,简称BEP)就是这样一个度量,它是“查准率 = 查全率”时的取值,例如上图中学习器C的BEP是0.64,而基于BEP的比较,可认为学习器A优于B。

2.2.3、F1度量

BEP曲线还是过于简化了些,更常用的是F1度量。我们先来谈谈F1度量的由来是加权调和平均,

计算公式:F1 = 2 * F * R / ( F + R )

在一些应用中,对查准率和查全率的重视程度有所不同。例如在商品推荐系统中,为了尽可能少打扰用户,更希望推荐内容确实是用户感兴趣的,此时查准率更重要;而在逃犯信息检索系统中,更希望尽可能少漏掉逃犯,此时查全率更重要。

F1度量的一般形式是,能让我们表达出对查准率/查全率的不同偏好,它定义为公式如下所示

其中,β>0度量了查全率对查准率的相对重要性。

  • β=1时,退化为标准的F1,查全率与查准率重要程度相同;
  • β>1时,查全率有更大影响;
  • β<1时,查准率有更大影响。

2.3、ROC曲线和AUC(度量分类中的非均衡性)

2.3.1、ROC曲线

很多学习器是为测试样本产生一个实值或概率预测,然后将这个预测值与一个分类阈值(threshold)进行比较,若大于阈值则分为正类,否则为反类。例如,很多分类模型可以对每个测试样本预测出一个[0.0,1.0]之间的实值,然后将这个值与0.5进行比较,大于0.5则判为正例,否则为反例。这个实值或概率预测结果的好坏,直接决定了学习器的泛化能力。实际上根据这个实值或概率预测结果,我们可将测试样本进行排序,“最可能”是正例的排在最前面,“最不可能”是正例的排在最后面。这样,分类过程就相当于在这个排序中以某个''截断点” (cut point)将样本分为两部分,前一部分判作正例,后一部分则判作反例。

在不同的应用任务中,我们可以根据任务需求来采用不同的截断点,例如:

  • 更重视“查准率”,则可选择排序中靠前的位置进行截断
  • 更重视“查全率”,则可选择排序中靠后的位置进行截断

因此,排序本身的质量好坏,体现了综合考虑学习器在不同任务下的“期望泛化性能”的好坏,或者说,“一般情况下”泛化性能的好坏。ROC曲线就是从这个角度出发来研究学习器泛化性能的有力工具。

ROC 曲线和精确率/召回率曲线有着很多的相似之处,当然它们也有所不同。它将真正类率(即recall)和假正类率(被错误分类的负实例的比例)对应着绘制在一张图中,而非使用精确率和召回率。

ROC 关注两个指标:

TPR(True Positive Rate)表示在所有实际为正例(阳性)的样本中,被正确地判断为正例的比率,即:

TPR=TP/(TP + FN)

FPR( False Positive Rate)表示在所有实际为反例(阴性)的样本中,被错误地判断为正例的比率,即:

FPR=FP/(FP + TN)

ROC曲线是以FPR作为X轴,TPR作为Y轴。ROC曲线如下图所示:

举例:假设采用决策树分类器,每个样本输出预测为正类的概率,那么通过设定一个阈值如0.9,概率大于等于0.9的为正类,小于0.9的为负类。对应的就可以算出一组(FPR,TPR),在平面中得到对应坐标点。随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即FPR和TPR会同时增大。阈值最大时,对应坐标点为(0,0),阈值最小时,对应坐标点(1,1)。

  • 横轴FPR:FPR越大,预测正类中实际负类越多。
  • 纵轴TPR:TPR越大,预测正类中实际正类越多。
  • 理想目标:TPR=1,FPR=0,即图中(0,1)点,故ROC曲线越靠拢(0,1)点,越偏离45度对角线越好。

优点

相比 P-R 曲线来说,ROC 曲线有一个很大的特点:ROC 曲线的形状不会随着正负样本分布的变化而产生很大的变化,而 P-R 曲线会发生很大的变化。比如负样本数量增加一个量级后 P-R 曲线可能会发生特别明显的变化,而 ROC 曲线形状基本不变。而在实际环境中,正负样本的数量往往是不平衡的,所以ROC 曲线是最合适的。

2.3.2、AUC值

AUC值(Area Unser the Curve)是ROC曲线下的面积,AUC值给出的是分类器的平均性能值。使用AUC值可以评估二分类问题分类效果的优劣,计算公式如下:

一个完美的分类器的AUC为1.0,而随机猜测的AUC为0.5,显然AUC值在0和1之间,并且数值越高,代表模型的性能越好。

三、回归模型评价

  • MSE(Mean Squared Error) 均方误差

  • RMSE(Root Mean Squared Error) 均方根误差

  • MAE(Mean Absolute Error) 平均绝对误差

  • R^2,决定系数

区别

MSE 和 RMSE 可以很好的反应回归模型预测值和真实值的偏离程度,但由于MSE 和 RMSE 的计算使用了平方,如果存在个别离群点的偏离程度非常大时即使其数量非常少也会使得MSE 和 RMSE 指标变差。面对这种情况有三种方法应对:

  1. 如果这些离群点是异常数据,在数据预处理的时候就把它过滤掉;
  2. 如果这些离群点是正常数据,就提高模型的预测能力,在建模的时候将离群点产生的原因也纳入分析;
  3. 另外一种方法是使用鲁棒性更好的评价指标,比如MAE。

Reference:

《深度学习实战》杨云 杜飞著

《机器学习》周志华著

机器学习模型评估及性能评价(超全)相关推荐

  1. 机器学习模型评估与超参数调优详解

    ↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 作者:李祖贤  深圳大学,Datawhale高校群成员 机器学习分为两类 ...

  2. 正确率能很好的评估分类算法吗_机器学习算法:分类知识超全总结!

    关注上方"Python数据科学",选择星标,关键时间,第一时间送达! ☞500g+超全学习资源免费领取  Datawhale,译者:张峰本文将介绍机器学习算法中非常重要的知识-分类 ...

  3. 机器学习——模型评估,选择与验证

    文章目录 机器学习--模型评估,选择与验证 训练集与测试集 为什么要有训练集与测试集 如何划分训练集与测试集 欠拟合与过拟合 欠拟合 过拟合 偏差与方差 模型误差来源 偏差与方差 验证集与交叉验证 为 ...

  4. 二、机器学习模型评估

    二.机器学习模型评估 2.1 模型评估:基本概念 错误率(Error Rate) 预测错误的样本数a占样本总数的比例m E = a m E=\frac{a}{m} E=ma​ 准确率(Accuracy ...

  5. 机器学习模型评估指标总结!

    ↑↑↑关注后"星标"Datawhale 每日干货 & 每月组队学习,不错过 Datawhale干货 作者:太子长琴,Datawhale优秀学习者 本文对机器学习模型评估指标 ...

  6. 【机器学习基础】非常详细!机器学习模型评估指标总结!

    作者:太子长琴,Datawhale优秀学习者 本文对机器学习模型评估指标进行了完整总结.机器学习的数据集一般被划分为训练集和测试集,训练集用于训练模型,测试集则用于评估模型.针对不同的机器学习问题(分 ...

  7. 周志华机器学习--模型评估与选择

    周志华机器学习–模型评估与选择 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周 ...

  8. 【机器学习基础】机器学习模型评估教程!

    译者:追风者,Datawhale成员 如何在投入生产前评估机器学习模型性能? 想象一下,你训练了一个机器学习模型.也许,可以从中选几个候选方案. 你在测试集上运行它,得到了一些质量评估.模型没有过度拟 ...

  9. 机器学习模型评估与预测

    模型评估与预测 1.1经验误差与过拟合 1.2 评估方法 1.2.1留出法(hold-out) 1.2.2交叉验证法 1.2.3 自助法 1.3性能度量 1.3.1 查准率,查全率,准确率 1.3.2 ...

最新文章

  1. HTML5培训后好就业吗
  2. windows资源管理器进行ftp登录下载文件报“当前的安全设置不允许从该位置下载文件”...
  3. INNODB的锁的类型
  4. 标本兼治:企业应揪出网络漏洞元凶
  5. C语言string.h文件函数汇总详解
  6. telnet ip 端口
  7. python包实际怎么使用_Python--模块与包
  8. 如何查询服务器是否安装系统时间,如何查看系统当前的NTP配置?
  9. IOS开发-UIView之动画效果的实现方法(合集)
  10. ubuntu两个conda安装和切换
  11. pandas去掉html标签,用Pandas清理HTML表
  12. 剑指offer第二版(C++实现)
  13. 台湾-李宏毅教授的深度学习视频教程
  14. 怎样把多个excel文件合并成一个
  15. Python开发高频英语单词700+,熟悉后英文障碍又少了
  16. android web 爬虫,Android学习——Jsoup实现网络爬虫,爬取贤集网
  17. mysql和ocrcle_oracle 12.1 RAC的ocr磁盘组异常恢复
  18. AI未来是什么样子,这些科幻电影里已经有了答案
  19. python开发app教程_知到APP_数据库应用与开发_答案教程
  20. vivo社招面试流程,坐标南京

热门文章

  1. ITRON的任务管理
  2. 我看技术人的成长路径
  3. Spring Cloud Alibaba 实战 | 第十二篇: 微服务整合Sentinel的流控、熔断降级,赋能拥有降级功能的Feign新技能熔断,实现熔断降级双剑合璧(JMeter模拟测试)
  4. OpenFlow1.0协议解析
  5. absl教程(五):Synchronization library
  6. 解决Could not resolve XXX
  7. 微软 文档转换服务器,文档转换器
  8. 电脑服务器修改穿越火线不卡,windows10玩穿越火线画面不流畅怎么办
  9. 得到网页的最新更新时间
  10. docker:error pulling image configuration