**

数据挖掘、机器学习和推荐系统中的评测指标:

## 准确率(Precision)、召回率(Recall)、F值(F-Measure)简介。

**

在机器学习、数据挖掘、推荐系统完成建模之后,需要对模型的效果做评价。

业内目前常常采用的评价指标有准确率(Precision)、召回率(Recall)、F值(F-Measure)等


通俗解释:
准确率:在所有被判断为正确的文档中,有多大比例是正确的
召回率:在所有正确的文档中,有多大比例被我们判断为正确
F1测度:即衡量准确率,又衡量召回率

1、准确率(Accuracy)

准确率是我们最常见的评价指标,而且很容易理解,就是被分对的样本数除以所有的样本数,通常来说,正确率越高,分类器越好。
准确率确实是一个很好很直观的评价指标,但是有时候准确率高并不能代表一个算法就好。比如某个地区某天地震的预测,假设我们有一堆的特征作为地震分类的属性,类别只有两个:0:不发生地震、1:发生地震。一个不加思考的分类器,对每一个测试用例都将类别划分为0,那那么它就可能达到99%的准确率,但真的地震来临时,这个分类器毫无察觉,这个分类带来的损失是巨大的。为什么99%的准确率的分类器却不是我们想要的,因为这里数据分布不均衡,类别1的数据太少,完全错分类别1依然可以达到很高的准确率却忽视了我们关注的东西。再举个例子说明下。在正负样本不平衡的情况下,准确率这个评价指标有很大的缺陷。比如在互联网广告里面,点击的数量是很少的,一般只有千分之几,如果用acc,即使全部预测成负类(不点击)acc也有 99% 以上,没有意义。因此,单纯靠准确率来评价一个算法模型是远远不够科学全面的。

2、错误率(Error rate)

错误率则与准确率相反,描述被分类器错分的比例,error rate = (FP+FN)/(TP+TN+FP+FN),对某一个实例来说,分对与分错是互斥事件,所以accuracy =1 - error rate。

3、灵敏度(sensitive)

sensitive = TP/P,表示的是所有正例中被分对的比例,衡量了分类器对正例的识别能力。

4、特效度(sensitive)

specificity = TN/N,表示的是所有负例中被分对的比例,衡量了分类器对负例的识别能力。

5、精确率、精度(Precision)

精确率(precision)定义为: 表示被分为正例的示例中实际为正例的比例。

6、召回率(recall)

召回率是覆盖面的度量,度量有多个正例被分为正例,recall=TP/(TP+FN)=TP/P=sensitive,可以看到召回率与灵敏度是一样的。

7、综合评价指标(F-Measure)
P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均
当参数α=1时,就是最常见的F1

可知F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。

8、其他评价指标

计算速度:分类器训练和预测需要的时间;

鲁棒性:处理缺失值和异常值的能力;

可扩展性:处理大数据集的能力;

可解释性:分类器的预测标准的可理解性,像决策树产生的规则就是很容易理解的,而神经网络的一堆参数就不好理解,我们只好把它看成一个黑盒子。

准确率、召回率、F值简介相关推荐

  1. 准确率,召回率,F值,ROC,AUC

    准确率,召回率,F值,ROC,AUC 责任编辑:词汇网 发表时间:2016-4-23 20:08:08 度量表 1.准确率 (presion)p=TPTP+FP 理解为你预测对的正例数占你预测正例总量 ...

  2. 准确率/召回率/精准率/F值_模型评价

    准确率/召回率/精准率/F值 模型选择:对特定任务最优建模方法的选择或者对特定模型最佳参数的选择. 在训练数据集上运行模型(算法)并在测试数据集中测试效果, 迭代进行数据模型的修改, 这种方式被称为交 ...

  3. 【数据挖掘】K-NN 分类 ( 简介 | 分类概念 | K-NN 分类实例 | K-NN 分类准确度评估 | K-NN 分类结果评价指标 | 准确率 | 召回率 )

    文章目录 I . K-NN 简介 II . K-NN 分类 III . K-NN 分类实例 IV . K-NN 分类 准确性评估方法 V . 保持法 VI . kkk-交叉确认法 VII . K-NN ...

  4. 准确率-召回率 - Precision-Recall

    Precision-Recall 准确率-召回率 本文翻译自 Precision-Recall 更多翻译可以看 Scikit-learn 某部分的中文翻译 用于评估分类器输出质量的 准确率-召回率 指 ...

  5. 精确度/召回率/F1值/Micro-F1和Macro-F1的理解

    如下图所示,假设有若干张图片,其中12张是狗的图片其余是猫的图片.现在利用程序去识别狗的图片,结果在识别出的8张图片中有5张是狗的图片,3张是猫的图片(属于误报). 图中,实心小圆代表狗的图片,虚心小 ...

  6. 准确率 召回率_机器学习中F值(F-Measure)、准确率(Precision)、召回率(Recall)

    在机器学习.数据挖掘.推荐系统完成建模之后,需要对模型的效果做评价. 业内目前常常采用的评价指标有准确率(Precision).召回率(Recall).F值(F-Measure)等,下图是不同机器学习 ...

  7. Precision(精确率,正确率), Recall(召回率,查全率),Accuracy(准确率),F-Measure(F值)...

    一.指标概念 TP - 将正类预测为正类 FN - 将正类预测为负类, 类似假设检验中的第一类错误,拒真 FP - 将负类预测位正类,类似假设检验中的第二类错误,取伪 TN - 将负类预测位负类 假设 ...

  8. 我对于准确率---p值,召回率R值以及F值的理解

    再互联网广告的推荐系统和反作弊的实践中经常遇到准确率,召回率,F值几个东西,刚入行的时候,我经常搞混,直到后来我逐渐明白了. 举个列子! 我们用一个模型去判断一段时间的作弊流量,假设该段时间的流量是1 ...

  9. 准确率 召回率_机器学习tips(四):精确率(precision)和召回率(recall)

    精确率(precision)和召回率(recall) 混淆矩阵 True Positive(真正, TP):将正类预测为正类数. True Negative(真负 , TN):将负类预测为负类数. F ...

最新文章

  1. Linux本地yum源配置以及使用yum源安装各种应用程序
  2. three.js两个点给线条加宽度_一台电视两个房间看?衣柜、客房会隐形?这是什么神奇设计!...
  3. dhcp服务器没有响应怎么解决,dhcp服务器没有响应
  4. java log4j 热部署_JAVA类加载器分析--热部署的缺陷(有代码示例,及分析)
  5. 在Nutz中如何配置多个数据库源,并且带事务控制
  6. 《流畅的Python》读书笔记——Python对象引用、可变性和垃圾回收
  7. Taro+dva+Typescript 搭建微信小程序架构
  8. 旅游管理系统告诉你:研学导师人才紧缺
  9. cron风格定时器_QuartzCron表达式在线生成-在线QuartzCron定时器表达式生成工具
  10. 使用软件实现直播推流
  11. 动态规划算法(DP)
  12. DTCC 年度最佳创新产品丨真正的 HTAP 数据库是怎样炼成的?
  13. 永川机器人博览会门票_2018世界机器人博览会门票价格
  14. SDUT—Python程序设计实验六(字典与集合)
  15. pmp考试多长时间出成绩?
  16. 分列:将excel单元格的内容拆分为两列
  17. 单峰数组求第k大算法
  18. 逆向破解——和什么叫渗透
  19. Cubase中MIDI设备的如何创建面板
  20. Sql Server 快捷键

热门文章

  1. npm显示已安装的包
  2. 走进联合国丨CBK,民企实力的代表
  3. An exception was thrown while activating Castle.Proxies.AppService测试AProxy -> Castle.Proxies.AppServ
  4. android音频声调,Android自定义带拼音音调Textview
  5. MATLAB之矩阵分解
  6. 人体行为识别和视频分类算法介绍
  7. Spark 集群模式概述
  8. 2019 数据库流行趋势 --非国内
  9. 自媒体人必备的4个素材网站,再也不用担心找不到素材
  10. 【Prompting】ChatGPT Prompt Engineering开发指南(4)