准确率,召回率,F值,机器学习分类问题的评价指标
下面简单列举几种常用的推荐系统评测指标:
1、准确率与召回率(Precision & Recall)
准确率和召回率是广泛用于信息检索和统计学分类领域的两个度量值,用来评价结果的质量。其中精度是检索出相关文档数与检索出的文档总数的比率,衡量的是检索系统的查准率;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。
一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了。
正确率、召回率和 F 值是在鱼龙混杂的环境中,选出目标的重要评价指标。不妨看看这些指标的定义先:
1. 正确率 = 提取出的正确信息条数 / 提取出的信息条数
2. 召回率 = 提取出的正确信息条数 / 样本中的信息条数
两者取值在0和1之间,数值越接近1,查准率或查全率就越高。
3. F值 = 正确率 * 召回率 * 2 / (正确率 + 召回率) (F 值即为正确率和召回率的调和平均值)
不妨举这样一个例子:某池塘有1400条鲤鱼,300只虾,300只鳖。现在以捕鲤鱼为目的。撒一大网,逮着了700条鲤鱼,200只虾,100只鳖。那么,这些指标分别如下:
正确率 = 700 / (700 + 200 + 100) = 70%
召回率 = 700 / 1400 = 50%
F值 = 70% * 50% * 2 / (70% + 50%) = 58.3%
不妨看看如果把池子里的所有的鲤鱼、虾和鳖都一网打尽,这些指标又有何变化:
正确率 = 1400 / (1400 + 300 + 300) = 70%
召回率 = 1400 / 1400 = 100%
F值 = 70% * 100% * 2 / (70% + 100%) = 82.35%
由此可见,正确率是评估捕获的成果中目标成果所占得比例;召回率,顾名思义,就是从关注领域中,召回目标类别的比例;而F值,则是综合这二者指标的评估指标,用于综合反映整体的指标。
当然希望检索结果Precision越高越好,同时Recall也越高越好,但事实上这两者在某些情况下有矛盾的。比如极端情况下,我们只搜索出了一个结果,且是准确的,那么Precision就是100%,但是Recall就很低;而如果我们把所有结果都返回,那么比如Recall是100%,但是Precision就会很低。因此在不同的场合中需要自己判断希望Precision比较高或是Recall比较高。如果是做实验研究,可以绘制Precision-Recall曲线来帮助分析。
2、综合评价指标(F-Measure)
P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。
F-Measure是Precision和Recall加权调和平均:
当参数α=1时,就是最常见的F1,也即
可知F1综合了P和R的结果,当F1较高时则能说明试验方法比较有效。
3、E值
E值表示查准率P和查全率R的加权平均值,当其中一个为0时,E值为1,其计算公式:
b越大,表示查准率的权重越大。
4、平均正确率(Average Precision, AP)
平均正确率表示不同查全率的点上的正确率的平均。
原文链接:http://blog.csdn.net/taohuaxinmu123/article/details/9833001
本文链接:http://bookshadow.com/weblog/2014/06/10/precision-recall-f-measure/
请尊重作者的劳动成果,转载请注明出处!书影博客保留对文章的所有权利。
你的预测 正例 : A B
你的预测 反例 : C D
准确率就是A/(A+B) 大白话就是“你的预测有多少是对的”
召回率就是A/(A+C) 大白话就是“正例里你的预测覆盖了多少”
作者:郭涛
链接:https://www.zhihu.com/question/19645541/answer/15536424
来源:知乎
著作权归作者所有,转载请联系作者获得授权。
准确率,召回率,F值,机器学习分类问题的评价指标相关推荐
- 准确率,召回率,F值,ROC,AUC
准确率,召回率,F值,ROC,AUC 责任编辑:词汇网 发表时间:2016-4-23 20:08:08 度量表 1.准确率 (presion)p=TPTP+FP 理解为你预测对的正例数占你预测正例总量 ...
- 准确率/召回率/精准率/F值_模型评价
准确率/召回率/精准率/F值 模型选择:对特定任务最优建模方法的选择或者对特定模型最佳参数的选择. 在训练数据集上运行模型(算法)并在测试数据集中测试效果, 迭代进行数据模型的修改, 这种方式被称为交 ...
- 【数据挖掘】K-NN 分类 ( 简介 | 分类概念 | K-NN 分类实例 | K-NN 分类准确度评估 | K-NN 分类结果评价指标 | 准确率 | 召回率 )
文章目录 I . K-NN 简介 II . K-NN 分类 III . K-NN 分类实例 IV . K-NN 分类 准确性评估方法 V . 保持法 VI . kkk-交叉确认法 VII . K-NN ...
- 准确率-召回率 - Precision-Recall
Precision-Recall 准确率-召回率 本文翻译自 Precision-Recall 更多翻译可以看 Scikit-learn 某部分的中文翻译 用于评估分类器输出质量的 准确率-召回率 指 ...
- 精确度/召回率/F1值/Micro-F1和Macro-F1的理解
如下图所示,假设有若干张图片,其中12张是狗的图片其余是猫的图片.现在利用程序去识别狗的图片,结果在识别出的8张图片中有5张是狗的图片,3张是猫的图片(属于误报). 图中,实心小圆代表狗的图片,虚心小 ...
- 机器学习分类算法常用评价指标
目录 1.准确率,召回率,精确率,F1-score,Fβ,ROC曲线,AUC值 2.宏平均(Macro-averaging)和微平均(Micro-averaging) 3.Python3 sklea ...
- 准确率 召回率_机器学习中F值(F-Measure)、准确率(Precision)、召回率(Recall)
在机器学习.数据挖掘.推荐系统完成建模之后,需要对模型的效果做评价. 业内目前常常采用的评价指标有准确率(Precision).召回率(Recall).F值(F-Measure)等,下图是不同机器学习 ...
- Precision(精确率,正确率), Recall(召回率,查全率),Accuracy(准确率),F-Measure(F值)...
一.指标概念 TP - 将正类预测为正类 FN - 将正类预测为负类, 类似假设检验中的第一类错误,拒真 FP - 将负类预测位正类,类似假设检验中的第二类错误,取伪 TN - 将负类预测位负类 假设 ...
- 我对于准确率---p值,召回率R值以及F值的理解
再互联网广告的推荐系统和反作弊的实践中经常遇到准确率,召回率,F值几个东西,刚入行的时候,我经常搞混,直到后来我逐渐明白了. 举个列子! 我们用一个模型去判断一段时间的作弊流量,假设该段时间的流量是1 ...
最新文章
- 《动手学数据分析》开源教程完整发布!
- 如何用node开发自己的cli工具
- Worktile荣获NextWorld 2020 年度优秀品牌奖
- java.lang.IllegalMonitorStateException: object not locked by thread before notify() 详解
- codeblock 显示 no such file(头文件)
- 洛谷 P2756 飞行员配对方案问题 (二分图/网络流,最佳匹配方案)
- shell字体颜色应用
- 35 点击全图后发现地图“不见了”
- 让我们回顾一下如何通过JDBC插入Clob或Blob
- maven配置项目根路径_Maven基本概念——根目录、项目创建、坐标
- python pil 模块将随机字符生成验证码
- JetBrains AppCode:用于 iOS/macOS 开发的智能 IDE
- iOS开发之Swift 4 JSON 解析指南
- sharepoint 2007 无法自动跳转到default.aspx
- 项目进度管理之三点估算法
- 布尔矩阵与自动推荐系统
- 一个创业小公司老板的管理经验
- luoguP1888 【三角函数】
- python让用户输入字符串_Python中接收用户的输入
- php时间戳,日期时间转换及使用大全
热门文章
- 硬纪元干货|镁客网萨向东:推动硬科技产业落地,助力传统产业升
- Notepad++ 开启「切分窗口」同时检视、比对两份文件
- 10.cadence.自定义焊盘的创建[原创]
- 高清接口芯片---gv7600、sii9135
- oracle 学习之:建视图时报ora-01031
- Android 虚拟机与真机调试配置
- 线程池之ThreadPool与ForkJoinPool
- ZooKeeper 集群为啥最好奇数台?
- 将一正整数序列{K1,K2,…,K9}重新排成一个新的序列。新序列中,比K1小的数都在K1的左面(后续的再向左存放),比K1大的数都在K1的右面(后续的再向右存放),从K1向右扫描
- Java消息中间件--JMS规范