平时在做指纹、人脸识别时,会用到一些评价算法性能评价指标。常见的当属以下几种指标:

  • 误识率(FAR,false acceptance rate)
  • 拒识率(FRR,false rejection rate)
  • ROC曲线(Receiver Operator characteristic Curve)

其中误识率与拒识率的就算公式如下:

说白一些,假定在指纹匹配识别过程中:
误识率(FAR)是指在标准指纹数据库上测试指纹识别算法时,不同指纹的匹配分数大于给定阈值,从而被认为是相同指纹的比例,简单地说就是“把不应该匹配的指纹当成匹配的指纹”的比例。
拒识率(FRR)是指在标准指纹数据库上测试指纹识别算法时,相同指纹的匹配分数低于给定阈值,从而被认为是不同指纹的比例,简单地说就是 “把应该相互匹配成功的指纹当成不能匹配的指纹”的比例。
举个例子
假定有110个人,每人的大拇指的8幅指纹图片共110*8=880幅的指纹数据库,即110类,每类8幅图片。当然,我们希望类内的任意两幅图片匹配成功,类间的任意图片匹配失败。现在我们让库中的每一幅图片除开它自身之外与其他的所有图片进行匹配,分别计算误识率,与拒识率。

  • 误识率(FAR):假定由于指纹识别算法性能的原因,把本应该匹配失败的判为匹配成功,若假定这种错误次数为1000次。理论情况下,来自同一个指纹的图像都成功匹配,次数为7*8*110=6160次,匹配的总次数,即880×(880-1)=773520次。匹配失败次数应为773520-6160=767360次。则误识率FAR为1000/767360*100%=0.13%。
  • 拒识率(FRR):假定由于指纹识别算法性能的原因,把本应该匹配成功的判为匹配失败,若这种错误次数为160次。则拒识率为160/6160=2.6%.

在有些文献中将误识率表达为FMR(False match rate),以及将拒识率表达为FNMR(False non-match rate),这和本文中所讲到的误识率与拒识率是同一个意思,即:

  • 误识率:FAR=FMR
  • 拒识率:FRR=FNMR

    可以用以下这图加深理解:

ROC曲线(Receiver Operator characteristic Curve)是一种已经被广泛接受的系统匹配算法测试指标,它是匹配分数阈值、误识率以及拒识率之间的一种关系。它反映了识别算法在不同阈值上,拒识率和误识率的平衡关系。
下图给出了ROC曲线,其中横坐标是拒识率,纵坐标是误识率,等错误率(EER Equal-Error Rate)是拒识率和误识率的一个平衡点,等错误率能够取到的值越低,表示算法的性能越好。

在另外的一些二分类模式识别,如人脸验证中,ROC 关注常关注两个指标:

其中
True Positive(真正, TP):将正类预测为正类数.
True Negative(真负 , TN):将负类预测为负类数.
False Positive(假正, FP):将负类预测为正类数 → 误报 (Type I error).
False Negative(假负 , FN):将正类预测为负类数 →漏报 (Type II error).

直观上,TPR 代表能将正例分对的概率,FPR 代表将负例错分为正例的概率。在 ROC 空间中,每个点的横坐标是 FPR,纵坐标是 TPR,这也就描绘了分类器在 TP(真正率)和 FP(假正率)间的 trade-off2。

参考:庞辽军著生物特征加密技术
Matlab图像处理:误拒率、误识率意义,计算等错误率的Matlab源码
机器学习性能评估指标

如何理解误识率(FAR)拒识率(FRR),TPR,FPR以及ROC曲线相关推荐

  1. 准确率、精确率、召回率、F1-score、TPR、FPR、ROC曲线、AUC

    1.分类评估方法 1.1精确率与召回率 1.3.分类评估报告api sklearn.metrics.classification_report(y_true, y_pred, labels=[], t ...

  2. 机器学习之分类性能度量指标 : ROC曲线、AUC值、正确率、召回率

    北京 | 高性能计算之GPU CUDA课程11月24-26日3天密集学习 快速带你晋级阅读全文> 在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度.错误率指的是在所有测试样例中错分 ...

  3. 【深度学习-机器学习】分类度量指标 : 正确率、召回率、灵敏度、特异度,ROC曲线、AUC等

    来源于博文:https://blog.csdn.net/tanzuozhev/article/details/79109311 在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度.错误率指 ...

  4. 分类性能度量指标:ROC曲线、AUC值、正确率、召回率、敏感度、特异度

    在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度.错误率指的是在所有测试样例中错分的样例比例.实际上,这样的度量错误掩盖了样例如何被分错的事实.在机器学习中,有一个普遍适用的称为混淆矩阵 ...

  5. 机器学习算法 03 —— 逻辑回归算法(精确率和召回率、ROC曲线和AUC指标、过采样和欠采样)

    文章目录 系列文章 逻辑回归 1 逻辑回归介绍 1.1 逻辑回归原理 输入 激活函数 1.2 损失以及优化 2 逻辑回归API介绍 3 案例:肿瘤良性恶性预测 4 分类模型的评估 4.1 分类评估方法 ...

  6. 视频|分类模型评估:精确率、召回率、ROC曲线、AUC与R语言生存分析时间依赖性ROC实现

    最近我们被客户要求撰写关于分类模型的研究报告,包括一些图形和统计输出. 本文将帮助您回答以下问题: ROC曲线是什么? 曲线下的面积是多少? 二元分类的决策阈值是多少? 分类模型可接受的 AUC值是多 ...

  7. 详解机器学习中 ROC曲线、AUC值、正确率、召回率

    文章目录 前言简介 医学图像识别二分类问题 ROC 曲线 如何画ROC曲线 AUC 前言简介 在分类任务中,人们总是喜欢基于错误率来衡量分类器任务的成功程度.错误率指的是在所有测试样例中错分的样例比例 ...

  8. 深度理解受试者工作特征(ROC)曲线

    目录 1.分类结果混淆矩阵 举例: 2.ROC 2.1.ROC曲线是从阈值选取角度出发来研究学习器泛化性能的有力工具 2.2.ROC曲线 2.3.主要作用: 2.4.优点: 举例1: 举例2: 3.A ...

  9. 理解逻辑回归中的ROC曲线和KS值

    1.回归和分类任务 分类和回归都属于监督学习(训练样本带有信息标记,利用已有的训练样本信息学习数据的规律预测未知的新样本标签) 分类预测的结果是离散的(例如预测明天天气-阴,晴,雨) 回归预测的任务是 ...

最新文章

  1. 用Micro:bit做浇灌系统
  2. git回退历史记录总结
  3. 开发日记-20190802 关键词 读书笔记《Linux 系统管理技术手册(第二版)》DAY 18
  4. [中英对照]How PCI Works | PCI工作原理
  5. HTML文本框中只能输入纯数字
  6. vue 日期前面加0_vue日期组件 支持vue1.0和2.0
  7. silverlight 使用IValueConverter 转换
  8. verilog实现步进电机脉冲分配器(三相六拍)基于Nexys4DDR开发板
  9. Polynomial(2019南昌邀请赛)(拉格朗日插值)
  10. 必须理解的分布式系统中雷同的集群技术及原理
  11. 漫话:如何给女朋友解释华为鸿蒙OS是怎样实现跨平台的?
  12. (转) Arcgis for js之WKT和GEOMETRY的相互转换
  13. Atitit uke证件编码规范与范本
  14. 大白菜无法打开计算机硬盘,关于大白菜pe一键装机找不到硬盘怎么办的问题解答 情况一:分区不合理 解决方案:使用大白菜diskgenius工具...
  15. 网站跳出率是什么?如何降低网站跳出率?
  16. java 支付宝预下单失败,系统异常,预下单状态未知!!! connect timed out
  17. mysql数据库授权,备份,恢复_wuli大世界_新浪博客
  18. 智能指针的标准之争:Boost vs. Loki (转)
  19. 洛谷P3975 弦论
  20. Too Good to Be Safe: Tricking Lane Detection in Autonomous Driving with Crafted Perturbations 论文报告

热门文章

  1. pythonxy官网下载_GitHub - holif/codeparkshare: Python初学者(零基础学习Python、Python入门)书籍、视频、资料、社区推荐...
  2. Mysql之mysql基础篇
  3. 人物专访 | 《复仇者联盟》特效工作室的小姐姐告诉你如何建立自己的工作室
  4. vue身份证正则校验
  5. uImage和zImage的关系
  6. html语言随机数,产生随机数的常用方法
  7. 过劳死,IT民工你伤不起
  8. python教程案例分析_Python实用教程(含典型案例视频分析)
  9. 鲸鱼剧本杀盒子刷机a905x3刷机
  10. mysql圆的范围_使用MySQL空间扩展在圆内选择点