显著性评价指标:眼注视点和目标检测指标(附参考论文)
文章目录
- 显著性评价指标
- 1. 眼注视点显著性
- Receiver Operating Characteristic curve(ROC)
- Area Under Curve(AUC)
- shuffled AUC(sAUC)
- Pearsons Linear Correlation Coefficient(CC)
- Normalized Scanpath Saliency(NSS)
- Kullback-Leibler Divergence (KLDiv)
- 2. 显著性目标检测
- Mean Absolute Error
- PR曲线
- F-measure
- 3. 如何得到fixation map
同步在个人博客: https://ericpengshuai.github.io/shen-du-xue-xi/582602e12ae2.html
显著性评价指标
显著性一般分为物体的显著性(saliency object detection)以及眼注视点( eye fixation saliency)的显著性,虽然两者都能展现吸引用户注意力的物体或者区域,但是侧重点不同。物体的显著性主要在于图像中各个物体轮廓的检测,具体来说就是目标检测,语义分割等等都涉及到物体的显著性;而眼注视点的显著性更多是关注用户观看的区域,和用户的观看行为有联系。由于用户在观看全景视频时,往往会关注视频中比较突出的部分,所以两者也有交集。
- 参考1:显著性目标检测
- 参考2:图像显著性检测算法的评价指标介绍
1. 眼注视点显著性
Receiver Operating Characteristic curve(ROC)
Area Under Curve(AUC)
Viewport-based Saliency Prediction提到这个不太好?
shuffled AUC(sAUC)
ROC 曲线又称受试者受试者工做特征曲线,以假正例率(False Positive Rate, FPR)为横轴,真正例率(True Positive Rate, TPR)为纵轴所组成的坐标图,以0~255不一样的阈值对预测的眼注视点显著图分类描点,从而绘制成曲线图。从直观上看,曲线越接近左上角,说明该算法检测性能越好;曲线下面积称之为AUC, AUC越大说明算法检测性能越好。因为AUC会受中心误差(center bias)的影响,研究者又提出更加鲁棒的sAUC评价指标。
Pearsons Linear Correlation Coefficient(CC)
CC ↑ \uparrow ↑是指皮尔逊相关系数,也是线性相关系数,用来评价预测的眼关注点显著图和参考图ground truth之间的线性相关性,CC越大说明该模型性能越好
协方差: C o v ( X , Y ) = Σ i = 1 n ( x i − E ( X ) ) ( y i − E ( Y ) ) n Cov(X,Y)=\frac{\Sigma_{i=1}^n(x_i-E(X))(y_i-E(Y))}{n} Cov(X,Y)=nΣi=1n(xi−E(X))(yi−E(Y))
感性的理解,如果数据杂乱,正负抵消,那么这个协方差就很小,就谈不上二者相关;如果数据很一致,想么协方差就负的比较多(负相关),要么就是正的比较多(正相关)
消除x和y的量差,引用皮尔逊相关系数: σ X , Y = C o v ( X , Y ) σ X ⋅ σ Y \sigma_{X,Y}=\frac{Cov(X,Y)}{\sigma_X·\sigma_Y} σX,Y=σX⋅σYCov(X,Y)
- 具体对于显著性而言,P和D分别代表saliency map和fixation map,被视为随机变量
C C ( P , Q ) = C o v ( P , Q ) σ ( P ) × σ ( Q ) CC(P,Q)=\frac{Cov(P,Q)}{\sigma(P)\times\sigma(Q)} CC(P,Q)=σ(P)×σ(Q)Cov(P,Q)
参考:https://blog.csdn.net/limiyudianzi/article/details/103437093
Normalized Scanpath Saliency(NSS)
NSS ↑ \uparrow ↑是指标准化扫描路径显着性,用来评价二者之间的差别值,NSS越大说明模型性能越好;
N S S ( P , Q ) = 1 N ⋅ Σ i ( P ‾ i × Q i ) NSS(P,Q)=\frac{1}{N}·\Sigma_i({\overline P_i}\times Q_i) NSS(P,Q)=N1⋅Σi(Pi×Qi)
其中P是saliency map,Q是fixation map的二值图,其中i是像素的下标,N是所有的像素值总数,N is the total number of fixated pixels, P ‾ = P − μ ( P ) σ ( P ) \overline P=\frac{P-\mu(P)}{\sigma(P)} P=σ(P)P−μ(P)
Kullback-Leibler Divergence (KLDiv)
KLDiv ↓ \downarrow ↓是指KL散度,Kullback-Leibler (KL) 是一种广泛使用的信息论度量,用于衡量两个概率分布之间的差异。KLDiv越小说明该模型检测性能越好。
K L ( P , Q ) = Σ i Q i l o g ( ϵ + Q i ϵ + P i ) KL(P,Q)=\Sigma_iQ_ilog(\epsilon+\frac{Q_i}{\epsilon+P_i}) KL(P,Q)=ΣiQilog(ϵ+ϵ+PiQi)
其中 ϵ \epsilon ϵ表示正则化常数,KL是非对称差异度量
具体再参考:https://blog.csdn.net/matrix_space/article/details/80550561
- 参考1:What Do Different Evaluation Metrics Tell Us About Saliency Models? IEEE TPAMI 2019
- 参考2:Deep Visual Attention Prediction IEEE TIP 2018
2. 显著性目标检测
Mean Absolute Error
MAE是指平均绝对值偏差,用于评价预测的显著图和参考图之间的差别,MAE越小说明该算法性能越好;
M A E ↓ = 1 W × H ∑ W x = 1 ∑ H y = 1 ∣ S ‾ ( x , y ) − G ‾ ( x , y ) ∣ MAE \downarrow = \dfrac{1}{W \times H}\sum{W}_{x=1}\sum{H}_{y=1}| \overline{S}(x,y)-\overline{G}(x,y) | MAE↓=W×H1∑Wx=1∑Hy=1∣S(x,y)−G(x,y)∣
PR曲线
Precise是差准率,Recall是查全率,将图像二值化之后计算:
P r e c i s i o n = T P T P + F P Precision=\frac{TP}{TP+FP} Precision=TP+FPTP 以及 R e c a l l = T P T P + F N Recall=\frac{TP}{TP+FN} Recall=TP+FNTP
将输出图片S进行二值化时,阈值选择为从0到255,每取一个阈值,即可对所有输出图S算得一组相对应的Precision值与Recall值。最后将所有图像在该阈值下的Precision值与Recall值分别求平均,最后将会得到256对P,R值,以Recall为横坐标,Precision为纵坐标绘制曲线图即可得到precision-recall (PR)曲线。
F-measure
查全率和查准率在非负权重β下的加权调和平均值(Weighted Harmonic Mean) ,计算公式如下:
F β ↑ = ( 1 + β 2 ) P r e c i s i o n ∗ R e c a l l β 2 P r e c i s i o n + R e c a l l F_\beta \uparrow =\frac{(1+\beta^2)Precision*Recall}{\beta^2Precision+Recall} Fβ↑=β2Precision+Recall(1+β2)Precision∗Recall
β 2 \beta^2 β2一般取值为0.3,即增加了Precision的权重值,认为查准率比查全率要重要些。因为当模型将输出图全部标为目标区域时,查全率Recall将等于100%,但是查准率Precision却很低。
- ROC (Receiver Operating Characteristic curve)
- AUC (Area Under Curve)
- MAP (Mean Average Precision)
- MAR (Mean Average Recall)
上述评价指标中,ROC与AUC相似于眼注视点任务,都是用不一样的阈值来肯定描点位置,而后将全部点链接起构成ROC曲线;
MAP是指平均精度率,MAR是指平均召回率,MAR和MAP越大说明算法性能越好。
3. 如何得到fixation map
计算以上这些指标的时候需要得到fixation map,好像可以考虑OpenCV里面的高斯模糊函数等。未完待续……
显著性评价指标:眼注视点和目标检测指标(附参考论文)相关推荐
- 目标检测指标TP、FP、TN、FN和Precision、Recall
目标检测指标TP.FP.TN.FN,Precision.Recall 1. IOU计算 在了解Precision(精确度).Recall(召回率之前我们需要先了解一下IOU(Intersection ...
- 52 个深度学习目标检测模型汇总,论文、源码一应俱全!(附链接)
来源:AI有道 本文约2000字,建议阅读5分钟 本文给你总结52个深度学习检测模型. 标签:计算机视觉 目标检测作为计算机视觉中的一个重要分支,近些年来随着神经网络理论研究的深入和硬件 GPU 算力 ...
- 52 个深度学习目标检测模型汇总,论文、源码一应俱全
本文约2000字,建议阅读5分钟 本文给你总结52个深度学习检测模型. 标签:计算机视觉 目标检测作为计算机视觉中的一个重要分支,近些年来随着神经网络理论研究的深入和硬件 GPU 算力的大幅度提升,一 ...
- 目前最全:52 个深度学习目标检测模型汇总,论文、源码一应俱全!
文章来源:https://zhuanlan.zhihu.com/p/115035951 作者:红色石头 目标检测作为计算机视觉中的一个重要分支,近些年来随着神经网络理论研究的深入和硬件 GPU 算力的 ...
- faster rcnn论文_52 个深度学习目标检测模型汇总,论文、源码一应俱全!(附链接)...
来源:AI有道 本文约2000字,建议阅读5分钟 本文给你总结52个深度学习检测模型. 标签:计算机视觉目标检测作为计算机视觉中的一个重要分支,近些年来随着神经网络理论研究的深入和硬件 GPU 算力的 ...
- 多模态深度学习综述总结 与 目标检测多模态融合领域论文推荐
文章目录 一.多模态学习定义及应用 二.模态表示 2.1 单模态表示 2.1.1 语句模态表示 2.1.2 视觉模态表示 2.1.3 声音模态表示(略) 2.2 多模态表示 2.2.1 模态共作用语义 ...
- 一文总结旋转目标检测全面综述:论文方法与代码
参考一文总结旋转目标检测全面综述:论文方法与代码 - 云+社区 - 腾讯云 首先放上DOTA数据集官网(http://captain.whu.edu.cn/DOTAweb/index.html),官网 ...
- CVPR21小目标检测:上下文和注意力机制提升小目标检测(附论文下载)
计算机视觉研究院专栏 作者:Edison_G CVPR21文章我们也分享了很多最佳的框架,在现实场景中,目标检测依然是最基础最热门的研究课题,尤其目前针对小目标的检测,更加吸引了更多的研究员和企业去研 ...
- 旋转目标检测 | 基于高斯Wasserstein距离损失的目标检测(附源代码)
计算机视觉研究院专栏 作者:Edison_G 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 源码获取|扫码回复"GWD"获取源码 边界不连续及其与 ...
最新文章
- Delphi调用java开发的WebService,传入参数出错
- js的事件循环机制:同步与异步任务(setTimeout,setInterval)宏任务,微任务(Promise,process.nextTick)...
- 利用计算机进行自动控制 控制对象主要指,计算机试卷10
- pytorch 模型可视化_PyTorch Tips(FLOPs计算/参数量/计算图可视化/相关性分析)
- C/C++得到系统启动项
- 【C++教程】01.基本概念
- 服务连接不上nacos集群_Rust 微服务实践: 连接 rust , nacos , spring cloud
- 尚硅谷为什么免费开放资源_什么是开放游戏? 新资源
- 微软公布 Visual Studio 2020 上半年路线图
- 线性回归的梯度下降和正规方程组求解
- 20190708 帆软报表
- Matlab训练BP神经网络的一般步骤
- 光流法+FAST特征点
- 计算机色彩学,浅析色彩原理
- LOJ#6198. 谢特【后缀自动机/数组 + Trie树查异或最大值 + Trie树合并】
- mongodb添加多条数据_mongodb一次能插入多少数据
- NS版暗黑破坏神3金手指开发教程(6)
- 基于神经网络的语音频带扩展
- Python特征分析- 相关性分析
- 河北工业大学计算机科学与软件,河北工业大学计算机科学与软件系介绍