本文者:李翔

https://zhuanlan.zhihu.com/p/147691786

本文仅供学习参考,如有侵权,请联系删除!

论文地址:https://arxiv.org/abs/2006.04388

源码和预训练模型地址:

https://github.com/implus/GFocal

效果:良心技术,别问,问就是无cost涨点

一句话总结:基于任意one-stage 检测器上,调整框本身与框质量估计的表示,同时用泛化版本的GFocal Loss训练该改进的表示,无cost涨点(一般1个点出头)AP

------------------------------------------------------

这个工作核心是围绕“表示”的改进来的,也就是大家所熟知的“representation”这个词。这里的表示具体是指检测器最终的输出,也就是head末端的物理对象,目前比较强力的one-stage anchor-free的检测器(以FCOS,ATSS为代表)基本会包含3个表示:

1. 分类表示

2. 检测框表示

3. 检测框的质量估计(在FCOS/ATSS中,目前采用centerness,当然也有一些其他类似的工作会采用IoU,这些score基本都在0~1之间)

三个表示一般情况下如图所示:

三个表示

那么要改进表示一定意味着现有的表示或多或少有那么一些问题。事实上,我们具体观察到了下面两个主要的问题:

问题一:classification score 和 IoU/centerness score 训练测试不一致。

这个不一致主要体现在两个方面:

1) 用法不一致。训练的时候,分类和质量估计各自训记几个儿的,但测试的时候却又是乘在一起作为NMS score排序的依据,这个操作显然没有end-to-end,必然存在一定的gap。

2) 对象不一致。借助Focal Loss的力量,分类分支能够使得少量的正样本和大量的负样本一起成功训练,但是质量估计通常就只针对正样本训练。那么,对于one-stage的检测器而言,在做NMS score排序的时候,所有的样本都会将分类score和质量预测score相乘用于排序,那么必然会存在一部分分数较低的“负样本”的质量预测是没有在训练过程中有监督信号的,有就是说对于大量可能的负样本,他们的质量预测是一个未定义行为。这就很有可能引发这么一个情况:一个分类score相对低的真正的负样本,由于预测了一个不可信的极高的质量score,而导致它可能排到一个真正的正样本(分类score不够高且质量score相对低)的前面。问题一如图所示:

不一致啊不一致, End-to-end 表示很难受

问题二:bbox regression 采用的表示不够灵活,没有办法建模复杂场景下的uncertainty。

问题二比较好理解,在复杂场景中,边界框的表示具有很强的不确定性,而现有的框回归本质都是建模了非常单一的狄拉克分布,非常不flexible。我们希望用一种general的分布去建模边界框的表示。问题二如图所示(比如被水模糊掉的滑板,以及严重遮挡的大象):

模糊及界定不清晰的边界

那么有了这些问题,我们自然可以提出一些方案来一定程度上解决他们:

1) 对于第一个问题,为了保证training和test一致,同时还能够兼顾分类score和质量预测score都能够训练到所有的正负样本,那么一个方案呼之欲出:就是将两者的表示进行联合。这个合并也非常有意思,从物理上来讲,我们依然还是保留分类的向量,但是对应类别位置的置信度的物理含义不再是分类的score,而是改为质量预测的score。这样就做到了两者的联合表示,同时,暂时不考虑优化的问题,我们就有可能完美地解决掉第一个问题。

2) 对于第二个问题,我们选择直接回归一个任意分布来建模框的表示。当然,在连续域上回归是不可能的,所以可以用离散化的方式,通过softmax来实现即可。这里面涉及到如何从狄拉克分布的积分形式推导到一般分布的积分形式来表示框,详情可以参考原论文。

Ok,方案都出来了还算比较靠谱,但是问题又来了:怎么优化他们呢?

这个时候就要派上Generalized Focal Loss出马了。我们知道之前Focal Loss是为one-stage的检测器的分类分支服务的,它支持0或者1这样的离散类别label。然而,对于我们的分类-质量联合表示,label却变成了0~1之间的连续值。我们既要保证Focal Loss此前的平衡正负、难易样本的特性,又需要让其支持连续数值的监督,自然而然就引出了我们对Focal Loss在连续label上的拓展形式之一,我们称为Quality Focal Loss (QFL),具体地,它将原来的Focal Loss从:

魔改为:

其中y为0~1的质量标签,sigma为预测。注意QFL的全局最小解即是sigma = y。这样交叉熵部分变为完整的交叉熵,同时调节因子变为距离绝对值的幂次函数。和Focal Loss类似,我们实验中发现一般取eta = 2为最优。

对于任意分布来建模框的表示,它可以用积分形式嵌入到任意已有的和框回归相关的损失函数上,例如最近比较流行的GIoU Loss。这个实际上也就够了,不过涨点不是很明显,我们又仔细分析了一下,发现如果分布过于任意,网络学习的效率可能会不高,原因是一个积分目标可能对应了无穷多种分布模式。如下图所示:

各种各样的表示

考虑到真实的分布通常不会距离标注的位置太远,所以我们又额外加了个loss,希望网络能够快速地聚焦到标注位置附近的数值,使得他们概率尽可能大。基于此,我们取了个名字叫Distribution Focal Loss (DFL):

其形式上与QFL的右半部分很类似,含义是以类似交叉熵的形式去优化与标签y最接近的一左一右两个位置的概率,从而让网络快速地聚焦到目标位置的邻近区域的分布中去。

最后,QFL和DFL其实可以统一地表示为GFL,我们将其称之为Generalized Focal Loss,同时也是为了方便指代,其具体形式如下:

我们在附录中也给出了:Focal Loss,包括本文提出的QFL和DFL都可以看做为GFL中的变量取到特定值的特例。

最后是实验。Ablation Study就不展开了,重点的结论即是:

1. 这两个方法,即QFL和DFL的作用是正交的,他们的增益互不影响,所以结合使用更香(我们统一称之为GFL)。我们在基于Resnet50的backbone的ATSS(CVPR20)的baseline上1x训练无multi-scale直接基本无cost地提升了一个点,在COCO validation上从39.2 提到了40.2 AP。实际上QFL还省掉了原来ATSS的centerness那个分支,不过DFL因为引入分布表示需要多回归一些变量,所以一来一去inference的时间基本上也没什么变化。

2. 在2x + multi-scale的训练模式下,在COCO test-dev上,Resnet50 backbone用GFL一把干到了43.1 AP,这是一个非常可观的性能。同时,基于ResNeXt-101-32x4d-DCN backbone,能够有48.2的AP且在2080Ti单GPU上有10FPS的测速,还是相当不错的speed-accuracy trade-off了。

放一些重点的实验插图:

最后,附录里面其实有不少彩蛋。

第一个彩蛋是关于IoU和centerness的讨论。在对比实验中,我们发现IoU作为框预测质量的度量会始终比centerness更优。于是我们又具体深入分析了一些原因,发现的确从原理上来讲,IoU可能作为质量的估计更加合适。具体原因如下:

1) IoU本身就是最终metric的衡量标准,所以用来做质量估计和排序是非常自然的。

2) centerness有一些不可避免的缺陷,比如对于stride=8的FPN的特征层(也就是P3),会存在一些小物体他们的centerness label极度小甚至接近于0,如下图所示:

而IoU就会相对好很多。我们也统计了一下两者作为label的分布情况,如图:

这意味着IoU的label相对都较大,而centerness的label相对都较小,同时还有非常非常小的。可以想见,如果有一些正样本的centerness的label本身就很小,那么他们最后在做NMS排序的时候,乘上一个很小的数(假设网络学到位了),那么就很容易排到很后面,那自然性能就不容易上去了。所以,综合各种实验以及上述的分析,个人认为centerness可能只是一个中间产物(当然,其在FCOS中提出时的创新性还是比较valuable的),最终历史的发展轨迹还是要收敛到IoU来。

第二个彩蛋是分布式表示的一些有趣的观察。我们发现有一些分布式表示学到了多个峰。比如伞这个物体,它的伞柄被椅子严重遮挡。如果我们不看伞柄,那么可以按照白色框(gt)来定位伞,但如果我们算上伞柄,我们又可以用绿色框(预测)来定位伞。在分布上,它也的确呈现一个双峰的模式(bottom),它的两个峰的概率会集中在底部的绿线和白线的两个位置。这个观察还是相当有趣的。这可能带来一个妙用,就是我们可以通过分布shape的情况去找哪些图片可能有界定很模糊的边界,从而再进行一些标注的refine或一致性的检查等等。颇有一种Learn From Data,再反哺Data的感觉。

最后谈谈检测这块的两个可能的大趋势。太明显了,一个是kaiming引领的unsupervised learning,妥妥撸起袖子干一个检测友好的unsupervised pretrain model especially for object detection;还有一个是FAIR最近火爆的DETR,其实去掉NMS这个事情今年也一直在弄,搞的思路一直不太对,也没搞出啥名堂,还是DETR花500个epoch引领了一下这个潮流,指了个门道,当然方向有了,具体走成啥样,还是八仙过海,各显神通啦~

NeurIPS 2020 | Focal Loss改进版来了!GFocal Loss:良心技术,无Cost涨点!相关推荐

  1. NeurIPS 2020 | 数据类别不平衡/长尾分布?不妨利用半监督或自监督学习

    作者:Yuzhe Yang 链接:https://zhuanlan.zhihu.com/p/259710601 本文转载自知乎,作者已授权,未经许可请勿二次转载 来给大家介绍一下我们的最新工作,目前已 ...

  2. NeurIPS 2020论文接收列表公布,智源研究院35篇入围

    近日,机器学习和计算神经科学领域国际顶会NeurIPS 2020论文接收列表公布,共接收论文1899篇,包含Oral论文105篇,Spotlight论文280篇. 此次接收列表中,智源研究院共有35篇 ...

  3. 本周阅读清单:从NeurIPS 2020到EMNLP 2020

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考.在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果.如果你也希望让自己的科研成果被更多人看到, ...

  4. 对比学习:充分利用有限的医学标注数据 |NeurIPS 2020

    论文导读 " 为了充分利用三维医学图像局部区域之间以及连续二维图像序列全局之间的相似性,提出了基于对比学习的全局和局部信息学习方法.实验证明,该方法对模型进行语义分割性能提升显著." ...

  5. [ NeurIPS 2020 ] 一叶知秋 —— 基于“单目标域样本”的领域自适应方法

    [ NeurIPS 2020 ] 一叶知秋 -- 基于"单目标域样本"的领域自适应方法 引言 华中科技大学.浙江大学.百度研究院新作--基于"单目标域样本"的无 ...

  6. 7 Papers Radios | NeurIPS 2020最佳论文;全卷积网络实现E2E目标检测

    机器之心 & ArXiv Weekly Radiostation 参与:杜伟.楚航.罗若天 本周的重要研究包括 NeurIPS 2020最佳论文以及抛弃 Transformer 使用全卷积网络 ...

  7. GPT-3获NeurIPS 2020最佳论文奖

    晓查 发自 凹非寺  量子位 报道 | 公众号 QbitAI NeurIPS 2020今天正式召开,今年共有1900篇论文被接收,创下历史新高. 今天早晨,大会评委会公布了获得最高荣誉的论文名单: 包 ...

  8. NeurIPS 2020 Oral 论文讲解

    作者丨康国梁@知乎 来源丨https://zhuanlan.zhihu.com/p/312443905 编辑丨极市平台 论文题目:Pixel-Level Cycle Association: A Ne ...

  9. NeurIPS 2020 :新一代算法“鉴黄师”诞生,中科院计算所研究生一作

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 不知道那位不愿意透露姓名的唐马儒先生,现在看太阳还是不是绿色的? 第一代网络鉴黄师,牺牲小我,造福了千万家. 撇开玩笑不谈,维持健康良好的 ...

最新文章

  1. iOS infoplist 权限设置
  2. python教学网站-自学python有什么网站
  3. python英文单词-python常用150个英文单词
  4. vue+Element-ui实现分页效果
  5. gradle spring_使用Gradle的简单Spring MVC Web应用程序
  6. 就要有鹤立鸡群的HTML5资本
  7. HDUOJ 不容易系列之(4)——考新郎
  8. 开源的数据可视化JavaScript图表库:ECharts
  9. 周立功ZCANPRO基础使用教程
  10. XP系统计算机桌面图标不见,xp系统桌面计算机快捷图标不见了的设置方法
  11. Vue项目-手机app瑞幸咖啡详解(全网最细) 从脚手架搭建到前后端数据交互(二)
  12. 【ESD专题】2.ESD防护及保护器件(电介质和压敏电阻)
  13. 组合逻辑电路的设计:竞争和险象
  14. WPF工控组态软件之管道和冷却风扇开发
  15. 22、R329刷机受阻和测试仿真环境demo
  16. $Self~Problem~C~:~Samsara$
  17. 厚涂要用ps软件么?什么是厚涂技法
  18. 3年内被辞退5次,35岁程序员该何去何从?太厉害了!
  19. Personalized Edge Intelligence via Federated Self-Knowledge Distillation, TPDS 2023
  20. MS7024 RGB/DVP转CVBS

热门文章

  1. LeetCode实战:相交链表
  2. 基于Matlab的遗传算法优化BP神经网络在非线性函数拟合中的应用
  3. 【数据结构】顺序表的应用(1)(C语言)
  4. mysql实训报告_mysql数据库技术》实验报告.doc
  5. 重磅!深度学习知识总结和调参技巧开放下载了
  6. 低代码、RPA 和 AI,有什么区别
  7. 升级版APDrawing,人脸照秒变线条肖像画,细节呈现惊人
  8. 中文版开源!这或许是最经典的Python编程教材
  9. TF 2.1.0-rc2发布,2020年停止支持Python 2
  10. COCO 2019挑战赛,旷视研究院拿下三项计算机识别冠军 | ICCV 2019