全卷积目标检测:FCOS

FCOS: Fully Convolutional One-Stage Object Detection

原文链接:https://arxiv.org/abs/1904.01355

代码链接:https://github.com/tianzhi0549/FCOS/

摘要

本文提出了一种完全卷积的一级目标检测器(FCOS),以模拟语义分割,以逐像素预测的方式解决目标检测问题。几乎所有最先进的目标探测器,如RetinaNet、SSD、YOLOv3和更快的R-CNN,都依赖于预定义的锚定盒。提出的探测器FCOS是锚箱自由,通过消除预先定义的锚箱集合,FCOS完全避免了训练过程中锚箱计算重叠等与锚箱相关的复杂计算。更重要的是,还避免了与锚箱相关的所有超参数,这些参数通常对最终的检测性能非常敏感。ResNeXt-64x4d-101的FCOS在单模型单尺度的AP中,仅采用后处理非最大抑制(NMS),就达到了44.7%,大大超过了以往的单级检测器,具有简单的优点。首次展示了一种更简单灵活的检测框架,以提高检测精度。希望所提出的FCOS框架可以作为许多其他实例级任务的简单而强大的替代方案。

算法流程

本文贡献

  1. 现在,检测已与许多其他FCN可解决的任务(如语义分割)统一在一起,使重用这些任务中的思想变得更加容易。

  2. 检测变得无提议(proposal)且无锚(anchor),这大大减少了设计参数的数量。设计参数通常需要进行急速调整,并涉及许多技巧以实现良好的性能。因此新检测框架使检测器(尤其是其训练)变得相当简单。

  3. 通过消除锚框,新型检测器完全避免了与锚框相关的复杂计算,例如IOU计算以及训练期间锚框与真值之间的匹配,从而加快了训练和测试的时间,并且减少了训练内存。

  4. 在没有奇淫技巧的情况下一阶段检测器中获得了最先进的结果。还表明,提出的FCOS可以在两阶段检测器中用作区域提议网络(RPN),并且比基于锚的RPN对应项实现明显更好的性能。鉴于更简单的无锚检测器的性能更好,鼓励社区重新考虑在物体检测中使用锚框的必要性,目前,锚框被视为事实上的检测标准。

  5. 提议的检测器可以立即扩展以解决其他视觉任务,而只需进行最小的修改,包括实例分割和关键点检测。这种新方法可以成为许多实例预测问题的新基准。

主要框架

FCOS的网络体系结构,其中C3,C4和C5表示encoder的特征图,P3至P7是用于最终预测的特征。H×W是要素图的高度和宽度。“ / s”(s = 8、16,…,128)是功能图到输入图像的水平下采样率。

结论

本文提出了一种无锚和无提案的单级探测器FCOS。实验表明,FCOS与目前流行的基于锚的单级检测器(RetinaNet、YOLO和SSD)相比具有优势,但设计复杂度要低得多。FCOS完全避免了与锚定盒相关的所有计算和超参数,并以每像素预测的方式解决目标检测问题,类似于语义分割等其他密集预测任务。FCOS还实现了一级探测器的实时性能。还证明了FCOS可以作为两级检测器FasterR-CNN中的rpn,并在很大程度上优于其rpn。考虑到其有效性和效率,希望FCOS可以作为当前主流的锚定探测器的一个强大而简单的替代品。FCOS可以扩展到解决许多其他即时级别的识别任务。

  1. 整个算法步骤如下,

·
步骤1. 对输入的图片进行预处理操作

·
步骤2. 搭建如图所示的网络架构,将输入数据送入backbone网络中获取输入数据的feature_map,在feature_map的每一点上面进行回归操作,进行网络训练获取网络模型

·
步骤3. 将预训练的网络模型应用到测试图片中,从特征金字塔的多个Head中获得预测的结果

·
步骤4. 使用NMS等后处理操作获得最终的结果

  1. 算法细节

对于基于anchor的检测器, 会在得到的feature
map的每一位置上使用预先定义好的anchors,而FCOS的改动点是对于特征图Fi上的每个位置,可以将其映射回输入图像,如果这个映射回原始输入的点在相应的真值的目标框范围之内,而且类别标签对应,将其作为训练的正样本块. 换句话说检测器直接将位置视为训练样本,而不是基于锚的检测器中的锚框,这与用于语义分割的FCN相同。接着,回归的目标是(l,t,r,b),即中心点与目标框的left、top、right和bottom之间的距离,具体如下图所示:

当然还有一种情况,就是一个location和多个box有关,作者考虑如果一个位置在多个box的内部,将其看左边一个模糊样本,针对这样样本文中采样的方法是直接选择择面积最小的边界框作为其回归目标。由于网络中FPN的存在,导致这样的模糊样本的数量大大减少.

3.损失函数

L_cls是凯明大佬提出的focal loss, L_reg是IOU损失函数,作者采用的GIOU.

4.中心度

虽然使用了FPN,但是FCOS和anchor-based
的检测器还是有些差距. 即会引入一些低质量的box,即远离目标中心的检测框,而Center-ness的作用就是用来很好的抑制这些低质量的box的产生,它的优点是比较简单。不需要引入其它的超参数。它的位置是在Head网络的分类网络分支下面。对于给定的一个位置的回归目标的l、t、r、b而言,center-ness目标的定义如下所示:

实验主要结果

1.消融实验

1.1 子模块对比


是否使用中心度的FCOS在COCO2014上的结果

1.2 SOTA算法对比

FCOS与其他最先进的两阶段或一阶段检测器(单模型和单标度结果)相比。在具有相同backbone的AP中,FCOS优于基于锚的同类RetinaNet
2.4%MAP。FCOS还以更低的设计复杂度胜过了最新的无锚点单阶段探测器CornerNet

的实验是在大规模检测基准COCO上进行的[16]。按照常规做法[15,14,24],使用COCO
trainval35k分割(115Kimages)进行训练和minival分割(5Kimages)作为消融研究的验证。通过将检测结果上传到评估服务器,将主要结果报告给测试开发人员分割(20K个图像)。

Conclusion

中心-nessvs.IoUNet:

蒋等人的中心和观点。“获取精确目标检测的定位证据”与不同的方法有着相似的目的(即抑制低质量预测)。IoUNet训练一个单独的网络来预测预测边界框和地面真值框之间的IoU分数。中心度作为探测器的一部分,只有一层,与检测联合训练,因此简单得多。此外,“中心度”不作为预测边界框的输入。相反,它直接访问位置预测高质量边界框的能力。

BPR和歧义分析:

不打算将“按特定IoU召回”与“按框内像素召回”进行比较。表1的主要目的是表明FCOS的召回上界与锚定视网膜的召回上界非常接近(98.4%对99.23%)。其他IoU阈值的BPR列为视网膜网官方代码中使用的阈值。此外,没有证据表明,fcos的回归目标很难训练,因为它们更分散。FCOS实际上产生了更精确的边界框。在训练过程中,通过选择最小面积的地面真值盒来处理同一FPN水平上的模糊问题。测试时,如果同一类的两个对象A和B有重叠,无论重叠中的位置预测的是哪一个对象,预测都是正确的,漏掉的预测只能由属于它的位置来预测。在A和B不属于同一类的情况下,重叠中的一个位置可能会预测A的类,但会回归B的边界框,这是一个错误。这就是为什么只计算不同类之间的模糊性。此外,如表8所示,这种模糊性似乎不会使FCOS比AP中的RetinaNet更糟。

附加融合研究:

如表8所示,香草型FCOS的性能与RetinaNet相当,设计简单,网络输出少9×9。此外,FCOS比单锚的RetinaNet更有效。对于testdev上的2%增益,除了表8中的组件带来的性能增益外,推测不同的训练细节(例如,学习率计划)可能会导致性能的轻微差异。

中心性视网膜网:

中心度不能在每个位置有多个锚定框的视网膜网络中直接使用,因为特征地图上的一个位置只有一个中心度得分,但不同锚定框的位置要求不同的“中心度”(注意,中心度对于正/负样本来说是“软”阈值)。对于基于锚的RetinaNet,锚箱和地面真值箱之间的IoU分数可以作为“中心度”的替代。

正样本与视网膜网重叠:

想强调的是,中心性只在测试时起作用。训练时,地面真相框中的所有位置都标记为正边界框。

全卷积目标检测:FCOS相关推荐

  1. 无NMS SOTA!DATE:端到端全卷积目标检测的双重分配

    作者 | 小书童 编辑 | 集智书童 点击下方卡片,关注"自动驾驶之心"公众号 ADAS巨卷干货,即可获取 点击进入→自动驾驶之心[目标检测]技术交流群 后台回复[2D检测综述]获 ...

  2. 综述二 | 最全的目标检测大综述(附下载链接)

    欢迎关注" 计算机视觉研究院 " 关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 计算机视觉研究院专栏 作 ...

  3. 综述二 | 2020年最全的目标检测大综述(附下载链接)

    欢迎关注" 计算机视觉研究院 " 计算机视觉研究院专栏 作者:Edison_G                  扫描二维码 关注我们 微信公众号 : 计算机视觉研究院 知乎专栏: ...

  4. 目标检测——FCOS的学习笔记

    1 模型结构 1.2 Neck组件--FPN FCOS在Neck部分使用了FPN来进行多尺度分支的目标检测:

  5. 目标检测FCOS的初步理解

    FCOS FCOS是一阶段anchor free目标检测算法,其主要的卖点为无锚.通过回归特征图上每个位置距离目标框的上下左右距离来实现目标检测.如果一个位置落在了多个目标框内,文中的方法是通过多尺度 ...

  6. 目标检测FCOS网络环境配置、训练自己的数据集

    文章:FCOS: Fully Convolutional One-Stage Object Detection 项目源码:https://github.com/tianzhi0549/FCOS 目录 ...

  7. CVPR目标检测与实例分割算法解析:FCOS(2019),Mask R-CNN(2019),PolarMask(2020)

    CVPR目标检测与实例分割算法解析:FCOS(2019),Mask R-CNN(2019),PolarMask(2020) 目标检测:FCOS(CVPR 2019) 目标检测算法FCOS(FCOS: ...

  8. onestage方法_FCOS : 找到诀窍了,anchor-free的one-stage目标检测算法也可以很准 | ICCV 2019...

    论文提出anchor-free和proposal-free的one-stage的目标检测算法FCOS,不再需要anchor相关的的超参数,在目前流行的逐像素(per-pixel)预测方法上进行目标检测 ...

  9. Anchor-free目标检测综述 -- Dense Prediction篇

      早期目标检测研究以anchor-based为主,设定初始anchor,预测anchor的修正值,分为two-stage目标检测与one-stage目标检测,分别以Faster R-CNN和SSD作 ...

最新文章

  1. 动态生成GridView时,加入DataKeyNames属性,回调时出错解决方法
  2. Rotate Image
  3. pytest接口测试之fixture传参数request
  4. 科技部:学术不端零容忍!违规人员所获职称、奖金等全部清退归零
  5. C#跳转语句 迭代法 穷举法
  6. 何谓 SQL 注入,这个漫画告诉你!
  7. 打开word时出现“在加载ThisDocument时出现错误”
  8. Bootstrap3 栅格系统之自定义mixin和变量
  9. hid在linux上的轮训时间,LINUX下USB1.1设备学习小记(6)_hid与input子系统(1)
  10. Spark源码分析之Task
  11. pytorch学习笔记(十一):pytorch实现多层感知机
  12. jmeter测试接口--form表单提交请求(解决请求传参为空的问题)
  13. 奥数题-求空间4点构成的四面体体积
  14. Windows 10 出现问题但您可以重试 MSA【closed】
  15. 会议选座位php,会议室座次(会议座位怎么排位)
  16. 文本搜索引擎Lucene之filed详解和代码测试
  17. 前端PDF文件转图片方法(你值得收藏)
  18. 不同类型的轴承受力简介
  19. MFC 初始化D3D
  20. 什么是Mybatis?Mybatis能干什么?Mybatis怎么配置?

热门文章

  1. 过滤Linux下不同大小的文件,linux查找当前目录下 M/G 大小的文件,删除Linux下指定大小的文件
  2. leetcode 567. Permutation in String 字符串的排列 滑动窗口法
  3. line_profile逐行代码分析
  4. 用TVM在硬件平台上部署深度学习工作负载的端到端 IR 堆栈
  5. TinyML-TVM是如何驯服Tiny的(下)
  6. 视频处理器为电池供电的设计提供4K视频编码
  7. 自然语言推理:使用注意力机制
  8. 编译器设计-代码生成
  9. Python:Scrapy实战项目手机App抓包爬虫
  10. float js 正则 验证_使用HTML和Vuejs进行表单验证