DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
目录
RetinaNet算法的简介(论文介绍)
0、实验结果
1、RetinaNet算法的特点及其贡献
RetinaNet算法的架构详解
RetinaNet算法的案例应用
相关文章
DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之RetinaNet:RetinaNet算法的架构详解
RetinaNet算法的简介(论文介绍)
RetinaNet源自论文Focal Loss for Dense Object Detection用于密集目标检测的焦损失。
Abstract
The highest accuracy object detectors to date are based on a two-stage approach popularized by R-CNN, where a classifier is applied to a sparse set of candidate object locations. In contrast, one-stage detectors that are applied over a regular, dense sampling of possible object locations have the potential to be faster and simpler, but have trailed the accuracy of two-stage detectors thus far. In this paper, we investigate why this is the case. We discover that the extreme foreground-background class imbalance encountered during training of dense detectors is the central cause. We propose to address this class imbalance by reshaping the standard cross entropy loss such that it down-weights the loss assigned to well-classified examples. Our novel Focal Loss focuses training on a sparse set of hard examples and prevents the vast number of easy negatives from overwhelming the detector during training. To evaluate the effectiveness of our loss, we design and train a simple dense detector we call RetinaNet. Our results show that when trained with the focal loss, RetinaNet is able to match the speed of previous one-stage detectors while surpassing the accuracy of all existing state-of-the-art two-stage detectors. Code is at: https://github.com/facebookresearch/Detectron.
迄今为止,精度最高的目标检测器是基于R-CNN推广的两阶段方法,其中分类器应用于稀疏的一组候选对象位置。相比之下,对可能的目标位置进行常规、密集采样的单级探测器有可能更快、更简单,但迄今仍落后于两级探测器的精度。在本文中,我们将探讨为什么会出现这种情况。我们发现,在密集探测器训练过程中所遇到的极端的前-后级不平衡是其主要原因。我们建议通过重新构造标准的交叉熵损失来解决这个类的不平衡,这样它就可以降低分配给分类良好的示例的损失。我们的新焦失聚焦训练集中在一组稀疏的硬例子上,防止大量的容易的负片在训练中压倒检测器。为了评估我们的损失的有效性,我们设计并训练了一个简单的高密度探测器,我们称之为RetinaNet。我们的结果表明,当使用聚焦损失训练时,视黄连能够在超过现有所有最先进的两级探测器精度的同时,与以前的单级探测器速度相匹配。代码如下:https://github.com/facebookresearch/Detectron。
Conclusion
In this work, we identify class imbalance as the primary obstacle preventing one-stage object detectors from surpassing top-performing, two-stage methods. To address this, we propose the focal loss which applies a modulating term to the cross entropy loss in order to focus learning on hard negative examples. Our approach is simple and highly effective. We demonstrate its efficacy by designing a fully convolutional one-stage detector and report extensive experimental analysis showing that it achieves stateof-the-art accuracy and speed. Source code is available at https://github.com/facebookresearch/Detectron [12].
在这项工作中,我们确定类不平衡是阻止单级对象检测器超越性能最好的两级方法的主要障碍。为了解决这个问题,我们提出了焦损失,它应用一个调制项的交叉熵损失,以便集中学习硬的负面例子。我们的方法简单而高效。我们设计了一种全卷积单级检测器来验证其有效性,并报告了大量的实验分析,结果表明它达到了最先进的精度和速度。源代码可从https://github.com/facebookresearch/Detectron[12]获得。
论文
Tsung-Yi Lin, Priya Goyal, Ross Girshick, KaimingHe, Piotr Dollár.
Focal Loss for Dense Object Detection. ICCV 2017.
https://arxiv.org/abs/1708.02002
0、实验结果
1、RetinaNet-50 VS RetinaNet-101
在COCO数据集上,作者提出的RetinaNet-101-800模型,可以达到37.8mAP可超过其他以前提出的单阶段检测方法,并且检测速度是198ms。
2、在COCO test-dev上——分别与单阶段、两阶段模型比较
目标检测单模型结果(边界框AP),与COCO test-dev的最新技术相比。RetinaNet可以达到40.8mAP,甚至可以超过两阶段方法。
注:该表展示了RetinaNet-101-800模型的结果,该模型经过尺度抖动训练。模型取得了最佳成绩,超越了其它单阶段和两阶段模型。
1、RetinaNet算法的特点及其贡献
- 找到妨碍单阶段目标检测器实现高准确度的主要原因:
-训练期间的前景-背景之间的类别不平衡 - 设计焦点损失(Focal Loss) 来解决这种类别不平衡问题,降低分配给分类良好例子的损失。
- 提出了单阶段RetinaNet网络架构,使用了焦点损失和多尺度特征金字塔。
RetinaNet算法的架构详解
更新……
DL之RetinaNet:RetinaNet算法的架构详解
RetinaNet算法的案例应用
更新……
DL之RetinaNet:基于RetinaNet算法(keras框架)利用resnet50_coco数据集(.h5文件)实现目标检测
DL之RetinaNet:RetinaNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略相关推荐
- DL之MaskR-CNN:Mask R-CNN算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之MaskR-CNN:Mask R-CNN算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 Mask R-CNN算法的简介(论文介绍) 0.实验结果 1.实例分割具有挑战性 2 ...
- DL之DilatedConvolutions:Dilated Convolutions(膨胀卷积/扩张卷积)算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之DilatedConvolutions:Dilated Convolutions(膨胀卷积/扩张卷积)算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 Dilated Con ...
- DL之ShuffleNetV2:ShuffleNetV2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之ShuffleNetV2:ShuffleNetV2算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 ShuffleNetV2算法的简介(论文介绍) 1.论文特点 2.基于硬件 ...
- DL之ShuffleNet:ShuffleNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之ShuffleNet:ShuffleNet算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 相关文章 DL之ShuffleNet:ShuffleNet算法的简介(论文介绍).架构详 ...
- DL之MobileNetV2:MobileNetV2算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之MobileNet V2:MobileNet V2算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 MobileNetV2算法的简介(论文介绍) MobileNet V2算法 ...
- DL之MobileNet:MobileNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之MobileNet:MobileNet算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 MobileNet算法的简介(论文介绍) 1.研究背景 2.传统的模型轻量化常用的方法 ...
- DL之SqueezeNet:SqueezeNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之SqueezeNet:SqueezeNet算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 SqueezeNet算法的简介(论文介绍) 1.轻量级的CNN架构优势 2.主要特 ...
- DL之DenseNet:DenseNet算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之DenseNet:DenseNet算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 DenseNet算法的简介(论文介绍) DenseNet算法的架构详解 3.DenseNe ...
- DL之ResNeXt:ResNeXt算法的简介(论文介绍)、架构详解、案例应用等配图集合之详细攻略
DL之ResNeXt:ResNeXt算法的简介(论文介绍).架构详解.案例应用等配图集合之详细攻略 目录 ResNeXt算法的简介(论文介绍) ResNeXt算法的架构详解 ResNeXt算法的案例应 ...
最新文章
- Python实例浅谈之三Python与C/C++相互调用
- python 机器学习_使用Python启动机器学习
- macos mysql 阿帕奇_Mac配置apache,mysql
- 安装 Python-Client
- iOS 常用公共方法
- 试试这个Excel知识测验,得分超过80分算你赢
- c语言(int)x 100,【单选题】下列语句执行后,变量a、c的值分别是( ) int x=182; 
int a,c;c=x/100;a=x%10;...
- iOS 文字样式处理总结(字体、前背景色、斜体、加粗、对齐、行间距、段间距、动态获取字符串label宽高等)...
- python 基本数据类型及其功能-2-字符串 重点命令
- C/C++文件操作经验总结
- 缩放浏览器不会换行_深入解析 EventLoop 和浏览器渲染、帧动画、空闲回调的关系...
- 超简单,一行代码获取百度文库内容,附python百度文库exe下载工具
- 最新阿里巴巴Java开发手册发布和下载
- [C++] [OpenGL] 基于GLFW+GLAD的OpenGL简单程序
- 卡西欧计算机怎么进制转换,casio计算器fx82es刷机实现十进制转其他进制的模式...
- MPEG4 笔记2(FTYP,MOOV,MVHD)
- 江汉大学计算机专业男女比,2018全国高校男女比例排行榜!
- 【智能合约系列003-以太坊安全之 Parity 第一次安全事件漏洞分析】
- python恶搞代码-Python里最搞怪的招式是啥 |初探生成器
- GD32F130之Timer13定时器