一、背景

目标检测可分为两阶段和一阶段算法两种,两种类别各有优缺点。

两阶段算法包含候选区域生成阶段和分类阶段,区域生成阶段负责生成候选区域,并过滤掉大部分的背景区域,虽然对训练效率大打折扣,但前景区域提取的相对准确,且前景和背景比例基本协调,精度因此一般很高。

一阶段算法省去了候选区域生成阶段,因此效率很高,但是基于滑动窗口的方式生成了大量的候选区域,导致背景区域数量显著多于前景区域背景区域相对前景区域更容易区分,在大量容易区分的背景区域上进行模型训练无法捕捉到有效的分类信号,大量容易区分的背景区域会轻易主导训练过程,包含目标对象的区域(前景区域)反而不容易准确分类和定位。

二、传统解决方法

为了解决目标检测中的类别不平衡问题, 已经提出了很多有效的方法:

1、启发式采样,前景和背景1 : 3的比例进行采样;

2、OHEM,在线困难样本挖掘;

3、类别加权,比如类别A和B的样本比例为1 : 10,则A类别样本的权重都是0.9,B类别样本的权重都是0.1;

传统方法一定程度上可以缓解类别不平衡问题,但当存在大量易分类样本时,这些样本还是会主导训练过程,导致不易分类样本很少有机会得到模型的关注。对于类别加权,仅在类别尺度上进行加权,同一类别下的样本,其分类无论难易,仍然是一视同仁。

三、Focal Loss

Focal Loss,见名知意,对不易分类样本和易分类样本进行了区别对待,把损失的焦点放在了不易分类样本上,降低对易分类样本的权重,仅对交叉熵做了些微改动,形式化如下:

 是超参数,设置的越大,难易分类样本的区别对待程度会越明显,设为 0 则退化成交叉熵损失。以  为例,如样本的分类置信度较高,比如0.9,则权重趋向于0.01,反之,如果分类置信度很低,比如 0.1,则权重变为 0.81。

四、类别加权Focal Loss

结合类别加权法,对每个样本,根据其所属类别,进行类别再加权,这样一来,类别层面和样本层面都在考量之内,效果一般会更好。形式化如下:

其中, 是样本的类别权重,同一类别的样本的类别权重相同。

五、从反向传播来理解Focal Loss

可以尝试着从反向传播的角度来理解Focal Loss深层的运作原理,Focal Loss增加了不易分类样本的权重,这些样本对模型在参数空间的探索上产生了一定影响,通过下图来理解该问题。

图 1、神经网络的局部示意图

图1是神经网络的某个局部, 层的两个神经元  分别和  层的神经元  相连,蓝色箭头对应的权重为 ,红色箭头对应的权重为 不同神经元对不同的输入信号有不同的激活输出例如在猫狗分类任务中,有些神经元对猫的胡须特征有着较大的激活,而有些神经元对狗的鼻子特征有着较大的激活。设  和  表示第  层的两个激活输出,设mini-batch大小为 ,则根据反向传播,关于  和  的梯度有:

其中, 表示第  个样本在  上产生的误差。关于这部分的公式,可参考: 对误差反向传播的理解和学习。

如果样本权重发生变化,根据反向传播,不同的  大小会有较大的区别。放在目标检测上来说,如果  对背景特征有着较强的激活,而对前景特征有着较弱的激活, 刚好相反,若把容易区分的背景样本降低权重,提高不易分样本的权重,那么  会较  小的多,这样一来,模型便向着有利于区分难以分类的样本的参数子空间进行搜索,而不会一个劲的向着没有意义的方向上进行参数搜索。

Focal Loss 简介相关推荐

  1. Focal Loss升级:让Focal Loss动态化,类别极端不平衡也可以轻松解决

    学习群|扫码在主页获取加入方式 计算机视觉研究院专栏 作者:Edison_G 尽管最近长尾目标检测取得了成功,但几乎所有的长尾目标检测器都是基于两阶段范式开发的.在实践中,一阶段检测器在行业中更为普遍 ...

  2. Focal Loss升级 E-Focal Loss让Focal Loss动态化,类别极端不平衡也得到提升

    尽管最近长尾目标检测取得了成功,但几乎所有的长尾目标检测器都是基于两阶段范式开发的.在实践中,一阶段检测器在行业中更为普遍,因为它们有一个简单和快速的Pipeline,易于部署.然而,在长尾情况下,这 ...

  3. Loss——Focal Loss

    Loss--Focal Loss 一.简介 Focal Loss论文地址:https://arxiv.org/pdf/1708.02002.pdf Focal Loss是基于Cross Entropy ...

  4. 【图像分类损失】PolyLoss:一个优于 Cross-entropy loss和Focal loss的分类损失

    论文题目:<PolyLoss: A Polynomial Expansion Perspective of Classification Loss Functions> 论文地址:http ...

  5. RetinaNet论文详解Focal Loss for Dense Object Detection

    一.论文相关信息 ​ 1.论文题目:Focal Loss for Dense Object Detection ​ 2.发表时间:2017 ​ 3.文献地址:https://arxiv.org/pdf ...

  6. Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection

    论文地址:https://arxiv.org/abs/2006.04388 论文代码:https://github.com/implus/GFocal 一阶段检测器基本将目标检测定义为密集的分类和定位 ...

  7. Focal Loss升级!EFL:用于密集长尾目标检测的均衡Focal Loss

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 转载自:集智书童 Equalized Focal Loss for Dense Long-Tailed Ob ...

  8. 论文翻译-SAFL A Self-Attention Scene Text Recognizer with Focal Loss

    论文翻译-SAFL A Self-Attention Scene Text Recognizer with Focal Loss 原文地址:https://ieeexplore.ieee.org/do ...

  9. Focal Loss 论文理解及公式推导

    原文:Focal Loss 论文理解及公式推导 - AIUAI 题目: Focal Loss for Dense Object Detection - ICCV2017 作者: Tsung-Yi, L ...

最新文章

  1. OBS源代码阅读笔记
  2. Google Palette算法详解以及OC化
  3. ffmpeg4编解码例子
  4. 单片机串口输入c语言,单片机通过串口与电脑连接通信C语言源代码
  5. 深度学习解决多视图非线性数据特征融合问题
  6. 家在深圳接入云信,让用户在社交中感受到“家在深圳”
  7. AutoLayout(自动布局)详细教程
  8. 23 WM配置-策略-入库策略3-定义现有库存的附加策略I(Addition to Existing Stock Strategy)
  9. 十大经典排序算法2(Python版本)
  10. C#调用C++的DLL搜集整理的所有数据类型转换方式
  11. [Reinforcement Learning] Model-Free Prediction
  12. 中挪动正请求第三方支出牌照竖立支出公司
  13. TIPS:java 类的全局变量与静态变量
  14. 狗猫分类数据集划分详解
  15. 大智慧有Linux炒股软件,UOS(Deepin Linux)安装炒股软件(通达信大智慧等)的方法...
  16. typecho+handsome美化
  17. 罗格斯的计算机科学博士奖学金,罗格斯大学计算机工程博士专业排名全网最新深刻分析...
  18. ATH9K Driver Learning Part VII: Transmission Tasklet and Interrupts
  19. 乐玩插件和大漠插件哪个好_哪个PS后期插件功能最多最强?风光人像全能修图王!一个顶五个...
  20. Parameter 0 of method selGoods in com.jm.provider.service.admin.GoodsServerImpl required a bean of t

热门文章

  1. ios8 系统定位问题
  2. python画皮卡丘
  3. 正向/逆向最大匹配法分词实现
  4. 小黑公司团建吃烤肉肉啦,mac m1死活安装不上hbase,用拯救者一下就安上啦的leetcode之旅:865. 具有所有最深节点的最小子树
  5. 十大编程语言,每一个都不容易学,但每一个又很有用,黑客必备
  6. 体验管理,猪飞不起来的风口
  7. 微分方程求通解推导-----专升本
  8. WinScp 安装连接使用
  9. 【计算机组成原理】| 第九章 控制单元的功能 | 程序,指令,机器指令,微程序,微指令,微命令,微操作的关系
  10. 三分频电路Verilog设计