[论文阅读] Learning Loss for Active Learning
论文地址:https://arxiv.org/abs/1905.03677
发表于:CVPR’19
Abstract
深度神经网络的性能随着更多的标注数据而提高。问题是用于标注的预算是有限的。解决这个问题的方法之一是主动学习,即模型要求人工对其认为不确定的数据进行标注。最近提出了多种方法来将主动学习应用于深度网络,但其中大多数方法要么是针对其目标任务设计的,要么是对大型网络来说计算效率低下。在本文中,我们提出了一种新的主动学习方法,这种方法简单并且与任务无关,还能有效地与深度网络一起工作。我们在目标网络上附加了一个小的带参数模块,名为"损失预测模块",并学习它来预测未标注的输入的目标损失。然后,这个模块可以提醒目标模型有可能产生错误预测的样本。这种方法是不分任务的,因为无论目标任务如何,网络都是从单一损失中学习的。我们通过图像分类、目标检测和人体姿态估计,用最近的网络架构严格验证了我们的方法。结果表明,我们的方法在这些任务中始终优于以前的方法。
I. Motivation
本文的思路非常有意思。对于主动学习来说,选择的是有价值的样本。而在理想情况下,最简单(并且也最有效)的方法就是拿预测结果与真值比较,如果模型把这个样本给预测错了,那自然该样本就有价值;问题在于实际上是没有标注的。
本文的做法是,既然我们要的只是预测结果与真实结果的差距,那么直接去预测这个差距本身(loss)就好,此即为标题所提到的"Learning Loss":
从更宏观的角度讲,以前我们得设计各种各样或启发式或非启发式的算法来判断一个样本的信息量,现在直接单独设计一个小的深度网络模块就可以搞定了。
接下来将介绍损失预测模块的设计。
II. Loss Prediction Module
单纯从结构上来看,“非常简单”,总的思想在于把模型中间层的特征给抽出来进行进一步处理。具体来说,对于中间特征图,利用全局平均池化(GAP)提取其核心特征,然后再通过FC进行学习,最后将各处理后的中间特征concat后经FC得到最终的预测分数。
真正的难点在于拿什么东西去监督这个损失预测模块。
III. Learning Loss
这一节我们讲上节提到的监督问题:
首先是"拿什么监督"。其实这也非常直观,因为我们训练的时候是有真实的Loss的,那么这个Loss就是真值。现在要解决的是最后一个问题,怎么去设计"Loss的损失函数"。
最简单的方式是上MSE。但是由于随着训练的进行,Loss的真值本身就会快速下降,导致梯度剧烈波动,此时模型学到的实际上是Loss的波动,因此不能直接用。具体来说,本文的loss如下:Lloss(lp^,lp)=max(0,−A(li,lj)⋅(l^i−l^j)+ξ)s.t. A(li,lj)={+1,if li>lj−1,otherwise \begin{aligned} L_{\mathrm{loss}}\left(\hat{l^{p}}, l^{p}\right)=\max \left(0,-\mathbb{A}\left(l_{i}, l_{j}\right) \cdot\left(\hat{l}_{i}-\hat{l}_{j}\right)+\xi\right) \\ \text { s.t. } \quad \mathbb{A}\left(l_{i}, l_{j}\right)= \begin{cases}+1, & \text { if } l_{i}>l_{j} \\ -1, & \text { otherwise }\end{cases} \end{aligned} Lloss(lp^,lp)=max(0,−A(li,lj)⋅(l^i−l^j)+ξ) s.t. A(li,lj)={+1,−1, if li>lj otherwise 其思路略微复杂,感兴趣的读者可以阅读原文相应部分进行理解。
[论文阅读] Learning Loss for Active Learning相关推荐
- [论文阅读笔记05]Deep Active Learning for Named Entity Recognition
一,题目 Deep Active Learning for Named Entity Recognition[NER任务的深度主动学习] 来源:ICLR 2018 原文:DEEP ACTIVE LEA ...
- 论文阅读: Channel Augmented Joint Learning for Visible-Infrared Recognition
论文阅读: Channel Augmented Joint Learning for Visible-Infrared Recognition code: https://gitee.com/mind ...
- 【论文阅读】Rethinking Spatiotemporal Feature Learning For Video Understanding
[论文阅读]Rethinking Spatiotemporal Feature Learning For Video Understanding 这是一篇google的论文,它和之前介绍的一篇face ...
- 【论文阅读】Decision Transformer: Reinforcement Learning via Sequence Modeling
[论文阅读]Decision Transformer: Reinforcement Learning via Sequence Modeling 1 本文解决了什么问题? 本文将强化学习抽象为一个序列 ...
- 【论文阅读】Gait Lateral Network: Learning Discriminative and Compact Representations for Gait Recognition
Gait Lateral Network: Learning Discriminative and Compact Representations for Gait Recognition 摘要: I ...
- 【论文阅读】Parametrized Deep Q-Networks Learning: RL with Discrete-Continuous Hybrid Action Space
[论文阅读-深度强化学习打王者荣耀]Parametrized Deep Q-Networks Learning: Reinforcement Learning with Discrete-Contin ...
- 【阅读】Variational Adversarial Active Learning
摘要: 通常情况下,由于标记成本高,限制了深度学习技术的应用领域,标记大量数据具有挑战性.主动学习(AL)通过在未标记池中查询需要注释的信息量最大的样本来解决这个问题.近年来研究的人工智能有两个很有前 ...
- 论文阅读:Self-supervised video representation learning with space-time cubic puzzles
论文名称:Self-supervised video representation learning with space-time cubic puzzles(2019 AAAI) 论文作者:Dah ...
- 论文阅读:Self-Supervised Video Representation Learning With Odd-One-Out Networks
目录 Contributions Method 1.Model 2.Three sampling strategies. 3.Video frame encoding. Results More Re ...
最新文章
- 《数据科学家养成手册》第九章信息论
- html5div上下滚动,html5 – 在另一个div上滚动div
- Python入门100题 | 第075题
- MAX10 ADC的一些基知识
- linux内核分析实验三,linux内核分析第三次实验
- Python学习笔记015——汉字编码
- 起底 Windows 35 年发展史
- Spring之RMI 远程方法调用 (Remote Method Invocation)
- linux下mail函数,Linux主机禁用Mail函数的解决办法
- 如何越狱苹果TV2在iOS 4.2使用PwnageTool
- Oracle——03索引
- 2021年中国皮卡产销量及市场竞争格局分析[图]
- 论文阅读笔记《Locality Preserving Matching》
- UNRAID挂载exFat格式的USB磁盘后续(自动挂载)
- c语言花卉销售与管理系统,网上花卉销售和管理系统毕业设计论文.doc
- pandas内置数据集_Pandas数据分析实战01——Abalone Data Set(鲍鱼数据集)
- C语言单目运算符和双目运算符、三目运算符
- 基于89C51单片机的433M射频遥控灯
- 京东健康、阿里健康纷纷扭亏:B端破局?
- MIT 6.S081 聊聊xv6中的文件系统(上)