作者 | 旷视研究院

【CSDN编者按】本文是旷视 CVPR 2020的被收录论文解读第。它提出用于深度特征学习的Circle Loss,从相似性对优化角度正式统一了两种基本学习范式(分类学习和样本对学习)下的损失函数。通过进一步泛化,Circle Loss 获得了更灵活的优化途径及更明确的收敛目标,从而提高所学特征的鉴别能力;它使用同一个公式,在两种基本学习范式,三项特征学习任务(人脸识别,行人再识别,细粒度图像检索),十个数据集上取得了极具竞争力的表现。

深度特征学习有两种基本范式,分别是使用类标签和使用正负样本对标签进行学习。使用类标签时,一般需要用分类损失函数(比如 softmax + cross entropy)优化样本和权重向量之间的相似度;使用样本对标签时,通常用度量损失函数(比如 triplet 损失)来优化样本之间的相似度。

这两种学习方法之间并无本质区别,其目标都是最大化类内相似度()和最小化类间相似度()。从这个角度看,很多常用的损失函数(如 triplet 损失、softmax 损失及其变体)有着相似的优化模式:

它们会将  和  组合成相似度对 (similarity pair)来优化,并试图减小( )。在(  )中,增大  等效于降低  。这种对称式的优化方法容易出现以下两个问题,如图 1 (a) 所示。

降低 () 的常用优化方法与新提出的降低 (  ) 的优化方法之间的对比

优化缺乏灵活性

 和  上的惩罚力度是严格相等的。换而言之,给定指定的损失函数,在  和  上的梯度的幅度总是一样的。例如图 1(a)中所示的 A 点,它的  已经很小了,可是,  会不断受到较大梯度。这样现象低效且不合理。

收敛状态不明确

优化 (  ) 得到的决策边界为  (m 是余量)。这个决策边界平行于  维持边界上任意两个点(比如  和  )的对应难度相等,这种决策边界允许模棱两可的收敛状态。比如,  和  都满足了  的目标,可是比较二者时,会发现二者之间的分离量只有 0.1,从而降低了特征空间的可分性。

简介

为此,旷视研究院仅仅做了一项非常简单的改变,把 (  ) 泛化为 (  ),从而允许  和  能以各自不同的步调学习。

具体来讲,把  和  分别实现为  和  各自的线性函数,使学习速度与优化状态相适应。相似度分数偏离最优值越远,加权因子就越大。如此优化得到的决策边界为  ,能够证明这个分界面是 (  ) 空间中的一段圆弧,因此,这一新提出的损失函数称之为 Circle Loss,即圆损失函数。

由图 1(a) 可知,降低 (  ) 容易导致优化不灵活(A、B、C 相较于   和   的梯度都相等)以及收敛状态不明确(决策边界上的 T 和 T' 都可接受);而在 Circle Loss 所对应的图 1 (b) 中,减小 (  ) 会动态调整其在  和 上的梯度,由此能使优化过程更加灵活。

对于状态 A,它的  很小(而  已经足够小),因此其重点是增大  ;对于 B,它的  很大 (而  已经足够大),因此其重点是降低  。此外,本文还发现,圆形决策边界上的特定点 T (圆弧与45度斜线的切点)更有利于收敛。因此,Circle Loss 设计了一个更灵活的优化途径,通向一个更明确的优化目标。

Circle Loss 非常简单,而它对深度特征学习的意义却非常本质,表现为以下三个方面:

1、统一的(广义)损失函数。从统一的相似度配对优化角度出发,它为两种基本学习范式(即使用类别标签和使用样本对标签的学习)提出了一种统一的损失函数;

2、灵活的优化方式。在训练期间,向  或  的梯度反向传播会根据权重  或  来调整幅度大小。那些优化状态不佳的相似度分数,会被分配更大的权重因子,并因此获得更大的更新梯度。如图 1(b) 所示,在 Circle Loss 中,A、B、C 三个状态对应的优化各有不同。

3、明确的收敛状态。在这个圆形的决策边界上,Circle Loss 更偏爱特定的收敛状态(图 1 (b) 中的 T)。这种明确的优化目标有利于提高特征鉴别力。

统一的相似性优化视角

深度特征学习的优化目标是最大化  ,最小化  。在两种基本学习范式中,采用的损失函数通常大相径庭,比如大家熟知的 sofmax loss 和 triplet loss。

这里不去在意相似性计算的具体方式——无论是样本对之间的相似性(相似性对标签情况下)还是样本与类别代理之间的相似性(类别标签情况下)。本文仅仅做这样一个假设定义:给定特征空间中的单个样本 x,假设与 x 相关的类内相似度分数有 K 个,与 x 相关的类间相似度分数有 L 个,分别记为  和   。

为了实现最大化  与最小化  的优化目标,本文提出把所有的  和  两两配对,并通过在所有的相似性对上穷举、减小二者之差,来获得以下的统一损失函数:

这个公式仅需少量修改就能降级得到常见的 triplet 损失或分类损失,比如得到 AM-Softmax 损失:

或 triplet 损失:

Circle Loss:自定步调的加权方式

暂先忽略等式 (1) 中的余量项 m 并对  和  进行加权,可得到新提出的 Circle Loss:

再定义  的最优值为  ,s_n  的最优值为  ; 。当一个相似性得分与最优值偏离较远,Circle Loss 将分配较大的权重,从而对它进行强烈的优化更新。为此,本文以自定步调(self-paced)的方式给出了如下定义:

类内余量和类间余量

不同于优化 (  ) 的损失函数,在 Circle Loss 中,  和  是不对称的,本文为其各自定义了余量  和  ,这样可得到最终带余量的 Circle Loss:通过推导决策边界,本文进一步分析 ∆_n 和 ∆_p。为简单起见,这里以二元分类的情况进行说明,其中决策边界是在  处得到。根据等式 (5) 和 (6) ,可得到决策边界:

其中  。

Circle Loss 有 5 个超参数,即  、  、  、  和  。通过将  ,  ,  ,  。可将等式 (7) 约简为:

基于等式 (8) 定义的决策边界,可对 Circle Loss 进行另外一番解读。其目标是优化  和  。参数 m 控制着决策边界的半径,并可被视为一个松弛因子。

换句话说,Circle Loss 期望   且  。因此,超参数仅有 2 个,即扩展因子  和松弛因子  。

优势

Circle Loss 在   和  上的梯度分别为:

图 2(c) 在二元分类的实验场景中可视化了不同 m 值设置下的梯度情况,对比图 2(a) 和 (b) 的triplet 损失和 AMSoftmax 损失的梯度,可知 Circle Loss 有这些优势:在 s_n 和 s_p 上能进行平衡的优化、梯度会逐渐减弱、收敛目标更加明确。

损失函数的梯度:(a)三重损失;(b)AMSoftmax 损失;(c)新提出的 Circle 损失

上图的可视化结果表明,triplet 损失和 AMSoftmax 损失都缺乏优化的灵活性。它们相对于  (左图)和  (右图)的梯度严格相等,而且在收敛方面出现了陡然的下降(相似度配对 B)。比如,在 A 处,类内相似度分数  已接近 1 ,但仍出现了较大的梯度。此外,决策边界平行于  ,这会导致收敛不明确。

相对而言,新提出的 Circle Loss 可根据相似性得分与最优值的距离,动态地为相似度分数分配不同的梯度。对于 A(  和  都很大),Circle Loss 的重点是优化  ;对于 B,因为  显著下降,Circle Loss 会降低它的梯度,并因此会施加温和的优化。

Circle Loss 的决策边界是圆形的,与  直线有着明确的切点,而这个切点将成为明确的收敛目标。这是因为,对于同样的损失值,该切点具有最小的类间-类间差距,是最容易维持的。

实验

本文在三个特征学习任务(人脸识别,行人再识别,细粒度图像检索)上,对 Circle Loss 进行了全面评估,结果如下:

使用不同主干网络和损失函数在 MFC1 数据集上得到的识别 rank-1 准确度(%)

使用 ResNet34 主干网络在 LFW、YTF 和 CFP-FP 上的人脸识别准确度

在 IJB-C 1:1 验证任务上的真实接收率(%)比较

在行人再识别任务上的 Circle 损失的评估,这里报告了 R-1 准确度(%)和 mAP(%)

在 CUB-200-2011、Cars196 和 Stanford Online Products 上与当前最佳结果的比较,这里报告的是 R@K(%)

可以看到,在上述三个任务中,Circle Loss 都表现出非常强的竞争力。在人脸上,采用分类模式,Circle Loss 超过了该领域先前的最好方法(如AM-Softmax,ArcFace);在细粒度检索中,采用样本对学习方式,Circle Loss 又媲美了该领域先前的最高方法(如Multi-Simi)。

值得一提的是,以往这两种范式下的损失函数形式通常大相径庭,而 Circle Loss 则使用完全一样的公式获得了上述表现,且每个参数都具有较好的可解读性。

下面这个关于收敛状态分析的实验,则进一步揭示了Circle Loss的优化特性。

Circle Loss收敛状态分析

图 3 在 (  ) 坐标中展现收敛前后的相似性状态,本文关注两种状态:

首先,是绿色散布点代表的收敛后状态;

其次,是蓝色累积点反映的通过决策面时瞬间的分布密度。

图3(a) 中的 AMSoftmax 和(b)中的 Circle Loss 具有相切的决策面,可以看到,收敛后,Circle Loss 的收敛状态更紧密。而且,这些状态都是从一个相对狭小的通道通过决策面并最终收敛的。

当对Circle Loss使用 (c) 中更优的参数,这个现象更为明显。该观察从实验角度验证了图 1中,对 Circle Loss 倾向一个特定收敛状态 T 的猜测和理论分析。

原文还有更多深入的实验来分析重要超参的影响、训练全过程相似性的变化过程。论文进行CVPR 2020 oral presentation及交流之前,可先前往https://arxiv.org/pdf/2002.10857.pdf 一睹为快。

结论

本文对深度特征学习做出了两项深刻理解。第一,包括 triplet 损失和常用的分类损失函数在内的大多数损失函数具有统一的内在形式,它们都将类间相似度与类内相似度嵌入到相似性配对中进行优化。第二,在相似度配对内部,考虑各个相似度得分偏离理想状态的程度不同,应该给予它们不同的优化强度。

将这两项理解联合起来,便得到 Circle Loss。通过让每个相似性得分以不同的步调学习,Circle Loss 赋予深度特征学习的更灵活的优化途径,以及更明确的收敛目标;并且,它为两种基本学习范式(样本对和分类学习)提供了统一的解读以及统一的数学公式。

在人脸识别、行人再识别、细粒度的图像检索等多种深度特征学习任务上,Circle Loss 都取得了极具竞争力的性能。

论文链接:

https://arxiv.org/abs/2002.10857

【End】

推荐阅读 

☞开源的未来 10 年:中国开源社区建立是关键

☞DDoS 攻击爆发!医疗在线教育成重点,代理攻击成常态

☞国外程序员也撸猫,Linux 之父谈在家办公体验!

☞GitHub 疑遭中间人攻击,无法访问,最大暗网托管商再被黑!

☞看完这一篇,你就对 Spring Security 略窥门径了 | 原力计划

☞为何你的 SaaS 想法总是失败?没想清楚这 4 个原因可能会继续失败!

你点的每一个在看,我认真当成了喜欢

入选 CVPR 2020的旷视论文,到底写了啥?相关推荐

  1. CVPR 2020 Oral | 旷视研究院提出双边分支网络BBN:攻坚长尾分布的现实世界任务...

    IEEE 国际计算机视觉与模式识别会议 CVPR 2020 (IEEE Conference on Computer Vision and Pattern Recognition) 将于 6 月 14 ...

  2. CVPR 2020 Oral | 旷视研究院提出Circle Loss,革新深度特征学习范式

    IEEE 国际计算机视觉与模式识别会议 CVPR 2020 (IEEE Conference on Computer Vision and Pattern Recognition) 将于 6 月 14 ...

  3. CVPR 2020 Oral | 旷视提出Circle Loss,革新深度特征学习范式

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 本文系旷视研究院投稿 本文是旷视CVPR2020论文系列解读第4篇, ...

  4. CVPR 2020 Oral | 旷视提出目前最好的密集场景目标检测算法:一个候选框,多个预测结果...

    作为 CVPR 2020 Oral展示论文之一, 该文提出一种简单却有效的基于候选框的物体检测方法,尤其适用于密集物体检测.该方法通过一个候选框.多个预测框的概念,引入 EMD Loss.Set NM ...

  5. 【CVPR 2020】 旷视研究院提出SAT:优化解决半监督视频物体分割问题

    IEEE国际计算机视觉与模式识别会议 CVPR 2020 (IEEE Conference on Computer Vision and Pattern Recognition) 将于 6 月 14- ...

  6. 百度22篇!入选CVPR 2020论文涵盖全视觉领域!

    来源:公众号 百度AI baidubrain 本文仅供交流,如有侵权,请联系删除. 近日,计算机视觉领域"奥斯卡"CVPR 2020官方公布论文收录结果,伴随投稿数量激增,接收率开 ...

  7. 自监督媲美全监督,港中文、商汤场景去遮挡方法入选 CVPR 2020 Oral

    视学算法转载 作者:Xiaohang Zhan 自然场景理解是一项具有挑战性的任务,尤其是遇到图像中的物体互相遮挡的时候.现有的场景理解只能解析可见的部分.在本文中,来自香港中文大学.商汤.南洋理工大 ...

  8. 超100篇!CVPR 2020最全GAN论文梳理汇总!

    点击上方"机器学习与生成对抗网络",关注"星标" 获取有趣.好玩的前沿干货!  戳我,查看GAN的系列专辑~! 下述论文已分类打包好!共116篇,事实上仍有一些 ...

  9. 300+篇CVPR 2020代码开源的论文,全在这里了

    300+篇CVPR 2020代码开源的论文,全在这里了! CVPR 2020代码开源项目一放出,得到不少CVers的关注,重点是:开源和根据方向分类.目前star数已经来到2000+,期间也有不少国内 ...

最新文章

  1. 硬盘老大哥被曝豪掷200亿美元,要收了全球第二大闪存芯片厂,外媒:半导体行业秩序要变...
  2. knn的python代码_Python代码实现KNN算法
  3. 在iframe框架中全屏不好使的原因
  4. CentOS6.5安装Subversion
  5. CentOS 6.3安装Nginx开启目录浏览、下载功能
  6. 第二阶段团队冲刺10
  7. 本题要求实现函数输出n行数字金字塔。_练习5-3 数字金字塔 (15分)
  8. 【模拟】Ground Defense
  9. 面向数据科学的概率论 二、计算几率
  10. Go中的Init函数
  11. j连接oracle数据库,JFinal连接Oracle数据库实战
  12. AT:配置/禁用PSM模式和设置T3324/T3412
  13. 曼彻斯特编码_数据通信之数据编码
  14. 实验四:大数据可视化工具—pyecharts
  15. 并行计算、分布式计算、集群计算和网格计算的介绍,以及主要有哪些区别?
  16. html怎么混合颜色,CSS3 多色混合背景
  17. 中心极限定理和Berry-Esseen中心极限定理
  18. 简单的java程序代码?
  19. Mongo聚合函数使用Sort排序时内存不足导致查询失败,开启allowDiskUse=true
  20. 计算机专业读研外文文献怎么找,计算机专业学术论文参考文献推荐 计算机专业学术外文文献怎么找...

热门文章

  1. 面向对象--闭包 继承
  2. java 中静态变量(类变量)与实例变量 静态方法与实例方法
  3. (转载)JavaWeb学习总结(五十二)——使用JavaMail创建邮件和发送邮件
  4. BZOJ 3685 普通van Emde Boas树 权值线段树(zkw)
  5. easyui 扩展验证
  6. dedecms sphinx 配置
  7. const与修饰函数形参
  8. html 将盒子固定浏览器,浏览器默认css样式表 css之左盒子固定,右盒子自适应的一种实现方式...
  9. opencv+resize+padding+concate
  10. 计算机应用基础课程是过程化考试吗,基于能力的计算机应用基础课程过程化考核标准构建与实施.doc...