度量学习(metric learning)研究如何在一个特定的任务上学习一个距离函数,使得该距离函数能够帮助基于近邻的算法(kNN、k-means等)取得较好的性能。深度度量学习(deep metric learning)是度量学习的一种方法,它的目标是学习一个从原始特征到低维稠密的向量空间(称之为嵌入空间,embedding space)的映射,使得同类对象在嵌入空间上使用常用的距离函数(欧氏距离、cosine距离等)计算的距离比较近,而不同类的对象之间的距离则比较远。深度度量学习在计算机视觉领域取得了非常多的成功的应用,比如人脸识别、人脸验证、图像检索、签名验证、行人重识别等。

损失函数在深度度量学习中起到了非常重要的作用。很多深度度量学习的损失函数构建在样本对(pair)或者样本三元组(triplet)之上,因而样本空间的量级($O(N^2)$或者$O(N^3)$)非常大。一般而言,模型在训练过程中很难穷举学习所有的样本对;并且大多数样本对或者样本三元组的信息量是很小的,尤其在模型训练的后期,这些样本对或者样本三元组上梯度值几乎为0。若不做任何针对性的优化,学习算法的收敛速度会很慢,且易陷入局部最优。

困难样本挖掘是加快学习算法的收敛速度,并改进学习效果的一种重要手段。它通常和特定的损失函数一起使用,以期望达到最好的效果。困难样本挖掘可以理解为在学习过程中给每一个样本对动态赋予一个权重。在学习不同样本对时给它们不同的权重,如果某个样本对包含的信息比较多或比较难学习,那么它就需要比较大的权重。信息量较少的样本对则会被赋予较小的权重。若某些样本对被赋予的权重为0,则意味着在计算梯度时不考虑这些样本对,相当于这些样本对被丢弃了。

不同的损失函数在设计时,对于样本对的赋权是不同的,或者说与这些损失函数配合使用的困难样本挖掘方法是不同的。下面列举一些常用的深度度量学习中使用的损失函数,同时了解一下它们是如何来给做困难样本挖掘的。

损失函数(Loss functions)

1. Contrastive loss

Contrastive loss的输入是两个样本组成的样本对,label为该样本对是否属于同一类。

其中,

是函数
的简写,表示输入
映射之后的embedding向量;
是指示函数,在输入为true时返回1,否则返回0;
是预先设定的超参数,表示不同类样本之间的距离应超过该margin值。
Contrastive loss

最原始的contrastive loss只考虑了输入样本对本身的相似性。

2. Triplet loss

Triplet loss的输入由一个三元组组成,每个三元组包含一个query、一个与query属于同一类的正样本、一个与query属于不同类的负样本。

Triplet loss要求query到负样本的距离与query到正样本的距离之差要大于

Contrastive loss和triplet loss都很常用,一般来说,Triplet-Loss的效果比Contrastive Loss的效果要好,因为他考虑了正负样本与锚点的距离关系。然而,这两种loss函数如果单独使用则会遭遇收敛速度慢的问题。在学习过程的后期,大多数样本都能满足损失函数的约束条件,这些样本对应进一步学习的贡献很小。因此,这两种损失函数都需要配合hard sample mining的学习策略一起使用,例如FaceNet提出的simi-hard negative sample mining方法。

Triplet loss

3. N-pair-ms loss

Triplet loss在学习参数的更新过程中,只比较了一个负样本,而忽略了其他类的负样本。因而,只能促进query的embedding向量与选中的一个负样本保持较大的距离,但却不能保证与其他未被选择的负样本也保持较大的距离。

N-pair-ms loss对Triplet loss的上述问题进行了改进,不同于Triplet Loss使用单个的正负样本,N-pair-ms loss损失函数利用了数据之间的结构信息来学习到更有区别性的表示,其在每次参数更新的过程中同时考虑了query样本与其他多个不同类的负样本之间的关系,促使query与其他所有类之间都保持距离,这样能够加快模型的收敛速度。N-pair-ms loss的每个训练样本由

元组组成,即
,其中
是相对于
而言的正样本,
是负样本。
元组一般不会提前构建好,而是在训练的过程中,从同一个mini batch中构建出来。

其中,

是由深度神经网络定义的embedding kernel.

4. Lifted Struct loss

Lifted Struct loss基于训练集(mini batch)中所有的正负样本对来计算loss,其定义如下:

其中,

是正样本对(pair的左变量和右边量来自同一个类)的集合;
是负样本对的集合;
是样本对
的距离。

仔细分析该loss function,发现对于每一个正样本对

,模型分别挖掘其左变量
和右边量
对应的最困难的负样本,独立地找到距离左变量最近的负样本,假设为
;同时找到距离右边量最近的负样本,假设为
。接着通过比较
,找出其中较小的距离对应的负样本,假设为
。最后,计算三元组
确定的triplet loss函数。如下图所示:

Hard negative edge is mined with respect to each left and right example per each positive pairs. In this illustration with 6 examples in the batch, both x3 and x4 independently compares against all other negative edges and mines the hardest negative edge.

Lifted Struct loss与triplet loss的不同之处就在于,triplet loss的样本三元组是提前确定好的,而Lifted Struct loss是为每一个正样本对动态构建最困难的三元组,在构建的过程中考虑了(mini batch中)所有的负样本。

由于上述定义的Lifted Struct loss函数是不光滑的函数,嵌套的max函数在实际中容易导致网络陷入较差的局部最优,因此可以改写为一个光滑的上界函数来避免词问题。

Lifted Struct loss

5. Proxy NCA loss

这个方法提出的目的是去解决采样的问题。假设W代表着训练集中的一小部分数据,在采样时通过选择与W中距离最近的一个样本u作为代理(proxy), 即:

基于选择的proxy, NCA损失为:

6. Ranked list loss

上述的损失函数都存在如下的两点局限性:

  1. 这些损失函数虽然都提出了加入更多的负样本来获得结构化的信息,但是使用的负样本仅仅是一小部分;
  2. 另外这些损失函数没有考虑类内的数据分布,都追求将同一个class压缩到一个点上。

Ranked List Loss对着两个问题提出了改进。

假设

表示训练集,其中每一组元素
表示成对的样本与其标签,总共包括
个类别,即
表示属于类别
的所有样本,
表示相应类别的样本数量。

我们的目标是学习到一个函数

使得正样本对之间的相似度高于负样本之间的相似度。为了将正负样本区分开,Ranked List Loss希望负样本之间的距离大于某个阈值
,并且正样本之间的距离小于
,即正负样本之间至少有
的间隔。基于此,提出了pairwise margin loss:

其中,当

时,
,否则
表示
之间的欧式距离,
是hinge函数。

对样本进行合适采样可以加快模型的收敛速率和提高模型性能。Ranked List Loss使用的采样策略很简单,就是损失函数不为0的样本,具体来说,对于正样本,损失函数不为0意味着它们与anchor之间的距离大于

, 类似的,对于负样本,损失函数不为0意味着它们与anchor之间的距离小于
,相当于使得同一类别位于一个半径为
大小的超球体内。

给定一个anchor

基于相似度对其他样本进行排序,在这个排序结果中,有
个正样本,用
表示。同样地,有
个负样本,用
表示。于每个anchor
, 我们希望使得它与正样本集
的距离越近越好,并且与负样本集
之间存在着
的间隔,同时,我们还希望使得anchor与负样本的距离大于边界
。在执行困难样本挖掘后,得到困难的正样本集合为

困难的负样本集合为

因此,对于正样本我们使用的损失函数为:

对于负样本集,考虑到它的样本数量比较大,对每个负样本使用加权的方式:

其中,

是超参数。

最终,整个损失为:

通常情况下,设置

上述几种loss函数的对比如下图所示:

其中,蓝色圆形表示anchor(query)样本,不同的形状表示来自不同类的样本。

7. Multi-Similarity loss

前面说过,困难样本挖掘可以理解为在学习过程中给每一个样本对动态赋予一个权重。给样本赋权的核心在于判断样本的局部分布,即它们之间的相似性,局部样本之间的分布和相互关系并不仅仅取决于当前两个样本之间的距离或相似性,还取决于当前样本对与其周围样本对之间的关系。

因此,对于每一个样本对,我们不仅需要考虑样本对本身的自相似性,同时还要考虑它与其它样本对的相对相似性。其中相对相似性又可以分为正相对相似性 (正样本)、负相对相似性(负样本)两种相似性。

  1. 自相似性:根据样本对自身计算出的相似性,这是一种最常用也是最重要的相似性。例如,当一个负样本对的余弦相似性较大时,意味着很难把该样本对所对应的两种类别区分开来,这样的样本对对模型来说是困难的,也是有信息量的,对于模型学习更有区分度的特征很有帮助。另一方面,自相似性很难完整地描述embedding空间的样本分布情况。
  2. 正相对相似性:不仅考虑当前样本对自身的相似性,还考虑局部邻域内正样本对之间的相对关系。
  3. 负相对相似性:不仅考虑当前样本对自身的相似性,还考虑局部邻域内负样本对之间的相对关系。

各种损失函数都在给样本加权以确定「拉或推」的力度,那么使用什么样的函数来加权就非常重要了,在学习不同样本对时给它们不同的权重,如果某个样本包含的信息比较多或比较难学习,那么它就需要比较大的权重。不同的损失函数在设计时,对于样本对的赋权是不同的,往往会涉及到上述三种相似性的其中一种或多种的计算。以一个负样本对为例,上文提到的几个loss函数涉及到的相似性计算类型如下表所示。

Multi-Similarity Loss(MS loss) 综合考虑了三种相似性,它们能概括目前大多数基于样本对的损失函数。MS Loss 通过采样和加权两次迭代,实现更加高效的样本训练。它通过定义自相似性和相对相似性,在训练过程中更加全面地考虑了局部样本分布,从而能更高效精确的对重要样本对进行采用和加权。

对于一个给定的负样本对

,MS loss给它赋予的权重为:

类似地,对于一个给定的负样本对

,MS loss给它赋予的权重为:

最终,MS loss的定义为:

相对于
求得的梯度刚好为上述样本权重。
ms loss

MS Loss 在大部分图像检索基准数据库上都有很好的性能,且相比最新的方法也有较大的优势。

tensorflow中同时两个损失函数_深度度量学习中的损失函数相关推荐

  1. 中计算散度的函数_深度神经网络优化中的不可导函数如何计算梯度?

    众所周知,神经网络仅能处理连续的浮点数,标准的输出也是连续型的数字.但实际问题中,我们很多时候都需要一个离散的结果,比如分类问题中我们希望输出正确的类别,"类别"是离散的,&quo ...

  2. 『深度概念』度量学习中损失函数的学习与深入理解

    『深度概念』度量学习中损失函数的学习与深入理解 0. 概念简介 度量学习(Metric Learning),也称距离度量学习(Distance Metric Learning,DML) 属于机器学习的 ...

  3. 《强化学习周刊》第26期:UCL UC Berkeley发表深度强化学习中的泛化研究综述、JHU推出基于强化学习的人工决策模型...

    No.26 智源社区 强化学习组 强 化 学  习 研究 观点 资源 活动 关于周刊 强化学习作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注.为帮助研究与工程人员了解该领域的相关进展和 ...

  4. 纵向数据中抑郁检测与预测的深度多任务学习

    本人cv抑郁识别方向的硕士,目前应老师要求,不可避免的要看每周看一些抑郁识别的文章,为了给自己找一些乐趣,也是为了逼迫让自己养成总结的习惯,以后把抑郁症看过的论文都总结在这里,喜欢的话就一键三连吧~~ ...

  5. 四两拨千斤!深度主动学习综述2020

    本文转载自知乎,为最近新出的论文 A Survey of Deep Active Learning 中文版介绍,原文作者调研了189 篇文献综述了深度主动学习的进展.文章较长,建议先收藏再阅读. ht ...

  6. 深度强化学习中的好奇心

    本文为 AI 研习社编译的技术博客,原标题 : Curiosity in Deep Reinforcement Learning 作者 | Michael Klear 翻译 | 凝决2018 校对 | ...

  7. 深度强化学习中的episode、epoch、batch-size、iteration

    深度强化学习中的episode.epoch.batch-size.iteration batch_size iteration epoch episode batch_size 即批大小,如果把全部数 ...

  8. 深度度量学习的这十三年,难道是错付了吗?

    机器之心报道 机器之心编辑部 或许对于每一个领域来说,停下脚步去思考,与低头赶路一样重要. 「度量学习(Metric Learning)」即学习一个度量空间,在该空间中的学习异常高效,这种方法用于小样 ...

  9. Facebook爆锤深度度量学习:该领域13年来并无进展!网友:沧海横流,方显英雄本色...

    来源:AI科技评论 近日,Facebook AI和Cornell Tech的研究人员近期发表研究论文预览文稿,声称近十三年深度度量学习(deep metric learning) 领域的目前研究进展和 ...

最新文章

  1. 图像聚类与检索的简单实现(一)
  2. url的三个js编码函数escape(),encodeURI(),encodeURIComponent()简介
  3. HandlerInterceptorAdapter或HandlerInterceptor的使用
  4. 京东:Flink SQL 优化实战
  5. Element UI 在父类设置样式不起作用
  6. C++ JSON库:JSON for Morden C++
  7. MySQL数据库面试题
  8. 忧心文案小程序第二版前端后端源码
  9. 11.8 Ext.util.Event.fire(): Attempting to fire “click“ event on destroyed 问题分析与解决
  10. EMNLP2021之AEDA:一种更简单的文本分类数据增强技术
  11. 【LeetCode 剑指offer刷题】字符串题3:Reverse String
  12. 枚举算法典型的三个例子
  13. YYtext简单使用
  14. Unable to negotiate with port 51732: no matching host key type found. Their offer:
  15. Unity 之 ShaderGraph 模拟“吃鸡”海面效果入门级教程
  16. 域名服务商自曝行业内幕:用户面临层层陷阱
  17. MySQL中试图的应用
  18. 电源适配器的主要质量指标
  19. 计算机word综合操作,『word2010表格操作及综合排版计算机实验报告』excle2010实验操作...
  20. MATLAB+mmap

热门文章

  1. linq与数据库之添加
  2. 帮助新手理解equals和hashCode
  3. 2014年西安区域赛的几道水题(A. F. K)
  4. window下搭建linux虚拟机
  5. python基础--接口与归一化设计、封装、异常、网络编程
  6. jvm lock低性能分析
  7. jQuery做个TextBox自动完成条
  8. Python稳基修炼的经典案例9(计算机二级、初学者必会turtle库例题)
  9. 微课|中学生可以这样学Python(5.6.1节):列表推导式1
  10. ldap mysql ubuntu_ubuntu 安装mysql-python和 python-ldap,navicate 问题