论文简介

论文中文翻译:《深度人脸识别的大边缘余弦损失》

论文名称:《CosFace: Large Margin Cosine Loss for Deep Face Recognition》

录用日期:2018年4月3日

摘要

  • 由于深度卷积神经网络(CNNs)的发展,人脸识别取得了惊人的进展。人脸识别的核心任务是人脸的特征识别,包括人脸的验证和识别。然而,传统的深度cnn的softmax损失通常缺乏识别能力。为了解决这一问题,近年来人们提出了如center loss,large margin softmax loss和angular softmax loss等几种损耗函数。所有这些改进的损失都有一个共同的想法:最大化类间方差和最小化类内方差本文提出了一种新的损耗函数——大余弦损耗(LMCL),从不同的角度实现了这一思想。更具体地说,我们通过L2归一化特征和权重向量来消除径向变化,将softmax损失重新表述为余弦损失,在此基础上引入余弦间隔项(cosine margin term)来进一步在角度空间中最大化决策间距。通过归一化以及最大化余弦决策间距,实现了类内方差最小和类间方差最大。我们将LMCL训练过得到的人脸识别模型称为CosFace。我们在MegaFace Challenge,Youtube Faces 和LFW等最常用的人脸识别公开数据集上进行了大量的实验,在这些数据集上取得了最先进的表现,从而证实了所提出方法的有效性。

一、简介

  • 近年来,深度卷积神经网络(deep convolutional neural networks, CNNs)[15, 18, 12, 9, 44]的发展显著提高了其性能,这使得深度CNN成为计算机视觉中占主导地位的机器学习方法。人脸识别作为最常见的计算机视觉任务之一,数十年来一直被广泛研究[37,45,22,19,20,40,2]。早期的研究是利用低层次的人脸特征建立浅层模型,而现代的人脸识别技术在深度cnn的驱动下得到了极大的发展。人脸识别通常包括两个子任务:人脸验证和人脸识别。这两个任务都涉及三个阶段:人脸检测、特征提取和分类。deep CNN能够提取干净的高级特征,使其能够使用一个相对简单的分类体系结构获得卓越的性能:通常,多层感知器网络遵循arXiv:1801.09414v2 [cs]。2018年4月3日a softmax loss[35,32]。然而,最近的研究[42,24,23]发现传统的softmax loss不足以获得分类的判别能力。
  • 为了鼓励更好的鉴别表现,进行了许多研究[42,5,7,10,39,23]。这些研究都有一个共同的观点,即最大化类别间的差异和最小化类别内的差异。如[42,5,7,10,39]提出采用多损耗学习来提高特征判别能力。与传统的softmax loss相比,这些方法在提高分类性能的同时,也存在一些额外的限制。对于[42],它只显式地最小化类内方差,而忽略类间方差,这可能导致次优解。[5, 7, 10, 39]需要彻底规划对或三组样本的挖掘,这是一个非常耗时的过程。最近,[23]提出从一个不同的角度来解决这个问题。更具体地说,23将特征的原始欧氏空间投影到一个角度空间中,并引入一个角度间距来实现更大的类间方差。
  • 与[42,5,10]所建议的欧氏边缘相比,角度边缘更受青睐,因为角度的余弦值与softmax具有内在的一致性。余弦公式与人脸识别中常用的相似度度量相匹配。从这个角度来看,直接在不同类之间引入余弦间距来改善余弦相关的判别信息更为合理。
  • 本文通过对特征向量和权重向量进行L2范数归一化,将softmax损失重新表述为余弦损失,以消除径向变化,并在此基础上引入余弦间隔项m,进一步最大化在角度空间上的不同类别的决策间距。具体地,我们提出了一种新的算法,称为大边缘余弦损失(LMCL),以归一化特征作为输入,通过最大化类间余弦边缘来学习高度分辨力的特征。形式上,我们定义一个超参数m,决策边界由cos(θ1)−m = cos(θ2)给出,其中θ是第i类特征与权重之间的夹角。
  • 为了比较,A-softmax的决策边界在角空间上定义为cos(mθ1) = cos(θ2),但由于余弦函数的非单调性,在优化上存在困难。为了克服这样的困难,我们必须为A-softmax使用一个特别分段函数的额外技巧。更重要的是,A-softmax的决策间距依赖于θ,这导致了不同类别的决策间距不同。因此,在决策空间中,一些类间特征具有较大的特征间距,而另一些类间特征具有较小的特征间距,从而降低了判别能力。与A-Softmax不同,我们的方法定义了余弦空间中的决策间距,从而避免了上述缺点。基于LMCL,我们构建了一个复杂的深度模型CosFace,如下图所示。在训练阶段,LMCL引导卷积神经网络学习具有大余弦边界的特征。在测试阶段,从卷积神经网络中提取人脸特征进行人脸验证或人脸识别。 (1)提出了一种新的损失函数LMCL (loss function, LMCL)来学习人脸识别的高分辨深度特征。(2)基于LMCL所鼓励的超球面特征分布,给出了合理的理论分析。(3)与LFW[13]、YTF[43]和Megaface等常用人脸数据库的大多数基准相比,该方法提高了性能[17,25]。

    建议的CosFace框架概述。在训练阶段,在不同类别之间以较大的差距学习有区别的面部特征。在测试阶段,将测试数据输入CosFace,提取人脸特征,计算余弦相似度得分,进行人脸验证和识别。

二、相关工作

  • 人脸识别 近年来,由于深度CNN模型的巨大成功,人脸识别取得了显著进展[18,15,34,9]。在DeepFace[35]和DeepID[32]中,人脸识别被视为一个多类分类问题,首先引入了深度CNN模型来学习大型多身份数据集上的特征。 DeepID2[30]采用识别和验证信号,实现更好的特征嵌入。DeepID2+[33]和DeepID3[31]的最新研究进一步探索了先进的网络结构来提高识别性能。FaceNet[29]使用三联体损失学习欧几里德空间嵌入,然后用近2亿张人脸图像训练一个深度CNN,从而实现了最先进的性能。其他方法[41,11]也证明了深度cnn在人脸识别方面的有效性。
  • 损失函数 损失函数在深度特征学习中起着重要的作用。对比损失[5,7]和三重损失[10,39]通常用来增加欧几里德裕度,以便更好地进行特征嵌入。Wen等人[42]提出了中心损失来学习每个身份的深度特征中心,并使用中心来减少类内方差。Liu等人[24]通过向每个身份添加角度约束,提出了L-Softmax,以改善特征识别。Angular softmax (a - softmax)[23]通过归一化权值改进了L-Softmax,在一系列开放集人脸识别基准上取得了更好的性能[13,43,17]。其他基于对比损失或中心损失的损失函数[47,6,4,3]也显示了增强辨别能力的表现。
  • 归一化方法 归一化在近年来的深度人脸识别研究中得到了应用。[38]对softmax损失内的余弦相似度替换内积的权值进行了归一化。[28]对特征应用L2约束,将人脸特征嵌入到标准化空间中。注意,对特征向量或者权值向量做归一化,在训练时可以让角度更集中从而获得更小的类内角度变化。因此,不同类别之间的角度可以得到很好的优化。基于von Mises-Fisher (vMF)的方法[48,8]和A-Softmax[23]在特征学习中也采用了归一化。

三、建议的方法

  • 在本节中,我们首先详细介绍了所提出的LMCL(第3.1节)。并与其他损失函数进行了比较,说明了LMCL的优越性(第3.2节)。进一步描述了LMCL采用的特征归一化技术,以阐明其有效性(第3.3节)。最后,我们对所提出的LMCL进行了理论分析(第3.4节)。
3.1 大余弦损失
  • 我们从余弦的角度重新考虑软最大损失。softmax loss通过最大化ground-truth类的后验概率将特征从不同的类中分离出来。给定一个带有相应标号yi的输入特征向量xi,则softmax损耗可表示为:

    其中pi表示xi被分类正确的后验概率。N为训练样本数量,C为类别数。fj常表示经过全连接层(权值向量为Wi,bias为Bj)后特征的激活值。为了简化,我们令Bj= 0,则fi可以表示成:
    其中θj为Wj和x之间的夹角。该公式表明向量的模和它们之间的夹角都对有验概率值有影响。
  • 为了更有效地特征学习,权值向量W的模有必要保持不变。为此,我们通过L2范数归一化令| |Wj| | = 1,在测试阶段,一对测试人脸图片的识别分数通常是通过计算两个特征向量的余弦相似度得到。这意味着特征向量的模应该也对识别分数没有影响,因此我们令| |x| | = s。从而后验概率只依赖于夹角的余弦值。修改后的loss可以表示为:

    因为我们通过固定| |x| | = s来消除径向方向上的变化,结果模型学习了角空间中可分离的特征。在本文中,我们将这种损失称为Softmax loss (NSL)的归一化版本。
  • 然而,NSL学习到的特征并不具有足够的区分性,因为NSL只强调正确的分类。为了解决这个问题,我们在分类边界中引入了余弦边界,它自然地被纳入到Softmax的余弦公式中。
  • 以二分类为例,让θi表示学习到的特征向量与类Ci(i = 1,2)的权重向量之间的夹角。C1的NSL力cos(θ1) > cos(θ2), C2的NSL力也类似,因此可以正确分类不同类别的特征。要发展大边际分类器,我们进一步要求cos(θ1)−m > cos(θ2)和cos(θ2)−m > cos(θ1),其中m≥0是用来控制余弦边大小的固定参数。由于cos(θi)−m小于cos(θi),因此对分类的约束更加严格。上述分析可以很好地推广到多类场景。因此,改变的损失通过鼓励余弦空间的额外边界来加强对学习特征的识别。
  • 形式上,我们将大余弦损失(LMCL)定义为:

    其中

    其中N为训练样本数,xi为yi的真类对应的第i个特征向量,Wj为第j类的权向量,θj为wj和xi之间的夹角。
3.2 不同损失函数的比较
  • 在本小节中,我们将我们的方法(LMCL)的决策裕度与:Softmax、NSL和A-Softmax进行比较,如下图所示。为了便于分析,我们考虑带有类c1和C2的二进制类场景。设w1、w2分别为c1、C2的权向量。

    二分类情形下不同损失函数的决策裕度比较。虚线表示决策边界,灰色区域为决策边界。
  • Softmax loss通过以下方式定义决策边界:

    因此,它的边界既依赖于权重向量的大小,也依赖于角度的余弦,这导致余弦空间的一个重叠决策区域(margin < 0)。上图的第一个副图说明了这一点。如前所述,在测试阶段,通常只考虑人脸测试特征向量之间的余弦相似度。因此,具有Softmax损耗的训练分类器无法在余弦空间对测试样本进行完美分类。
  • NSL对权重向量w1和w2进行归一化,使它们的大小为常数1,从而得到如下判定边界:
    NSL的决策边界如上图的第二副图所示。我们可以看到,通过去除径向变化,NSL能够很好地在余弦空间对测试样本进行分类,margin = 0。然而,它对噪声的鲁棒性不是很好,因为没有决策裕度:决策边界周围的任何小扰动都可以改变决策。
  • A-Softmax通过引入额外裕度来改善softmax损失,使其决策边界为:
    因此,对于C1要求θ1≤θ2 /m, C2也是如此。上图的第三个子图描述了这个决策区域,其中灰色区域表示决策裕度。然而,在所有θ值上,A-Softmax的裕度并不一致,随着θ的减小,裕度减小,当θ = 0时,裕度完全消失。这将导致两个潜在的问题。首先,对于难度较高的课程c1和c2,它们在视觉上相似,因此在W1和W2之间的角度较小,因此边界也较小。其次,从技术上讲,必须使用一个特别的分段函数来克服余弦函数的非单调性的困难。
  • LMCL(我们提出的)在余弦空间而不是角度空间(如A - softmax)中定义了一个决策边界:

    因此,对C1(C2相似)进行大边缘分类时,将cos(θ1)最大化,cos(θ2)最小化。上图中的最后一个子图说明了LMCL在余弦空间的决策边界,在生成的角度余弦分布中我们可以看到一个清晰的边界(√2m)。这表明LMCL比NSL更健壮,因为决策边界(虚线)附近的小扰动不太可能导致错误的决策。余弦边缘一致应用于所有样本,不管它们的权重向量的角度。
3.3 归一化特性
  • 该方法采用了一种归一化方法,推导了余弦损耗的表达式,并消除了径向变化。**与[23]只对权向量进行归一化不同,我们的方法同时对权向量和特征向量进行归一化。**因此,特征向量分布在一个超球体上,其中缩放参数s控制半径的大小。在本小节中,我们将讨论为什么特征归一化是必要的,以及在提出的LMCL方法中,特征归一化如何鼓励更好的特征学习。
  • 从两个方面提出了特征归一化的必要性:首先,未进行特征归一化的原始softmax loss隐式学习特征向量的欧几里得范数(L2 -范数)和角度的余弦值;通过自适应学习L2范数来最小化整体损失,使得余弦约束相对较弱。特别是,容易样本的自适应L2 -范数比困难样本大得多,弥补了余弦度量的不足。相反,我们的方法要求整个特征向量集合具有相同的L2 -范数,这样学习只依赖余弦值来发展判别能力。将来自同一类的特征向量聚在一起,将来自不同类的特征向量在超球面上拉开。此外,我们考虑了模型最初开始最小化LMCL的情况。给定一个特征向量x,让cos(θi)和cos(θj)分别表示两类的余弦分数。在特征不归一化的情况下,LMCL力为||x||(cos(θi)−m) > ||x||cos(θj)。注意cos(θi)和cos(θj)最初可以相互比较。因此,只要(cos(θi)−m)小于cos(θj),就需要减小||x||以使损失最小化,这使优化退化。因此,在LMCL的监督下,特征归一化是至关重要的,特别是当网络从零开始训练时。同样,固定尺度参数s比自适应学习更有利。
  • 此外,尺度参数s应设置为适当大的值,以获得性能更好的特征和更低的训练损失。对于NSL,损失是持续的s越大,s越小,收敛性就越差,甚至没有收敛性。对于LMCL,我们还需要足够大的s,以确保有足够的超空间来进行特征学习,并具有预期的大裕度。
  • 接下来,我们证明了参数s应该有一个下界来获得期望的分类性能。已知归一化学习特征向量x和单位权向量W,我们将类总数表示为c。假设学习的特征向量分别位于超球面上,并以相应的权向量为中心。设pw表示类中心的期望最小后验概率(即W), s的下界由1给出:
  • 在此基础上,我们可以推断出,对于特定数目的类,如果我们期望得到一个最优的分类量,s应该不断扩大。此外,保持固定的Pw,所需的s应该更大,以处理更多的类,因为类数量的增加增加了分类的难度,在相对紧凑的空间。因此,对于类内距离小、类间距离大的特征,需要一个具有大半径s的超球来嵌入。
3.4 LMCL的理论分析
  • 前面的小节主要从分类的角度讨论LMCL。在超球面上识别特征的学习中,余弦边是增强特征识别能力的重要手段。详细分析余弦边(即超参数m的界)的定量可行性选择是必要的。m的最佳选择可能会导致更有前途的学习高度区分的面部特征。接下来,我们深入研究了特征空间中的决策边界和角边界,推导出超参数m的理论界。
  • 首先,像前面一样考虑类C1和C2的二类情况,假设归一化特征向量x已知。设Wi表示归一化的权值向量,θi表示x与Wi之间的夹角。对于NSL,决策边界定义为cosθ1−cosθ2= 0,相当于下图左侧W1和W2的角平分线。这解决了NSL监督下的模型将底层特征空间划分为两个相近的区域,在这两个区域中,边界附近的特征非常模糊(即,属于任何一类都可以接受)。相比之下,对于C1, LMCL驱动由cosθ1−cosθ2= m表示的决策边界,其中θ1应比θ2小得多(C2类似)。因此,类间方差增大而类内方差减小。

    从特征角度对LMCL的几何解释。不同的颜色区域代表不同类别的特征空间。与NSL相比,LMCL具有相对紧凑的特征区域。
  • 回到上图,可以观察到最大的角裕度取决于W1和W2之间的角度。因此,当给定W1和W2时,余弦裕度的变量范围是有限的。具体来说,假设属于第i类的所有特征向量与第i类对应的权向量Wi完全重叠。换句话说,每个特征向量都与第i类的权向量相同,显然,特征空间处于一种极端的情况,所有的特征向量都位于它们的类中心。在这种情况下,决策边界的裕度已被最大化(即严格的余弦裕度上界)。
  • 一般来说,我们假设所有的特性都很好地分离了,并且总共有几个C类。假设m的理论变量范围为:0≤m≤(1−max(WiTWj)),其中i, j≤n, i != j。softmax loss试图最大化来自两个不同类别的两个权重向量之间的夹角,以实现完美的分类。因此,很明显,softmax损失的最优解应该均匀地分配权向量在一个单位超球上。基于此假设,引入余弦边m的变量范围可推知如下2:

    其中,C为训练班数,K为学习特征的维数。不等式表明,随着类数的增加,类间余弦边的上界相应减小。特别是当类数远远大于特征维数时,余弦边界的上界会变得更小。
  • 更大的m∈[0,C / C−1)的合理选择应能有效促进高分辨力特征的学习。然而,在实际应用中,由于特征空间的消失,参数m通常无法达到理论上界。即根据对应类的权重向量将所有的特征向量集中在一起。实际上,当m太大时,模型无法收敛,因为cos约束(即两类cosθ1−m > cosθ2或cosθ2−m > cosθ1)变得更严格,难以满足。此外,m过大的余弦约束使得训练过程对噪声数据更加敏感。不断增加的m由于无法收敛而在某一点上开始降低整体性能。
  • 我们进行了一个玩具实验,以更好地可视化功能和验证我们的方法。我们从包含足够样本的8个不同的身份中选择人脸图像,以清晰地显示地块上的特征点。利用原始的软最大损耗和所提出的LMCL在不同的m设置下训练多个模型。为了简单,我们提取了人脸图像的二维特征。如前所述,m不应大于1−cosπ/4(约0.29),因此我们设置了三个m选项进行比较,分别为m = 0、m = 0.1和m = 0.2。如下图所示,第一行和第二行分别是特征在欧氏空间和角空间中的分布。我们可以看到,原始的softmax损失产生模糊的决策边界,而提出的LMCL更好。随着m的增加,不同等级之间的角度边界被放大了。

    对8个具有二维特征的恒等式进行了不同损失函数的玩具实验。第一行将二维特征映射到欧氏空间上,第二行将二维特征投影到角空间上。随着裕度m的增加,差距变得明显。

四、实验

4.1 实现细节
  • 预处理
    首先,利用MTCNN[16]对整组训练和测试图像进行人脸区域和地标检测;然后,利用面部的5个点(两只眼睛、鼻子和两个嘴角)进行相似性变换。然后,我们获得裁剪的面,然后调整大小为112 × 96。在[42,23]之后,RGB图像中的每个像素(在[0,255]中)通过减去127.5然后除以128进行归一化。
  • 训练
    为了与使用小训练数据集[17]的现有结果进行直接和公平的比较,我们在一个小训练数据集上训练我们的模型,该数据集是公开可用的CASIAWebFace[46]数据集,包含来自10,575名受试者的0.49万张人脸图像。我们还使用一个大型训练数据集来评估我们的方法的性能,以便与基准测试人脸数据集上的最新结果(使用大型训练数据集)进行基准比较。我们在本研究中使用的大型训练数据集由几个公共数据集和一个私人人脸数据集组成,包含来自90K多个身份的约5M张图像。训练面被水平翻转以增强数据。在我们的实验中,我们删除了出现在测试数据集中身份的人脸图像。
    为了公平比较,我们在工作中使用的CNN架构类似于[23],它有64个卷积层,并且基于残差单位[9]。根据经验将式(4)中的标度参数s设为64。我们使用Caffe[14]实现对损耗层的修改,并运行模型。CNN模型采用SGD算法进行训练,batch size为64,在8个gpu上。重量衰减设置为0.0005。对于小数据集的训练,初始学习率为0.1,在16K, 24K, 28k次迭代时除以10,在30k次迭代时完成训练过程。而在大数据集上的训练在240k次时终止,在80K次、140K次、200K次时初始学习率下降0.05。
  • 测试
    在测试阶段,将原始图像的特征和翻转图像的特征拼接在一起,构成最终的人脸表征。计算特征的余弦距离作为相似性评分。最后,通过阈值和评分排序进行人脸验证和识别。我们在几个流行的公共人脸数据集上测试了我们的模型,包括LFW[13]、YTF[43]和MegaFace[17,25]。
4.2 探索性实验
  • m的效果
    裕度参数m在LMCL中起着关键作用。在这部分我们进行实验调查的影响。通过改变m从0到0.45(如果m大于0.45,模型将无法收敛),我们使用小型训练数据(CASIA-WebFace[46])来训练我们的CosFace模型,并在LFW[13]和YTF[43]数据集上评估其性能,如下图所示。

    不同裕度参数的CosFace在LFW[13]和YTF[43]上的精度(%)
    如图所示,我们可以看到,没有边际(在这种情况下m=0)的模型导致了最差的性能。随着m的增加,两个数据集的精度都在不断提高,在m = 0.35时达到饱和。这说明了边缘m的有效性。通过增加边缘m,可以显著提高学习特征的鉴别能力。本研究在后续实验中将m设置为固定的0.35。
  • 特征归一化的影响
    为了研究我们方法中特征归一化方案的效果,我们在CASIA-WebFace上训练我们的CosFace模型并比较它们在LFW[13]、YTF[43]和Megaface Challenge 1(MF1)[17]上的性能。需要注意的是,未经归一化训练的模型由softmax loss初始化,然后由所提出的LMCL监督。比较结果见表1。很明显,在三个数据集上,使用特征归一化方案的模型始终优于没有特征归一化方案的模型。如上所述,特征归一化去除了基本的方差,并且学习到的特征可以在角空间中更有区别性。实验验证了这一点。

    在Megface Challenge 1 (MF1)上,我们的模型在特征归一化和不归一化的情况下进行了比较。“rank 1”是指排名1的人脸识别精度。“Veri”指的是10-6 FAR(错误接受率)下的人脸验证TAR(真实接受率)。
4.3 与最先进的损失函数进行比较
  • 在这一部分中,我们将所提出的LMCL的性能与最新的损耗函数进行了比较。在[23]中的实验设置之后,我们在CAISAWebFace[46]上使用[23]中描述的64层CNN架构,在提出的LMCL的指导下训练模型。LFW、YTF和MF1的实验对比见下表。为了比较公平,我们严格遵循模型结构(64层resnet - similar cnn)和SphereFace[23]的详细实验设置。

    比较提出的LMCL与最先进的损失功能在人脸识别社区。本表中所有的方法都使用相同的训练数据和相同的64层CNN架构
    从表中可以看出,与其他损失相比,LMCL在三个数据集中始终取得有竞争力的结果。特别是,我们的方法不仅超越了特征归一化的A-Softmax(表中称为A-Softmax- normfea)的性能,而且显著优于YTF和MF1上的其他损失函数,说明了LMCL的有效性
4.4 整体基准比较
4.4.1 LFW和YTF的评价
  • LFW[13]是一个标准的无约束人脸验证测试数据集。它包含了来自该网站5749个身份的13233张人脸图像。我们严格按照无限制标记外部数据[13]的标准协议对我们的模型进行评估,并对6000对测试图像报告结果。YTF[43]包含了1595人的3425个视频。一个视频剪辑的平均长度是181.3帧。所有的视频片段都是从YouTube上下载的。我们遵循不受限制的标签外部数据协议,并报告5000对视频的结果。
  • 如下表所示,所提出的CosFace在LFW和YTF上分别获得了99.73%和97.6%的最新结果。FaceNet在LFW上取得了亚军的表现,因为它的图像数据集规模很大,大约有2亿张人脸图像。就YTF而言,我们的模型在所有其他方法中居于首位。

    LFW和YTF数据集上的人脸验证(%)。“#Models”表示用于评估的方法中使用的模型的数量。
4.4.2 评价MegaFace
  • MegaFace[17,25]是最近发布的一个非常具有挑战性的大规模人脸识别和验证测试基准,它包含一个图库集和一个探针集。Megface的画廊由超过100万张人脸图像组成。探测集有两个现有数据库:Facescrub[26]和FGNET[1]。在这项研究中,我们使用Facescrub数据集(包含530名名人的106863张人脸图像)作为探针集,来评估我们的方法在Megaface Challenge 1 和 Challenge 2上的性能。
  • MegaFace Challenge 1 (MF1)
    在megface Challenge 1[17]上,该图片集包含了从Flickr photos[36]收集到的690K个人的超过100万张图片。下表总结了我们在MegaFace两种协议上训练的模型的结果,其中训练数据集小于50万张图像视为小数据集,否则视为大数据集。CosFace方法在两种协议的识别和验证任务中都显示了其优越性。

    MF1人脸识别与验证评估。“rank 1”是指排名1的人脸识别精度。“Veri”指的是10-6 FAR(错误接受率)下的人脸验证TAR(真实接受率)。
  • MegaFace Challenge 2 (MF2)
    在MegaFace Challenge 2[25]中,所有的算法都需要使用MegaFace提供的训练数据。Megface Challenge 2的训练数据包含470万张脸和672K个身份,与大型协议相对应。图库集有100万张不同于挑战1图库集的图片。毫不奇怪,我们的方法赢得了表5中挑战2的第一名,以很大的优势(排名1的识别准确性为1.39%,验证性能为5.46%)建立了一个新的最先进水平。

五、总结

  • 在本文中,我们提出了一种创新的LMCL方法来引导深度cnn学习高分辨的人脸特征。我们提供了一个良好的几何和理论解释来验证所提出的LMCL的有效性。我们的方法始终如一地在几个面基准上实现了最先进的结果。我们希望我们通过LMCL学习鉴别特征的实质性探索将有益于人脸识别社区。

人脸识别论文整理——深度人脸识别的大边缘余弦损失相关推荐

  1. 【CVPR 2018】腾讯AI lab提出深度人脸识别中的大间隔余弦损失

    论文导读] 深度卷积神经网络(DCNN)在人脸识别中已经取得了巨大的进展,通常的人脸识别的核心任务都包括人脸验证与人脸识别,涉及到特征判别.很多模型都是使用Softmax损失函数去监督模型的训练,但是 ...

  2. 利用深度学习进行交通灯识别_通过深度学习识别交通信号灯

    利用深度学习进行交通灯识别 by David Brailovsky 戴维·布雷洛夫斯基(David Brailovsky) 通过深度学习识别交通信号灯 (Recognizing Traffic Lig ...

  3. 深度人脸表情识别研究进展

    近年来,随着人工智能与人机交互技术的发展,人脸检测.对齐.识别技术的不断跟进,自动人脸表情识别由于其潜在的社交媒体分析和情感计算能力而成为了计算机视觉领域的热点研究话题,并在众多商业场景中有着巨大的应 ...

  4. 人脸识别技术介绍和表情识别最新研究

    点击上方"计算机视觉工坊",选择"星标" 干货第一时间送达 一.人脸识别技术介绍 人脸识别作为一种生物特征识别技术,具有非侵扰性.非接触性.友好性和便捷性等优点 ...

  5. 深度人脸识别:CVPR2020论文要点

    深度人脸识别:CVPR2020论文要点 Towards Universal Representation Learning for Deep Face Recognition 论文链接:https:/ ...

  6. 深度动态序列人脸表情识别——论文笔记

    原文已上传Deep Facial Expression Recognition: A Survey (IEEE) 人脸表情识别分为动态序列识别和静态图片识别,本文只与动态序列有关 这里也有一篇推送解析 ...

  7. 【论文学习】人脸识别——DeepFace:深度学习人脸识别开山之作

    大家好,从今天开始就要学习人脸识别相关的知识啦,以后也会分享这一类的文章.人脸识别,必不可少的是Facebook AI研究院的这篇. 论文:DeepFace: Closing the Gap to H ...

  8. AI 综述专栏 | 超长综述让你走近深度人脸识别

    来源:人工智能前沿讲习班 作者: 葛政 相信做机器学习或深度学习的同学们回家总会有这样一个烦恼:亲朋好友询问你从事什么工作的时候,如何通俗地解释能避免尴尬? 我尝试过很多名词来形容自己的工作:机器学习 ...

  9. 面部识别必看!5篇顶级论文了解如何实现人脸反欺诈、跨姿势识别等(附链接)...

    来源:新智元 本文约1800字,建议阅读5分钟. 本文筛选了5篇非常重量级的有关人脸识别的机器学习论文,并提炼出论文最关键的信息. [ 导读 ]面部识别是计算机视觉中最大的研究领域之一.许多公司都投资 ...

最新文章

  1. Linux CentOS7.0下JAVA安装和配置环境变量
  2. Java IDE鱼龙混杂,我们该如何选择呢?
  3. python中的del,remove,pop有什么区别
  4. 应用程序模块和实体缓存
  5. Theano3.7-练习之堆叠消噪自动编码器
  6. Redis(3-3):列表类型
  7. java vector 多线程_如何使用vector解决多线程问题(java)
  8. mysql更改执行计划_11g中 connect by 语句执行计划改变
  9. 锤子科技 php 面试,面试没通过 锤子新品遭面试者曝光
  10. www请求用到的Unescape
  11. numpy系列之拷贝和视图
  12. 我的海淀驾校考驾照之路
  13. 纯css3动画实现奔跑的小人
  14. Unity中实现解析XML文件
  15. typedef void far *LPVOID 的具体定义
  16. 什么是美国能源之星计划?
  17. Android 对于外部TF(SD)卡和U盘的读写操作
  18. 5G NR Polar码系统编码和非系统编码(二)
  19. GIS空间分析 数字地形分析2 基本地形因子的提取
  20. 斗鱼直播项目(已开源)

热门文章

  1. Linux:解压bz2文件
  2. DOS命令批处理 及 硬盘修复
  3. linux下 C语言perror函数的作用
  4. (一)LAMP (CGI,fastcgi, PHP,基于php的LAMP架构,php连接数据库)
  5. 百度权重怎么查询?哪里可以查询百度权重?
  6. Ubuntu18.04安装详细教程
  7. CSS gradient渐变之webkit核心浏览器下的使用
  8. 解决Word2010中插入图片时变成空白框问题
  9. 尚硅谷+黑马程序员MongoDB视频学习笔记(一)
  10. 大数据分析6个核心技术