Joint Pose and Expression Modeling for Facial Expression Recognition

Abstract

面部表情识别是一项具有挑战性的任务,因为在任意的姿态下表情会发生变化。大多数传统的方法要么在非正面的面部图像上进行正面化,要么为每个姿势学习单独的分类器。与现有的方法不同,本文提出了一种利用不同姿态和表情联合进行人脸图像合成和位置不变人脸表情识别的端到端深度学习模型。该模型基于生成式对抗网络,具有许多优点。首先,该生成器的编码器-解码器结构可以学习生成式和鉴别式的人脸图像身份表示。其次,通过表达式和位姿码显式地将身份表示从表达式和位姿变化中分离出来。第三,我们的模型可以在任意姿态下自动生成不同表情的人脸图像,扩大和丰富FER的训练集。对受控数据集和野外数据集的定量和定性评估表明,该算法的性能优于最先进的方法。

1. Introduction

面部表情识别(FER)是计算机视觉中最重要的任务之一,在心理学、医学、安全、数字娱乐、驾驶员监控等众多应用中起着至关重要的作用[41,5,14,6,3]。FER的主要挑战是解释人类面部的巨大外观变化。尽管近年来取得了很大的进展,但在姿态变化、无约束面部表情、光照变化和训练数据不足等具有挑战性因素的场景中,如何开发鲁棒算法来识别面部表情仍然是一项艰巨的任务。

面部表情识别的目的是分析和分类一个特定的面部图像的几种情绪类型。例如,愤怒,厌恶,恐惧,快乐,悲伤和惊讶[9]。为了实现这一目标,近年来文献中提出了许多FER[28,21,27]算法。在现有的人脸识别方法中,大部分是基于正面或近正面的人脸图像,而非正面或野外的人脸表情识别问题还没有得到很好的研究。与额叶FER相比,非额叶面部图像的表情识别具有挑战性,因为它需要处理面部遮挡、准确的非额叶面部对齐、准确的非额叶面部点定位等问题,如图1所示。因此,在所提出的各种方法中,只有一小部分算法解决了这个具有挑战性的问题[62,10,58]。与现有的方法不同,我们关注于位置不变的FER,即通过识别或授权在任意姿态下捕捉的面部图像来执行FER。因此,它更具有挑战性,更适用于实际场景。然而,要执行如图1所示的位置不变FER并不容易。这里的主要挑战是对由于头部姿态引起的刚性面部变化和由于表情引起的非刚性面部变化进行解耦,因为它们在二维图像中是非线性耦合的[66]。其中,头部的刚性转动导致了自闭,即面部表情识别信息缺失。此外,随着姿态的变化,人脸纹理的形状也会发生非线性的扭曲,严重混淆了人与人之间的纹理差异。这就需要对头部姿态进行联合分析和面部表情。然而,这仍然是一个重大的研究挑战,主要是由于面部表情在不同姿势下的外观变化很大,而且很难将这两个变化来源分离开来。为了解决上述问题,传统的方法通常有三个不同的视角:(1)提取后边缘特征作为面部表情表征,使用传统的分类器进行识别。(2)在进行位置不变FER之前进行位姿归一化。(3)学习每个特定姿势的多个分类器。这些方法的成功可以在很大程度上归因于作为分类器输入的特征表示的质量。大多数方法是进行古典手工视觉特性,如局部二值模式(LBP)[64],直方图的面向梯度(猪)[11],和scaled-invariant特性变换(筛选)[46],表达能力有限,可能不能处理非线性引起的面部纹理扭曲的挑战姿态变化(2、8)。

近年来,深度网络在图像分类[24]、目标检测[11]、分割[34]、位姿估计[33]等一系列视觉任务中得到了成功的应用。受深度网络成功的启发,一个直观的想法是通过深度学习来学习FER的语义特征。然而,深度模型需要使用足够的标记数据[23]进行训练。因此,创建任何这样的图像分类系统的第一步是收集足够的带注释的数据,其中每个图像都标记了正确的类别。对于位置不变的FER,公开可用的数据集通常包含非常有限的标记样本。如表1所示,有三个标准基准测试。野外静态面部表情(SFEW)数据集[7]仅包含700张图像(包括训练和测试),而多饼[13]包含7655张图像(5个姿势和6个表情)。

2. Related Work

在这一节中,我们主要讨论与面部表情识别和生成对抗网络相关的方法。

面部表情识别。人们对识别面部表情进行了广泛的研究[30,5,54] 现有的方法主要是研究六种基本情绪的表达,包括高兴、悲伤、惊讶、恐惧、愤怒和厌恶,因为它们在我们的情感生活中有显著的参考表现,并且有相关的训练和测试数据[53]。一般来说,学习系统主要包括两个阶段:、特征提取和表情识别。在第一个阶段,从面部图像中提取特征来表征由目标表情激活引起的面部外观/几何形状变化。根据特征是通过人工设计的描述符提取还是通过深度学习方法提取,可以将特征分为工程特征[10,62,40]和基于学习的特征[14,18,21,27]。对于工程特性,可以进一步分为基于纹理的局部特性、基于几何图形的全局特性和混合特性。基于纹理的特征主要包括SIFT[62]、HOG[11]、LBP直方图[64]、Haar特征[45]、Gabor小波系数[49]。基于几何的全局特征主要基于眼睛、嘴巴和鼻子周围的地标点[37,38]。混合特征通常是指结合两个或两个以上的工程特征[10]的特征。基于学习的特征基于深度中立网络[27,36]。毫不奇怪,几乎所有的模型都使用了某种形式的无监督预训练/学习来初始化它们的模型。这主要是由于标记数据的缺乏导致过拟合问题使得作者无法训练出完全监督的模型。解决这个问题最直接和有效的方法是手工标记更多的数据。然而,对于任意姿态的FER来说,可能是不可行的。在特征提取后的下一阶段(表情分类),将提取的特征输入监督分类器,如支持向量机(Support Vector Machines, SVMs)[16]、softmax[18]、logistic回归[36],训练针对目标表情的面部表情识别器。与现有的方法不同,我们使用了一种变化的GAN来自动生成具有不同表情和姿态的面部图像。此外,我们的分类器在端到端框架中使用GAN进行训练。

生成对抗的网络。在[12]中,Goodfellow等人介绍了生成式对抗网络(GAN)。他们训练生成模型通过一个目标函数,实现了一个极大极小双方博弈之间的鉴别器D -一个函数从假目标分辨真正的输入数据和发电机G -函数优化生成输入数据(噪音)傻瓜鉴别器。通过这个游戏,发生器和鉴别器都可以提高自己。具体来说,D和G用一个值函数V (D, G)进行博弈

这两个部分,G和D,交替训练。GAN最大的问题之一是训练过程不稳定,生成的图像常常是嘈杂和难以理解的。CGAN[31]是GAN[12]的扩展,其中G和D接收另一个变量y作为输入。CGAN的目标函数可以改写为:

该模型允许发生器输出由y控制,并且在过去的三年中,已经从不同的角度提出了几种方法[4,65,55,25,29]来改进原有的GAN。例如,DCGAN[35]分别采用反卷积神经网络和卷积神经网络来实现G和D。它还提供了关于如何建立一个稳定的GAN的经验指导,例如,用跨步卷积代替池和使用批处理归一化。较新的方法侧重于合并生成器的输入数据约束或利用侧信息进行更好的综合。例如,Mirza和Osindero[31]将类标签提供给G和D,以生成基于类标签的图像。Springenberg[44]和Luan等人。[50]对GAN进行了推广,学习了一种有区别的分类器,其中D经过训练不仅可以区分真假,还可以对图像进行分类。不同于[31,44]的方法,我们的模型可以通过使用表达式和姿态变化的编码来显式地分离身份表示。与[50]相比,[50]生成的图像只受一个鉴别器的限制,我们引入了另一个鉴别器和一个内容相似度损失,使生成的面部图像看起来像输入。

3. Proposed Method

在这一节中,我们首先简要介绍了所提出的同时进行人脸图像合成和位不变变换的网络。然后我们描述了学习过程,并展示了与现有模型的不同之处。

3.1. Joint Pose and Expression Modeling for FER

我们提出一种端到端的学习模型,利用不同的姿态和表情来进行同时的人脸图像合成和位置不变的人脸表情识别。我们的模型架构如图2所示,其中包含一个生成器、两个鉴别器和一个分类器。

图2。该模型的总体结构包括一个发生器G、两个鉴别器Datt和Di以及一个分类器以表情和姿态码e和p为条件,在任意姿态下生成不同表情的人脸图像,扩大和丰富FER任务的训练集。

1、在将图像传入模型之前,我们首先使用具有68个地标[52]的lib人脸检测算法进行人脸检测。在预处理之后,我们将人脸图像输入一个编码-解码器结构的生成器G来学习一个身份表示。具体来说,Genc学习从输入图像到标识特征表示f(x)的映射。然后将表示与表情和姿态码e和p连接起来给Gdec换脸。通过极小极大二人游戏,在发生器G和鉴别器之间D,我们可以通过在解码器的输入中添加相应的标签,得到具有不同姿态和表情的新的标记面部图像。这里,我们使用了一个包含Datt和Di的双重鉴别器结构。Datt的作用是学习分解表示,Di的作用是提高生成图像的质量。人脸图像合成完成后,使用Cexp分类器执行我们的FER任务。我们对分类器采用了一种深度建模的方法,该方法保证了在每一层中,特征对干扰因素的不变性越来越强,同时保持了与面部表情识别任务相关的鉴别信息。

3.2. Learning

给定一个面部图像标签x和y ={ye,yp},ye代表的标签为表情和yp姿势,我们的学习问题是三倍的目标:(1)合成x面部图像与相应的表情和姿势标签指定的表情和姿势规范e和p。(2) 用生成的图像x和输入x训练一个位置不变的FER分类器(3) 通过内容相似度损失来保留身份表示。接下来我们将详细介绍它们。

Generator G and Discriminator Datt. 鉴频器的Datt区分“假”图像发生器产生的xˆG,和“真实”的图像从输入图像x。我们表示训练数据的分布为Pd (x)。条件表达式和姿势标签y,它可以帮助发生器G学习理清表示从面部图像改变的姿态和表情,但保留身份,这是有用的对我们带任务,因为当我们产生新的面部图像,我们只是想修改输入x的面部表情和姿势但是不影响人的身份。利用条件y(表情和姿态)训练属性分离、Datt和G的鉴别器:

Generator G and Discriminator Di. 鉴频器的Di对标识表示f(x)施加均匀分布,有助于平滑姿态和表情转换。这里,f(x)是来自Genc的标识。假设先验(f)是一个先验分布,并且f Prior(f)表示来自先验(f)的随机采样过程。一个最小-最大目标函数可以用来训练G和Di:

Classifier Cexp. 分类器Cexp是一个特定于任务的损失。在生成的情况下,可以用来补偿生成器的损耗,有利于提高原生成器的性能。:在分类的情况下,它试图对表达式进行分类。我们使用一个典型的softmax交叉熵损失的分类器:

Content-similarity loss. 内容相似度损失试图确保输出面部与输入面部图像x(在训练期间)共享表情、姿势和身份表示。因此,输入和输出预计将面临类似的作为(6)表示,在L(:,:)表示ℓ1规范。

The Objective Function. 最后,考虑上述因素,定义目标函数如式(7)所示

TV (.)表示有效去除重影伪影的总变化量。系数α,β平衡平滑度和高分辨率。通过(3)、(4)、(5)、(6)依次对网络进行更新,最终得到位置不变的FER模型。

3.3. Discussion

在本节中,我们展示了所提出的模型与三种最相关的GAN模型的区别,包括抗扰自编码器(AAE)[29]、解纠缠表示学习GAN (drr -GAN)[50]和条件抗扰自编码器(CAAE)[59]。(1)在AAE[29]中,G是一个自动编码器的编码器。为了将自编码器转换成生成模型,AAE有两个目标:自编码器重构输入图像,编码器生成的潜在向量通过训练D匹配任意先验分布。与AAE不同的是,我们的方法可以利用表达式和姿态变化的编码来显式地分离身份表示。(2) DR-GAN[50]对GAN进行推广,学习一种判别分类器,训练D不仅能区分真假图像,还能将真实图像分成K类。它是一种基于变分自编码的方法,主要用于人脸识别任务的解纠缠表示学习。与DR-GAN不同的是,由于训练样本是人脸表情识别的主要瓶颈,本文提出的模型主要用于生成更多的标记人脸图像来训练FER的深度网络分类器。此外,我们将表情和姿态从人脸图像中分离出来,并引入一个分离的分类器进行表情识别。(3)CAAE[59]扩展了对抗式自动编码器(AAE)来生成不同年龄的人脸图像。与此不同的是,我们的模型在网络中嵌入了一个分类器,可以使生成的人脸图像与输入的真实人脸图像具有相同的表情。

4. Experimental Results

在这一部分,我们展示了我们的人脸图像合成和位置不变面部表情识别模型的实验结果。对于前一个任务,我们展示了在不同姿态和表情下生成的面部图像的定性结果。对于后者,我们使用生成的和原始的面部图像定量评估表情识别性能。

4.1. Datasets

为了证明该模型的有效性,我们在三个标准数据集上进行了广泛的实验,包括(1)多饼[13]:公共多姿态面部表情数据集,(2)BU-3DFE[51]:三维面部表情数据集,(3)SFEW[7]:野外数据集中的静态面部表情数据集。具体情况如下。

Multi-PIE: Multi-PIE用于评估在控制环境下的姿态和光照变化下的面部表情识别。根据[10]的设置,我们使用了270名受试者的图像,这些图像描绘了中性(NE)、厌恶(DI)、惊讶(SU)、微笑(SM)、尖叫(SC)和斜视(SQ)的面部表情,分别以30、15、0、15和30个平移角度捕捉,每个姿势产生1531张图像。因此,我们总共有1531X 5 = 7655张面部图像用于我们的实验。我们在多饼图上执行五次独立的主题交叉验证。因此,训练数据集包含6124张面部图像,而测试数据集包含1531张面部图像。我们使用生成的图像和原始图像来训练分类器,其总数为6124 5 6+6124=189,844。

BU-3DFE: buo - 3dfe是一个三维面部表情数据集,有100名受试者,有三维模型和面部图像。它包含了七种面部表情:愤怒(AN)、厌恶(DI)、恐惧(FE)、快乐(HA)、悲伤(SA)、惊讶(SU)和中性(NE)。除了中性表达外,这六种原型表达中的每一种都包含四个强度等级。设置之后[46、47、48,17],我们呈现二维人脸图像在第四级别3 d模型的强度,六个通用的面部表情(迪,一个铁、HA、SA、苏),和35姿势包括7盘角度(30 0,15日,45)和5倾斜角度(30)0,15日)。因此,我们总共有100 6 35 1 = 21000张面部图像用于我们的实验。我们将100名受试者随机分为80名受试者的训练集和20名受试者的测试集,以保证训练受试者和测试受试者之间没有重叠。结果,训练集包含16800张面部图像,而测试集包含4200张面部图像。

SFEW: SFEW是一个包含95个对象的野外数据集。它由700张从电影中提取的图像(集合1中的346张,集合2中的354张)组成,这些图像涵盖了不受约束的面部表情、不同的头部姿势、变化的照明、大的年龄范围、不同的面部分辨率、遮挡和不同的焦点。这些图片被贴上了愤怒(AN)、厌恶(DI)、恐惧(FE)、快乐(HA)、悲伤(SA)、惊讶(SU)和中性(NE)的标签。我们使用这个数据集进行交叉数据集实验。我们在BU-3DFE上对模型进行训练,并在SFEW上进行测试。具体来说,我们在Set 1中生成了不同姿势和表情的面部图像。因此,我们总共有346+ 346 7 35 = 85,116个训练样本。然后我们使用这些图像来训练一个具有与多饼和BU-3DFE相同结构的分类器。

4.2. Implementation Details

我们根据图2构建网络。我们首先使用具有68个地标[52]的lib人脸检测算法裁剪出人脸,并将其大小调整为224×224。然后将图像强度线性缩放到[- 1,1]的范围。为了稳定培训过程,我们基于CAAE[59]中的技术设计了G、Datt和Di的网络架构。具体来说,G是一个没有批处理归一化的卷积神经网络,包括由解纠缠的身份表示f(x)桥接的Genc和Gdec, f(x)是网络中全连接层的输出。具体来说,G是一个没有批处理归一化的卷积神经网络,包括由解纠缠的身份表示f(x)桥接的Genc和Gdec, f(x)是网络中全连接层的输出。然后将f(x)与表情代码e和位姿代码p连接起来,这是一个单热向量,目标表达式ye和位姿yp为1。一系列的分数阶卷积(FConv)[35]将拼接后的向量变换成与x相同大小的合成图像x = G(x, ye, yp)。训练Dimg和Df对目标函数(3)和(4)进行优化,在鉴别器Dimg和Df中,对每个卷积层进行批量归一化处理。我们采用VGGNet-19网络[43]作为分类器Cexp。使用生成的图像x和原始图像x进行训练,优化目标函数(5)。使用TensorFlow[1]实现模型,使用ADAM optimizer[22]进行训练,学习率为0.0002,动量为0.5。所有的权值都是从以0为中心的正态分布,标准差为0.02。我们建筑的细节包含在补充材料中。

4.3. Quantitative Results

4.3.1 Experiments on the Multi-PIE Dataset

每个面部表情和每个姿态的整体表现如图3(a)和图3(b)所示。图3(b)中最后一根条形图显示,FER的平均准确率为91.80%。从图中可以看出,在这6个表达中,有4个表达(SC, SM, SU, NE)的准确率高于91.5%。我们的模型的具体表现在图4(a)中的混淆矩阵中,从中我们可以看到两个最容易被混淆的表达是厌恶和斜视。这种混淆可能是由于这两种表情在眼部周围有类似的肌肉变形。

然后,我们通过将我们的方法与当前最先进的方法(包括kNN、LDA、LPP、D-GPLVM、GPLRF、GMLDA、GMLPP、MvDA和DS-GPLVM)的性能进行比较来评估我们的方法。表2总结了所有视图的详细结果。在最后一列中报告了平均FER准确性。结果清楚地表明,我们的方法比现有的所有方法在FER准确性方面提高了15.65%到1.2%。注意,所有其他模型都不能在正面视图中获得良好的性能。然而,我们的模型可以显著地提高具有任意姿态和表情的生成图像的性能。

我们也比较了我们的方法与由不同数量的生成图像训练的模型。给定原始的N张图像,我们可以得到5到6张生成的图像。评估训练数据的影响大小,我们随机选择0 N, N 1, 5 N, N, 10 15 N, 20 N图像生成的面部图像在每个培训时代,然后将它们与原图像训练分类器,其中0 N意味着分类器训练只使用原始图像。具体来说,我们将它们表示为0N、1N、5N、10N、15N、20N。不同训练样本的总体性能如图5所示。很明显,我们的模型取得了最好的结果,此外,我们还发现FER的平均精度可以随着训练样本数量的增加而提高,这进一步说明了生成更多标记训练样本的必要性。

4.3.2 Experiments on the BU-3DFE Dataset

结果如表3所示。最右边的一列表示不同视图的平均识别错误率(共35个视图),最下面的一行表示不同面部表情的平均识别错误率(共6个通用面部表情),右下角的单元格表示平均总体识别错误率。结果表明,该方法的识别正确率达到了81.20%。此外,在这六种表情中,惊讶和快乐更容易被识别,正确率超过89%。这很可能是由于这两种表情的肌肉变形相对较大。此外,恐惧是最难识别的表情,最低为67.30%,其次是悲伤。在图4(b)中,我们用我们的方法给出了人脸表情识别的混淆矩阵。人们可以把恐惧表现不佳的一个原因解释为它与幸福混淆了。这与摩尔和鲍登在《[32]》杂志上的发现不约而同。两位作者指出,这种困惑是由于恐惧和快乐的表情在嘴巴周围有类似的肌肉变形。此外,另外两个容易混淆的表达是悲伤和愤怒。这两种表情的面部运动最少,因此很难区分。

表3。结果对BU-3DFE数据集的识别率(%)。最左边的一列表示不同的视图(以角度x、y表示平移和倾斜角度),最上面的一列表示不同的面部表情。最高的精度以粗体突出显示。

然后我们将我们的方法与文献[63,32,62,58,46,47,48,17]中先前发表的8种方法进行比较。具体来说,这些方法[63,32,62,58]对包含5个平移角的相对较小的离散位姿进行FER。算法[46,47,48,17]使用具有35个姿势的面部图像来训练他们的模型,这与我们的是一样的。除了[58],所有其他的方法都用工程特征训练他们的模型,比如LBP [32, 62, 17], SIFT[62, 46, 47, 48],和几何特征(83个地标点)[63]。在[58]中,SIFT特征作为DNN的输入来学习特征。在这里,对每个步骤分别训练模型。与此方法不同,我们的方法是端到端学习模型。各模型的精度如表4所示。平均FER准确度在表的最后一列中报告。可以看出,我们的模型的平均识别准确率达到了81.20%。

仔细看看这张表显示,尽管方法(63年,32岁,62年,58)培训/测试少量的离散姿势只包含平移旋转,我们的方法也是竞争结果通过这些方法与带精度提高了1.1%到15.2%。外,与其他方法[46,47,48,17]相比,本文提出的模型也获得了最佳的精度(比其他方法高出2.56%至5.9%)。这可能归因于特征学习,它可以较好地处理了姿态和个体差异引起的非线性面部纹理扭曲。

4.3.3 Experiments on the SFEW Dataset

最后,我们在一个更具挑战性的数据库SFEW上对我们的方法进行了评估。由于该数据集中的训练样本不足,我们采用了跨数据集实验。特别地,我们首先在BU-3DFE数据集上使用35个姿态和7个表达式(AN、DI、FE、HA、SA、SU、NE)训练生成的模型。然后对SFEW数据集中的Set 1图像生成相应的人脸图像。最后,我们在生成的图像和原始图像上训练分类模型,并在Set 2上进行测试。

我们将我们的方法与之前发表的五种方法[7,19,42,10]进行比较,其中包括数据集创建者获得的基线,以及其他四种最先进的方法。不同方法得到的各表达式的详细结果如表5所示。平均FER准确度在表的最后一列中报告。下表的结果进一步证明了这项任务的难度,我们发现所有方法的准确性都有显著下降。总的来说,我们的方法在FER准确性方面的改进从1.88%到7.68%,超过了所有现有的方法。这可能是由于生成的人脸图像,可以帮助学习识别特征,更好地处理姿态和个体差异造成的非线性面部纹理扭曲。

4.4. Qualitative Results

我们模型的定性结果如图6所示。我们从测试集中随机选择一个面部图像,它显示在粉红色的矩形中。生成的不同表情(每一列)和姿势(每一行)的面部图像显示在橙色矩形中。绿色矩形中的图像是地面真相。通过将生成的图像与地面真实值进行对比,可以看出,所提出的模型保留了人格特征,并将属性(表达式和姿态)联合建模到身份表示中,如图中红色矩形所示。由于篇幅有限,在补充资料中更多的是定性结果。

5. Conclusion

提出了一种同时进行人脸图像合成和位置不变人脸表情识别的端到端学习模型。通过将属性(表情和姿态)从人脸图像中分离出来,可以生成任意表情和姿态的人脸图像,帮助训练深度中立分类模型。在三个标准数据集上的实验证明了该模型的有效性。在未来,我们将考虑图像中的其他方面来进行人脸图像合成,如光照、遮挡等[56,57]。该模型具有通用性,可应用于人脸识别、图像分类、音频事件识别等其他分类任务中。

Joint Pose and Expression Modeling for Facial Expression Recognition 论文翻译相关推荐

  1. Towards 3D Human Pose Estimation in the Wild: a Weakly-supervised Approach论文翻译

    论文地址:https://arxiv.org/abs/1704.02447 code:https://github.com/xingyizhou/pytorch-pose-hg-3d Towards ...

  2. Joint Discriminative and Generative Learning for Person Re-identification 论文翻译

    Joint Discriminative and Generative Learning for Person Re-identification 概要 介绍 相关工作 方法 生成模块 自我身份生成(s ...

  3. Psi-Net: Shape and boundary aware joint multi-task deep network for medical image segmentation(论文翻译)

    用于医学图像分割的形状和边界感知联合多任务深度网络 论文地址:https://arxiv.org/pdf/1902.04099.pdf ( 类似于U-Net网络encoder和decoder结构,其中 ...

  4. 人脸表情系列——人脸表情识别(Facial Expression Recognization/FER)

    最近看了几篇关于表情识别的论文,稍微记录一下. 综述推荐一篇CVPR2019的:Deep Facial Expression Recognition: A Survey 基于深度学习的表情识别流程为: ...

  5. 表情识别综述论文《Deep Facial Expression Recognition: A Survey》中文翻译

    本篇博客为论文<Deep Facial Expression Recognition: A Survey>的中文翻译,如有翻译错误请见谅,同时希望您能为我提出改正建议,谢谢! 论文链接:h ...

  6. [论文阅读] ICCV2015 Joint Fine-Tuning in Deep Neural Networks for Facial Expression Recognition

    Joint Fine-Tuning in Deep Neural Networks for Facial Expression Recognition 论文链接:https://ieeexplore. ...

  7. Pyramid With Super Resolution for In-The-Wild Facial Expression Recognition

    论文翻译 摘要 一.介绍 Ⅱ.金字塔超分辨率(PSR)网络 A.STN块 B.缩放块 C.LOW AND HIGH-LEVEL FEATURE EXTRACTOR D. FULLY CONNECTED ...

  8. 【论文阅读】面部表情识别综述(2018年)(Deep Facial Expression Recognition: A Survey)

    论文地址:https://ieeexplore.ieee.org/abstract/document/9039580 百度网盘地址:https://pan.baidu.com/s/1A8NKT_wz4 ...

  9. 论文学习-Non-Contact Emotion Recognition Combining Heart Rate and Facial Expression for Interactive Gami

    Non-Contact Emotion Recognition CombiningHeart Rate and Facial Expression for Interactive Gaming Env ...

最新文章

  1. Apache Spark机器学习.1.7 机器学习工作流示例
  2. mongodb java 学习_《 mongodb 学习 》java 基本操作
  3. 【完整版】当大师遇到了理工男,只能吐血了...
  4. 【题解】HAOI2007分割矩阵
  5. Flume实战监听文件夹内文件变化
  6. 班级的每日作业和任务目标
  7. 漫步数理统计十七——条件分布与期望
  8. 公开课精华 | 无人驾驶中感知的挑战与尝试
  9. SpringMVC 环境搭建
  10. PHP程序无法设置cookie
  11. 用pygame实现打飞机游戏-2-检测键盘
  12. 黑客编程学习_1.黑客编程入门
  13. 免费的Access数据库员工管理系统下载-IT技术网站 企业人员管理系统源码
  14. 【Unity3D】资源文件 ③ ( Unity 资源包简介 | 导出 Unity 资源包 | 导出资源包的包含依赖选项 | 导入 Unity 资源包 | Unity 资源商店 )
  15. Python与MySQL交互——简易用户注册登录
  16. 【博文笔记】Attentive Reader\Impatient Reader:机器阅读理解之开山之作Teaching Machines to Read and Comprehend
  17. C#开发自动照片(图片)裁剪(缩放)工具
  18. 深度学习论文-DAnetExFuseDFN
  19. Mozilla 开源稍后阅读应用 Pocket 代码
  20. jQuery添加插入元素技巧

热门文章

  1. 三分钟简单阐释计算机发展史,致写文案的你:三分钟快速看完这本书的精髓
  2. Vue基础语法知识(自用,完整版)
  3. 国外有python专业的大学_有哪些国外大学非常容易申请?
  4. HUD - 1873
  5. 万字长文之spring的整合
  6. 360全景摄影的逆光问题如何解决?
  7. Win10如何用微软账户自动登录电脑
  8. 数据结构 ADT例子
  9. 罗技G304接收器无反应问题,现象及解决方法
  10. 九度OJ—题目1066:字符串排序