4DME: A spontaneous 4D micro-expression dataset with multimodalities
摘要
微表情(ME)是一种特殊的面部表情形式,当人们出于某些原因试图隐藏自己的真实情感时,可能会出现这种表情。微电影是揭示人们真实情感的重要线索,但普通人很难或不可能用肉眼捕捉到,因为它们非常简短和微妙。预计可以开发鲁棒的计算机视觉方法来自动分析需要大量ME数据的ME。目前的ME数据集不足,并且大多只包含一种2D彩色视频。对普通面部表情的4D数据的研究已经蓬勃发展,但到目前为止,ME研究中还没有4D数据。在当前的研究中,我们引入了4DME数据集:一个新的自发ME数据集,包括4D数据以及其他三种视频模式。在4DME中标注了微观和宏观表达片段,并标注了22个AU标签和五类情感标签。使用三种基于2D的方法和一种基于4D的方法进行实验,以提供基线结果。结果表明,4D数据可能有助于ME识别。4DME数据集可用于开发基于4D的方法,或探索未来ME分析任务中多个视频源(例如,纹理和深度)的融合。此外,我们还强调了为未来ME数据收集研究形成清晰统一的ME注释标准的重要性。本文列出并深入讨论了与ME注释相关的几个关键问题,特别是AU与ME情绪类别之间的关系。提出了初步的AU-Emo映射表,并给出了合理的解释和支持性实验结果。还总结了一些尚未解决的问题,供今后的工作参考。
1引言
面部表情识别ACIAL表情是人们传达的一种主要形式。自从Picard在她的书[1]中提出情感计算的概念以来,20多年来,ACIAL表达一直是计算机视觉领域的热门研究课题。然而,并不是所有的情绪都会在所有的场合表现在脸上,普通的面部表情只能让我们在粗糙和肤浅的层面上理解情绪。在某些情况下,人们可能出于某种目的故意隐藏自己的真实情绪,例如为了避免不良后果或欺骗。有一种特殊的面部表情形式,即微表情(ME),当人们试图抑制自己的自然面部表情但失败时,可能会发生微表情,其中一些会泄露出来,并以ME的形式短暂显示。对ME的研究起源于20世纪60年代的心理学[2],大约十年前才引起计算机视觉领域的关注。与普通面部表情(也称为大表情)相比,微表情要短得多,即1/25到1/2秒(精确的长度定义有所不同[3],[4],但“不超过1/2秒”通常是一致的),而且动作的强度非常细微[5]。
自动ME分析的主要动机是作为一种转瞬即逝的细微运动,普通人很难用肉眼感知ME[6],预计计算机算法将有助于捕捉和识别MEs,并允许机器在更精细的层次上解释人类情绪。普通面部表情识别和ME识别之间存在相似之处,但ME分析的任务面临一些特殊挑战:1)缺乏数据,因为诱导和标记是困难和耗时的,这都需要专业知识;2) 有争议的数据分类;3) 强度极低的简短动作,这使得识别任务变得困难。我们是最早研究这些ME挑战的小组之一,并于2011年收集了第一个自发的ME数据集,即SMIC[7]。在接下来的十年中,建立并共享了其他几个ME数据库,包括CASME[8]、CASME II[9]、CASME2[10]、SAMM[11]、MEVIEW[12]和MMEW[13],它们是迄今为止该研究课题进展的支柱。
然而,当前ME数据库有几个限制。1). 每个数据集的大小相对较小,例如几百个ME样本。这主要是由于在诱导和收集MEs样本方面存在巨大困难,以及注释所需的巨大努力。可以说,开发先进的自动ME分析方法需要更多的数据,尤其是在使用通常需要数据的现代机器学习模型时。这导致了第二个问题,即2)不同数据集之间的ME标记标准不明确且不一致,这使得数据合并变得困难。尽管研究人员依赖面部动作编码系统(FACS)用于标记动作单元(AU),但对于AU(或AU组合)到ME情感类别的映射没有明确的规则;3). 当前的ME数据集缺乏数据多样性,即大多数数据集只包含一种形式的视频,即2D、高速彩色正面视频(SMIC除外,SMIC也包含近红外视频)。单调的数据格式限制了现有MEs方法的应用,这些方法仅在完全正面起作用,而在近正面或侧面完全失效。另一方面,由于缺乏4D数据,无法对ME的3D动力学进行基础研究。与4D ME中的情况不同,有几种用于普通面部表情的大规模多模态4D数据集。
与传统2D视频相比,动态3D视频(此后称为“4D”)可以提供更丰富的信息,以促进基于计算机视觉的分析。随着近年来3D成像技术的快速发展,现在可以以高帧率记录和重建高保真的3D面部视频。包含4D数据的普通面部表情数据集的数量正在增加,例如BP4D自发性[17]、BP4D+[18]和4DFAB[19]数据集。因此,已经提出了几种利用4D输入或特征进行面部表情识别的方法,例如动态几何图像网络(DGIN)[20]、协作跨域动态图像网络(CCDN)[21]和多视图变换器(MiT)[22]。
一般来说,4D数据可以在以下方面促进面部表情识别的任务。首先,可以在任意视图中将4D面部数据渲染回图像空间,这可以帮助缓解传统2D视频中的自遮挡问题(例如,面部运动位于面部的不可见侧)。其次,4D数据还允许将颜色和纹理信息与深度或3D形状信息相结合,这对于处理头部运动和照明变化引起的问题非常有帮助。
与普通的FE识别相比,ME识别是一项更具挑战性的任务,因为ME更细微,通常只涉及单侧运动,例如,面部一侧略微凸起的外眉,这在2D视频中可能完全不可见,但在4D序列中可见(因为我们对面部进行了耳对耳重建)。4D数据可以为探索基于4D的方法提供可能性,以实现ME分析的更稳健性能。
同时,还注意到4D数据有其自身的特殊挑战,例如,重建过程中引入的伪影,这可能会阻碍对微小运动的分析。因此,我们不能简单地假设现有的基于4D的FE识别方法也能很好地用于ME识别,并且需要在ME的4D数据上开发和测试特殊方法。
在本文中,我们推进了自动4D ME分析的研究,其贡献如下:
1)引入了一个新的4D ME数据集,该数据集包含传统2D灰度视频、RGB视频、深度视频和自发ME的4D视频的多种模式。提供了五类情感标签和22个AU标签。
2) 讨论了ME标记的几个问题,特别是动作单元(AU)标记与ME情绪类别的关系。总结并提出了用于ME标签初步的“AU-Emo”的关联表。
3) 我们评估了在4DME数据集上进行ME识别的多种方法,包括基于2D的方法和基于4D的方法。初步结果表明,基于4D的方法具有优势。这些结果可以作为未来比较的基准。
我们相信,这项研究不仅可以通过提供一个新的ME数据集,还可以通过初始化和促进讨论来澄清ME分类及其与AU的关系,从而为未来的ME数据标记和融合提供更明确的规则。
2相关工作
2.1 ME数据集

一个领域的研究方法的进展在很大程度上取决于可用的数据集。与普通面部表情研究领域不同,在该领域中有许多不同形式的大规模数据集可用(例如,CK+[23]和BP4D[17]),当前公开发布的ME数据集仍然有限。
一个主要的挑战是,ME很难诱导,最早的ME数据集是模拟的,包括Polikovsky的数据库[24]和USF-HD[25],这些数据是通过要求参与者动作或模仿快速面部表情收集的。当ME识别的主题被新引入到计算机视觉领域,并且没有可用的数据时,所提出的数据集在最早阶段是有用的。然而,姿势表达不能代表自然场景中自发表达的实际特征,因为它们在空间和时间维度上都不同。
后来的研究都集中于自发ME,到目前为止建立了几个自发ME数据集,包括SMIC[14]、CASME[8]、CASME II[9]、CAS(ME)2[10]、SAMM[11]、MEVIEW[12]和MMEW[13]。诱导自发ME的一种流行方法是要求参与者观看情绪化的电影片段,并通过保持中立的面孔来隐藏自己的情绪,这是大多数这些数据集采用的方法,但MEVIEW数据集包含电视节目中扑克玩家的视频。表1总结了这些自发ME数据集的详细信息。
可以看出,大多数ME数据集包含100到300个样本,比普通FE数据集的规模小得多。一个数据集不足以训练深度神经网络。在ME Grand Challenge(MEGC019)[15]中,组织者提出了复合数据集的概念,其本质上是将CASME II、SAMM和SMIC合并,以生成用于模型训练和评估的更大数据集。然而,不同数据集的融合非常困难且无效,因为诱导的自发表达可能非常复杂,并且数据集之间的标记标准往往不一致。Zhao和Xu[16]提出采用复合面部表情的概念[26]进行ME识别,这允许并强调每个ME的多个情感类别共存,例如高兴地惊讶或害怕地惊讶,并引入了复合ME数据集CMED,该数据集总结了SMIC、CASME、CASME II、CAS(ME)2和SAMM的五个原始ME数据集。

2.2 2D ME识别方法
到目前为止,已经提出了各种方法,包括早期探索的传统特征描述符和近年来蓬勃发展的深度神经网络方法。传统方法[27]、[28]、[29]通常涉及一个或多个特征描述符加一个用于ME识别任务的分类器。最流行的描述符是时空特征,包括LBP[30]、HOG[31]和光流[32]。还探索了几种特殊过程,并将其添加到方法中,以应对ME的挑战,例如,使用时间插值或标准化过程[33]来处理ME的短时间和不等持续时间,引入视频运动放大方法[34]来放大ME的细微移动,以提高识别性能。
随着深度学习方法的快速发展,研究人员从2016年开始探索基于深度网络的方法[35],[36]用于ME识别任务。受普通FE识别研究的启发,大多数研究探索了基于CNN或RNN的方法。尽管如此,由于ME数据的稀缺,早期基于深度的模型[28],[37]难以与传统方法竞争。随着在接下来的几年中为收集更多数据和专门针对中小企业领域定制网络做出了更多努力,一些有希望的解决方案开始出现。首先,存在大规模的普通面部表情数据集,从这些数据集学习到的知识可以通过转移学习来提高ME识别性能。
目前,几种转移学习方法已应用于稳健的ME识别,包括微调[38]、[39]、知识蒸馏[40]、[41]和域自适应[42]、[43]、[44]。其次,由于ME可能只涉及局部区域运动[45],因此有选择地突出相应的感兴趣区域(ROI)[46],[47]至关重要。
几项研究[48]、[49]、[50]、[51]、[52]采用了不同形式的注意力模块,这些都被证明是选择ROI和增强ME表示的有效解决方案。此外,ME可能包含多个面部运动(AU),这些局部运动之间的潜在语义信息可能有助于提高ME识别性能。图卷积网络(GCN)可以对这些语义关系进行建模,这些语义关系在一些研究[53]、[54]、[55]中进行了探索,用于ME分析。
尽管已经探索了多种方法,但它们都集中于一个数据源,即用RGB摄像机记录的2D视频。输入可以是多种形式,例如,一些[39]、[56]、[57]使用静态图像(例如,顶点帧),一些[54]、[58]使用图像序列,以及一些其他使用提取的特征,例如光学流特征[38]、[59]、面部标志[60]和动态图像[61]、[62]、[63],但源数据是相同的。
主要原因是当前ME数据缺乏可变性,并且只有2D RGB视频数据可用。2D视频可以提供2D空间域中的线索(主要是在正面视图中),但如果运动发生在例如头部取向导致的遮挡区域,则受到限制。这个问题不能通过方法解决,而只能通过数据解决,即具有深度或4D信息的面部视频。
2.3 4D普通面部表情数据集
在过去十年中,发布了多个大型4D面部表情数据。4D面部点云允许探索特别是从动态3D空间域提取面部变形模式以用于情感识别的方法。早期的研究开始于姿势4D面部表情数据集,如BU-4DFE[64]、D3DFACS[65]和Hi4D ADSIP[66],因为姿势面部表情数据相对更容易收集和注释。BU4DFE[64]数据集包含从58名女性和43名男性(18~45岁)记录的六种情绪类别的606个姿势面部表情样本。视频中帧速率为每秒25帧(FPS),每个剪辑持续约3~4秒。D3DFACS[65]是另一个广泛使用的4D面部表情数据集,包含来自10名受试者(23~41岁)的519个AU序列。D3DFACS标注了多达38类AU标签。Hi4D ADSIP[66]是一个全面的3D动态面部关节数据库,包含从80名不同年龄、性别和种族的受试者中采集的3360个面部扫描序列。该数据包含六种姿势的面部表情、疼痛和短语阅读场景,以便于情绪识别和面部功能障碍的诊断。上述数据集仅关注姿势表达式,从而限制了识别系统对真实世界应用的适用性。
后来的研究也努力收集自发的4D面部表情数据集,最广泛使用的包括B3D(AC)[67]、BP4D自发[17]、BP4D+[18]和4DFAB[19]。B3D(AC)[67]是第一个具有自发表达和语音的4D视听数据库。该数据集包含1109个序列(平均4.67秒长),这些序列来自15个情感形容词的14个受试者。BP4D自发性[17]数据集有来自41名受试者的328个样本,这些样本是在一些精心设计的任务中收集的,例如身体活动和访谈,这些任务可以唤起自发的表达。BP4D+[18]是BP4D自发性的延伸,它结合了生理信号和热成像等不同的模式,还包括140多个受试者。BP4D自发性和BP4D+数据集的一个重要特征是,它们都提供了对情绪分析极为有益的AU标签。最近,发布了一个更大尺寸的数据集,即4DFAB[19],其中包含180名年龄在5~75岁之间的受试者的180多万个3D网格(约30000秒的记录)。它包括自发和姿势面部表情剪辑的4D数据,帧速率为60 FPS。
2.4建立4D数据的对应关系
与静态3D数据不同,4D数据需要额外的处理步骤来建立序列内帧之间的对应关系。尽管这些步骤通常非常耗时,但它们对4D面部表情方法的成功至关重要,因为良好的对应关系可以帮助保存面部动态。
为此,有几种方法,最直接的方法是将通用模板直接对准目标序列中的每个网格(例如,使用非刚性迭代最近点[68]或主动非刚性迭代最接近点[69])。为了改善网格之间的对应关系,该步骤通常在稀疏的面部标志的指导下执行。然而,这种方法计算效率不高,通常无法提供时间一致的对应关系(请参考[70]以获得深入解释)。与直接3D配准方法相比,UV空间中的非刚性图像配准[71],[72]更有利。该方法首先使用圆柱投影[73]或共形映射[74]等技术将3D网格展开为2D中间(即UV空间)。本质上,UV空间编码从2D位置到相应位置的双射映射网格中的3D点,因为映射可以忠实地表示3D面,所以在任意两个UV图像之间建立密集的对应关系将自动为我们返回其对应的3D网格的密集的3D-to-3D对应关系。
这是有益的,因为它将具有挑战性的3D配准问题转移到解决良好的2D非刚性图像对准问题。第三种处理4D数据的方法相对简单且有效,并用于相当多的深度4D表达识别方法[20],[21],[75]。在该方法中,首先使用3D面部界标将3D面部与公共参考框架刚性对齐,以去除缩放、旋转和平移效果。接下来,对齐的面将在单个/多个视图中投影到2D,这可以为后续任务生成RGB纹理或深度图像。我们采用这种方法是因为它简单,即使这种方法不能在4D数据之间提供密集的对应关系,但投影视图足以完成我们的任务。
2.5面部表情识别的4D方法
随着4D面部表情数据集的发布,许多研究探索了基于4D的识别普通面部表情的方法。我们将这些方法松散地分为传统方法和深度学习方法,并在下面的章节中分别回顾它们。与静态3D数据的方法相比,基于4D的方法通常需要对输入数据进行额外的特征嵌入(或提取)步骤。例如,Cheng等人[19]使用3DMM参数代替3D网格来训练他们的表情识别模型。在[76]中,3D人脸被投影到黎曼流形中,以获得用于表情识别的径向曲线。另一方面,为了捕捉表达动态,4D方法还采用了时间/时空模型(例如,使用LSTM[19]、Res3D[53]或隐藏马尔可夫模型[77])
…看看到底怎么采集的先
3 4DME数据库简介
我们收集了一个4D自发ME数据库,即4DME1,其中包含用不同相机记录的多模式面部视频,并提供了AU标签和情感类别标签。使用多个摄像头的主要动机是提供各种形式的数据。4DME数据集将有助于探索1)4D数据是否能够提高ME识别性能,以及2)各种数据源(例如RGB和深度)的融合是否能够促进ME识别任务。数据收集和注释的详细说明如下。
3.1设备设置
数据记录在实验室工作室进行,设置如图1(a)和(b)所示。参与者坐在前面的座位上。4DME数据库包含多模态视频数据,使用了三组摄像机。首先,专业4D成像系统,即Dimension imaging 4D(DI4D)捕获系统,包含六个高速和高分辨率相机(BASLER avA1600 65k,60 FPS,1200x1600),用于4D数据记录。这六个摄像头是硬件同步的,从六个通道抓取的帧用于以重建的3D面部网格序列的形式构建4D面部数据。每个重建的3D网格包含50000多个顶点,最大边长为2毫米。其次,我们使用一台灰度相机(Stingray F-046B,60FPS,640x480)拍摄传统的2D正面面部视频。第三,Kinect相机(Xbox 360,30 FPS,640x480)用于录制RGB视频和深度视频。所有摄像机都与音频捕获系统(如图1所示的麦克风)生成的触发器进行软件同步。
3.2参与者和道德问题
所有参与者都是通过在校园张贴广告招募的志愿者2。总共招募了65名年龄从22岁到57岁(平均年龄:27:8±3:5岁)的参与者进行数据收集,其中27名为女性,38名为男性。
与会者具有多文化背景,即37名与会者来自东亚,27名来自南欧(18名希腊人、4名西班牙人、2名塞浦路斯人、1名塞尔维亚人、1位葡萄牙人和1名法国人),1名来自英国。
只有一名参与者戴眼镜。由于意外的硬件故障,我们无法从9名参与者中重建4D数据。其余56名参与者的数据已完成,并已进行注释处理。
在录音开始之前,向每位参与者解释了研究目的和程序,参与者非常清楚他们可以随时停止和退出录音。当参与者理解内容并同意参与时,签署了一份同意书。在同意书中提出了关于数据共享问题的特殊问题,参与者在两个级别之间进行选择:1)所有记录的数据都可以共享并用于研究分析,面部图像和视频可以出于学术目的发布或呈现,例如,在纸质出版物、演示文稿、网页或演示中;2) 所有记录的数据都可以共享并用于研究分析,但面部图像和视频不能发布或呈现,例如在纸质出版物、演示文稿、网页或演示中。30名参与者同意1级,其余35名参与者同意2级
3.3情绪激发程序和材料
在先前的研究[8]、[14]中已经证明,向参与者展示情绪电影片段是一种简单而有效的诱导ME的方法。我们对4DME数据记录采用了相同的方法。参与者被带到座位上,座位的高度和方向被调整以适应摄像机。一些参与者被要求绑起头发或戴上发网,以避免面部部位堵塞。在实验过程中,参与者被展示了11个精心挑选的视频片段(见表2),这些视频片段被认为会引发各种强烈的情绪。两段视频之间有1分钟的休息时间,在此期间,参与者被要求填写一份关于先前视频主观感受的简短调查。这1分钟的休息时间也被用作冷静期,以重置参与者的情绪。在整个实验过程中,参与者被要求隐藏自己的真实感受,并始终保持一张扑克脸,如果失败了,他/她需要填写一份冗长乏味的问卷作为惩罚。正如Ekman[79]在其工作中所述,这种设置是为了产生高桩压,并促进微表情的出现。在实际录音开始之前,有一个试听环节让参与者熟悉过程
3.4数据注释
4DME数据集使用AU和情绪类别进行注释。注释过程分三个步骤进行。在第一步中,我们进行了粗略的手动分割。一位注释者检查了所有原始视频,以大致标出可能包含宏或微表情移动的片段。这一步骤是使用内部视频标记软件完成的。注意,每个标记出的段可以包含单个或多个宏表达式和微表达式,以及中性面的帧。这一步骤的目的是排除大多数视频中没有与情绪相关的面部动作(因为我们要求参与者在录制过程中保持扑克脸)。片段从长原始视频中剪辑出来,1)用于注释的第二步,2)用于共享数据集后的ME定位任务。
在第二步中,我们为AU标记执行了细粒度注释(即逐帧)。四个注释器一起完成了这项任务。通过参考相关ME数据集研究,初步确定了要标记的AU的范围,根据实际数据,我们在4DME的最终标签手册中包括22个AU。图2显示了4DME中出现率较高的几个关键AU的位置和运动模式。然后我们注释了所有段中AU的时间戳,特别是标记了每个发生AU的起始帧、顶点帧和偏移帧。
三个注释器分别工作,然后交叉检查以确保框架级标签。使用[10]中提出的可靠性方程计算两个编码器之间的可靠性,三个帧内的差异被视为一致,对于不一致的情况,选择三个帧的中值。三个注释器的帧编码的平均可靠性为0.79。这一步侧重于时间戳,而AU类别在下一步中被标记。多个AU可能同时出现,例如,一个或两个主要AU(例如AU4+AU7)可能与次要AU(如AU6、AU14或AU15)一起出现,这些AU很难区分,需要专业技能。因此,两名FACS[80]认证的注释员对剪辑进行了额外的一轮检查,以确认AU的类别。这两个注释器首先分别工作,然后交叉检查,可靠性为0.75。
最后,我们为这些片段分配了五种情绪类别,即积极、消极、惊讶、压抑和其他。短于0.5秒的片段(从开始到偏移)被标记为微表达式,0.5到4秒的片段被标记为宏表达式。由于缺乏运动,静态(即持续4秒以上)的表达式被排除在外。宏观表达案例可用于,例如,开发宏观和微观表达的联合识别方法,或区分这两类在实际场景中经常出现的类别。在目前的研究中,我们关注的是中小企业。根据复合情绪的概念[26],我们允许在必要时使用多个情绪标签(最多两个),因为在我们的数据中经常会遇到多个情绪同时出现,例如“快乐”和“惊讶”。情感标签主要由观察到的AU决定,而不是诱导材料或自我报告的情绪。第四节讨论了AU和情绪标签之间的关系。
3.5数据统计和样本
从四种模式的65名参与者中记录了大约5980分钟的视频,即DI4D视频、正面灰度视频、Kinect彩色视频和Kinect深度视频。四种模式的示例图如图3所示。在注释的第一步之后,裁剪出278个片段(从0:77到9:82秒,平均持续时间为2.49秒),其中包括微表情和宏表情,以及一些中性脸的上下文框架。278个片段可用于ME定位任务,DI4D立体图像用于重建3D面部网格。重建的3D面部网格的一个示例图如图4所示:左侧没有纹理,右侧有纹理
这些选定的片段进一步用微表达式和宏表达式标记。注意,并非所有受试者都表现出微观或宏观表情,因为他们中的一些人在整个录制过程中都保持着扑克脸。在最终的标签书中,有来自41名受试者的267个ME和123个宏表达,总共有1068个ME样本和492个宏表达样本。这些剪辑标注了22类AU标签和5类情绪标签。注意,一个剪辑可能包含多个AU标签和多个情绪标签(最多两个情绪)。AU和情绪类别(每种模态)的统计如表3所示。图5显示了来自4DME同一参与者的一个微表达示例和一个宏表达示例

4DME: A spontaneous 4D micro-expression dataset with multimodalities相关推荐

  1. 表情识别综述论文《Deep Facial Expression Recognition: A Survey》中文翻译

    本篇博客为论文<Deep Facial Expression Recognition: A Survey>的中文翻译,如有翻译错误请见谅,同时希望您能为我提出改正建议,谢谢! 论文链接:h ...

  2. 论文翻译(10)--CASME2: A Database for Spontaneous Macro-Expression and Micro-Expression Spotting and Rec

    CAS(ME)2:自发宏表情和微表情识别数据库 CAS(ME)2: A Database for Spontaneous Macro-Expression and Micro-Expression S ...

  3. Ukiyo-e faces dataset 浮世绘面孔数据集

    正文字数:974  阅读时长:2分钟 作为我的论文<基于分辨率的GAN插值用于域间的可控图像合成>的一部分,我使用浮世绘人脸图像的数据集来训练StyleGAN模型,本文包含该数据集的链接和 ...

  4. 计算机视觉数据集大全 - Part2

    转载自http://homepages.inf.ed.ac.uk/rbf/CVonline/Imagedbase.htm Index by Topic Action Databases Agricul ...

  5. 【今日CV 计算机视觉论文速览 第113期】Wed, 8 May 2019

    今日CS.CV 计算机视觉论文速览 Wed, 8 May 2019 Totally 44 papers ?上期速览✈更多精彩请移步主页 Interesting: ?***MobileNetV3新一代高 ...

  6. 【今日CV 计算机视觉论文速览 第106期】Fri, 26 Apr 2019

    今日CS.CV 计算机视觉论文速览 Fri, 26 Apr 2019 Totally 44 papers ?上期速览✈更多精彩请移步主页 Interesting: ?RepPoints and RPD ...

  7. NHibernate学习系列之一

    使用NHibernate进行开发 2007-4-22 8:43:0 分类:教程 | 评论:0 | 浏览:959 NHibernate的全局性配置 一.NHibernate的引入       至于为何要 ...

  8. 透视全球AI治理十大事件:站在创新十字路口,人工智能会失控吗?

    作者 | 微胖 来源 | 机器之心(ID: almosthuman2014) 出现,对于人类社会伦理道德.隐私安全等方方面面都提出了挑战.新年伊始,回顾近两年全球较有代表性的十大 AI 伦理事件,我们 ...

  9. Eigen中四元数Quaterniond的初始

    Quaterniond的初始 Eigen::Quaterniond q1(w, x, y, z);// 第一种方式Eigen::Quaterniond q2(Vector4d(x, y, z, w)) ...

最新文章

  1. 构建静态服务器_为静态网站构建无服务器联系表
  2. TOMCAT9 如何突破的双亲委派机制
  3. ST-3806系列单圈编码器 说明书
  4. 阴差阳错2019-12-13
  5. iptables:tproxy做透明代理
  6. 微信接口开发-初级体验
  7. 【全观测系列】Elasticsearch应用性能监控实践
  8. python解析xml格式的excel_Python 读取二进制、HTML 、XML 格式存储的 Excel 文件
  9. MyBatis 大于等于、小于等于的写法
  10. html5接金币游戏源码,利用HTML5实现Canvas聚宝盆接金币游戏
  11. 招商银行信用卡中心2018秋招数据方向笔试题
  12. 金山办公CEO章庆元:数字化、云化、订阅化趋势下,组织数字办公走向纵深
  13. 如何成为一名架构师,架构师成长之路
  14. Base64在线解析,编码转化为图片
  15. excel 查询 表关联_从Excel查询表获取里程
  16. Python软件编程等级考试三级——20211205
  17. 用spss判断正态性检验的几种方法
  18. CKEditor编辑器的用法
  19. 【Eclipse】Eclipse常用快捷键
  20. C++使用ifstream读取文件

热门文章

  1. 计算机cpu的发展历程,CPU发展历程
  2. EVPN配置实例(一)——EVPN集中式网关
  3. EAR工程在jboss(wildfly)里的结构以及class loading关系
  4. kindeditor上传的视频变为embed标签问题
  5. Ubuntu配置中文环境
  6. 怎么判断数组是否包含某个元素?
  7. office中的域、控件、com组件、宏和VBA
  8. 学生成绩管理系统(三)
  9. PostgreSQL 14新插件pg_surgery
  10. 自然常数e的c语言程序设计,关于自然对数 e