(SCI二区)2019

Abstract

三维(3D)人脸重建可以采用基于测量的方法或基于模型的方法。前者需要特殊的硬件或设备,如结构化光设置。本文提出了一种基于测量的三维人脸重建方法,即一种特殊的结构光时空散斑投影方法。在此基础上,提出了一种新颖、高效的时空立体重建方法,实现了快速、准确的三维人脸重建。为了提高整体的匹配效率,我们的方案由一系列优化策略组成,包括基于人脸裁剪的立体匹配策略、应用于人脸区域的粗到精立体匹配策略以及用于加速匹配成本计算的时空灰度图像(STII)。在此基础上,本文提出的方法可以在普通PC上以数百毫秒的时间重建三维人脸,并对其性能进行了定性和定量的验证。

1. Introduction

三维形状测量与重建一直是计算机视觉领域的一个长期问题。具体来说,由于三维人脸在医学整形外科、娱乐游戏、三维人脸识别、艺术渲染等方面有着广泛的应用,因此三维人脸重建得到了广泛的关注。3d人脸应用的最新进展是人脸识别和验证,由face id首创。Face ID是苹果公司为其产品iphone X设计和开发的人脸识别系统。

基于图像的三维人脸重建一般有两个方向。一个是从测量的角度,这需要特殊的硬件或设备。从一般的三维重建出发,适用的技术包括结构化光[1,2]、飞行时间(TOF)[3]和双目立体视觉[4-6]。结构光技术通过使用投影光模式和摄像机系统来执行侦察结构。TOF基于特殊的传感器,计算发射到接收之间的时间。根据时间,可以计算出物体的深度,双目立体利用两个或多个摄像机,从三角测量中重新构造形状7]。因为至少使用了两个已知的场景视点,所以确定视点之间的正确对应关系是基本的挑战,即立体匹配[4,5,8–13]。

三维人脸重建的另一个方向是从基于模型的角度来解决这一问题,它对一个物体或场景施加一定的假设,使一些模型可以被构造。运动形状[14],阴影[15],消失点16,离焦17,18]和纹理19被广泛研究。例如,在[19]中,shape from texture假定场景被均匀的纹理覆盖,而shape from shading通常假定lambert surface[15]用于灯光反射。沿着这个方向的另一个分支是从单视图2D图像或多视图2D图像(例如mugshot[20])推断出3D人脸。大多数这些方法借助于复杂的3d面部模型(例如3d变形模型,3dmm[21,22]),并生成、合成或回归[23]接近给定2d面部图像的新3d面部形状。综上所述,假设需要用属于这个方向的方法来进行,而这些假设往往在实际场景中并不总是成立。因此,对于鲁棒稳定的人脸重建,从上述测量角度对三维人脸侦察结构进行处理,如AppleFace iddo可能是一款足以满足实际应用需要的软件。

本文解决的问题属于第一类,即从测量角度重建三维人脸。具体来说,我们的工作涉及到结构光和双目立体视觉。由于人脸的大部分区域都具有平滑的纹理,因此我们投射出结构化的光来增强人脸表面的纹理信息,以方便后续的立体匹配。我们要解决的另一个问题是效率问题,因为在实际应用中,快速算法总是被期望的,并且将极大地改善用户体验。本文提出了一种三维面元结构的快速立体匹配方案,硬件平台如图1所示。我们在本文中使用的结构光模式是散斑模式[24-27]。如图1所示,相机1和相机2构成了一个双目相机系统。散斑通过散斑投射器投射到脸上。该方案利用时空投影技术,将不同斑纹图案等高线投影,并在两帧图像同步的时刻,严格地同时从两个不同的角度捕捉两幅散斑图像。采集到的散斑图像被反馈给处理系统,用于进一步的立体匹配和三维形状恢复。针对空时散斑投影下三维人脸的快速重建问题,采用了一系列优化策略,提高了整个系统的计算效率,包括 i)基于人脸裁剪的立体匹配,ii)应用于人脸区域的粗到精立体匹配策略,以及 iii)用于加速成本计算的时空积分图像(STII)。本文介绍了一种新颖、高效、实用的融合上述人脸重建技术的三维人脸重建方案。最好的是,这样的方案从来没有在文献中报道过。

论文的组织如下。第二节介绍了相关工作。第3节详细介绍了建议的方案。第四部分包括实验结果、性能评价和比较。最后,得出结论第五节。

2. Related work

如前所述,本文从测量角度研究了三维人脸重建问题。因此,对这些基于模型的方法的文献综述超出了本文的研究范围。下面,我们从时空立体和立体匹配两个方面来回顾与我们工作非常相关的相关工作。

2.1 Space-time stereo

时空立体是空间立体(如传统被动立体)和时间立体(如编码结构光)的结合技术。它的关键是在空间和时间域中找到相应的特征。空时立体[7]有一个通用的框架,读者可以参考更多的细节。空时立体的优点是它能比传统的空间立体恢复深度图具有更高的精度和鲁棒性。为了创建时间特征,不同的结构光被照亮到一个物体上,在不同的时间产生不同的模式。长期以来,空时散斑投影在这一领域得到了广泛的研究。在这个主题下,Wiegmann等人[28]提出了一种快速、准确的人脸测量方法。在他们的方法中,几个随机模式被投影来编码一个目标点。相关技术考虑到只有一个像素的面积用于通信。Schaffer等人开发了一种高速投影系统,该系统能以很高的速率投射出组织散斑图案,重建精度优于以前的条纹投影方法。为了提高三维重建的投影速度,采用了时域立体相对关系进行三维重建。实际上,他们的工作主要集中在系统设计上,而不是立体算法。刘等人。
[29]描述了一个三维扫描设置,其中两个摄像机同时捕获投射到目标物体上的带通二进制随机模式。他们的重点是利用时间相关技术来确定两个相机的像素点之间的立体对应关系。上述文献均基于散斑投影的时间立体。

最近,Harendt等人提出了动态场景的时空相关性,使其时空支持局部地适应被测对象的运动。运动是通过对相关的图像区域进行时间上的扭曲来补偿的。与我们类似的工作是Fan等人的[31],它也处理通过时空散斑投影的三维人脸重建。他们提出了一种利用带限二值模式(BBLP)获得三维彩色人脸的主动双目设置。采用时空相关算法计算立体对应。而[31]更侧重于描述整个系统的设置,我们的工作集中在算法管道及其效率。事实上,正如[31]报道的,重建一张脸需要数百秒。相比之下,我们的方案只需要几百毫秒在一个正常的PC上重建一个面孔,这是三个数量级的速度[31]。

2.2. Stereo matching

立体匹配通常是在给定左图像中的一个点时,在右图像中找到一个对应点。对于校正后的图像对,可以沿水平图像轴进行立体匹配。将给定的左侧点的x坐标表示为xlx_lxl​,将右侧找到的匹配点(同源点)的x坐标表示为xrx_rxr​, d=xl−xrd = x_l - x_rd=xl​−xr​称为视差。立体匹配可以在被动和主动三维重建的情况下进行[7]。值得注意的是,它长期以来被广泛地研究在被动三维重建的情况下,试图找到匹配的图像特征之间的一对一般的图像,没有任何已知的先验知识。立体匹配包括四个典型步骤:匹配代价计算、代价聚集、视差计算和视差细化。在[32]中可以找到匹配成本的全面调查。优化成本聚集和视差计算一直是研究的热点。例如,[5]提出了一种采用广告普查成本和基于交叉的成本聚合的立体方法。[4]提出了半全局匹配(SGM),将成本聚合和视差计算集成到一个统一的基于优化的框架中。该框架通过相互信息进行性能匹配,并通过近似全局平滑约束实现优化。在[8]中采用了一种快速的立体匹配方案,首先找到一组稀疏的、能够可靠匹配的支持点。然后使用这些支持点来探索视差搜索空间。[9]提出了一个通用的跨尺度成本聚合框架,以实现成本聚合中的多尺度交互。在[11]中描述了一种保证非局部和多尺度属性的分段树结构,用于非局部匹配成本聚合。[12]作为一种边缘保持的滤波方法,实现了多代价的聚集,并通过引导滤波实现。[13]引入了一种新的倾斜平面模型,在一定程度上缓解了基于局部窗口匹配重构倾斜曲面的局限性。本文提出的人脸重建方法主要针对主动场景中的立体匹配,与上述工作密切相关。

3. The proposed scheme

3.1 System overview

图2示出了所提出方案的框图。用同步双目摄像机(分别为左摄像机和右摄像机)拍摄斑点投影下的多对人脸图像。由于使用zhang方法133预先校准了双目摄像机,因此基于摄像机参数相应地校正图像对,以确保点的外极线仅仅是与点34、35具有相同行坐标的线。接下来,我们对与左右摄像头相关联的摄像头进行人脸检测,以选择感兴趣的区域(ROI)进行立体匹配。这两个ROI随后被用于从原始图像对中裁剪子图像以形成新的图像对,这些图像对随后被所提出的立体匹配算法处理。该算法利用了从粗到细的策略(图2中的红色虚线矩形)以及用于快速匹配成本计算的积分图像,从而生成用于3d重建的视差图。最后,根据得到的视差图和预先确定的摄像机参数计算出人脸的三维形状。

3.2. Face-cropping-based stereo matching

由于我们只对构建面部的三维形状感兴趣,而不是在摄像机前做其他事情,因此对整个图像执行立体算法是不必要的。在这项工作中,我们使用从人脸检测衍生的边界框来选择子区域以进行后续的立体匹配。这一步,作为基于面部裁剪的立体匹配的开始,过滤掉无关的背景,大大降低了计算成本和所需的内存,因为在我们当前的设置中,面部区域通常是整个场景的一个相对较小的部分(大约400×400)(摄像机分辨为2688×1520)。由于立体匹配的目标是在人脸上找到同源点,所以首先可以在裁剪后的图像对中找到同源点。然后,通过添加人脸矩形之间的位移,将结果的差异反向投影到原始图像空间的差异上。如图3所示,其中d表示原始图像空间中的视差,d’表示裁剪后的子图像空间中的视差。在人脸检测方面,我们采用了基于深度学习的人脸检测工具MTCNN[36],在精度和速度上都有一定的优势。在投射多个斑纹图案和捕捉纹理图像时,要求人脸是静止的。因此,我们只对纹理图像对(左右纹理图像)进行人脸检测,并使用检测框在相应的散斑模式图像中裁剪子区域。值得注意的是:1)当多个人脸出现在摄像机面前时,我们只在假设离摄像机最近的人脸是目标的情况下裁剪最大的人脸框;2)我们对检测到的脸书进行了扩展,并确认在重建过程中可以覆盖整个人脸区域,包括前额和下巴。3)图像校正后,对应搜索可简化为沿图像行进行搜索。因此,我们保持裁剪区域的上下边界在水平方向上对齐,如图3中的绿色虚线所示。

3.3 Coarse matching stage

在立体匹配过程中,以右图像空间为基准,计算左图像空间的视差图。这意味着我们需要搜索左图像空间中的每个像素在右图像空间中的对应点(图3)。首先在左相机的图像空间(校正和未失真)中定义垂直和水平距离为ScS_cSc​(实际上ScS_cSc​=17)的点网格。这一阶段只计算这些网格点的视差,得到的视差图较小,其比例尺约为原始图像比例尺的1/Sc1 / S_c1/Sc​。我们的粗匹配是基于在patch匹配中广泛使用的“相干假设”[37-40],即物体表面平滑变化,视差值也应平滑变化。因此我们认为:1)网格点的视差可以用来估计像素之间的视差。2)通过相邻网格点的视差可以有效地推断网格点的视差。

在此基础上,我们的粗匹配阶段按照算法1进行:对于每个要匹配的网格点p,假设视差范围为[dcmin,dcmax][d_c^{min}, d_c^{max}][dcmin​,dcmax​],水平坐标ppp为xpx_pxp​,通过在右图像空间的间隔[xp−dcmax,xp−dcmin][x_p-d_c^{max}, x_p-d_c^{min}][xp​−dcmax​,xp​−dcmin​]中搜索来进行匹配。同时,采用左-右一致性(lrc)检查[12,13,41],这意味着从右到左进行匹配,以识别不匹配或被遮挡的点。我们将这些点与匹配代价高于预先确定的匹配阈值τ\tauτ的点一起作为视差图中的洞(视差值为零),而成功通过LRC检查的点被标记为“可靠”,并保留它们的差异。

另一方面,在确定了一个可靠的网格点p后,根据上述假设,利用p的视差可以初始化它的下一个相邻点的不奇偶性。然后搜索范围缩小到缩小后的半径dscd_s^cdsc​。这一思想是受PatchMatch方法[37]中传播算法的启发而产生的。设置dcs≪dcmax−dcmin2d^s_c{\ll}\frac{d_c^{max}-d_c^{min}}{2}dcs​≪2dcmax​−dcmin​​,进一步提高效率。

最后,采用双线性插值的方法对视差异常点进行了去除,并对视差孔进行了插值等一系列后处理。然后,将小粗视差图上采样到与左图像空间分辨率相同的位置,使原始左图像中的每个像素位置对应一个粗差值。请注意,这种采样-上采样策略背后的基本原理仍然是这样一个事实:人脸表面是一致的,网格点的差异可以很好地猜测它们之间的像素差异。有关粗匹配阶段的详细信息,请参阅算法1。图4进一步示出了粗匹配的过程和示例结果。
算法1. 使用LRC进行粗匹配
Input: 左图像L和参考图像R,网格点用步长ScS_cSc​,视差范围[dcmin,dcmax][d_c^{min}, d_c^{max}][dcmin​,dcmax​],缩小视差半径dcsd_c^sdcs​,匹配成本阈值τ\tauτ。
Output: 粗视差图C

  1. while 对于左边图像空间中的每个网格点p do
  2. if 匹配相邻网格点p^\hat{p}p^​在同一行是可靠的 then
  3. 搜索范围设置为[xp^−disp(p^)−dcs,xp^−disp(p^)+dcs][x_{\hat{p}}-disp(\hat{p})-d_c^s, x_{\hat{p}}-disp(\hat{p})+d_c^s][xp^​​−disp(p^​)−dcs​,xp^​​−disp(p^​)+dcs​];
  4. else
  5. 将搜索范围设置为[xp−dcmax,xp−dcmin][x_p-d_c^{max}, x_p-d_c^{min}][xp​−dcmax​,xp​−dcmin​]
  6. end if
  7. 搜索ppp的对应点p→\overrightarrow{p}p​在图像空间中匹配代价最小;
  8. if 匹配代价小于τ\tauτ then
  9. 在左图像空间中搜索匹配代价最低的p→\overrightarrow{p}p​对应p˙\dot{p}p˙​;
  10. if 匹配代价小于τ\tauτ并且xp−xp→&lt;4x_p-x_{\overrightarrow{p}}&lt;4xp​−xp​​<4 then
  11. 将p标记为可靠,他的视差为 disp(p)=xp−xp→disp(p)=x_p-x_{\overrightarrow{p}}disp(p)=xp​−xp​​
  12. else
  13. 将p标记为一个孔;
  14. end if
  15. else
  16. 将p标记为一个孔;
  17. end if
  18. end while
  19. 形成一个C↓小视差图,比例尺为L的1 / ScS_cSc​。
  20. 删除C↓中的孤立视差值,并设置相关像素为孔。
  21. 在C↓内插所有孔。
  22. 上采样C↓,取因子ScS_cSc​,得到C

3.4. Fine matching stage

在这个阶段,粗视差被进一步细化,以呈现更多的面部表面细节。给定左侧图像空间中的像素位置q,其粗视差记为disp(q)disp(q)disp(q),我们在右图的空间中执行一个半径为dfsd^s_fdfs​的窄搜索。搜索范围限制在[xq−disp(q)−dfs,xq−disp(q)+dfs][x_q-disp(q)-d^s_f, x_q-disp(q)+d^s_f][xq​−disp(q)−dfs​,xq​−disp(q)+dfs​]。与前一阶段相似,匹配代价大于预定义匹配阈值τ\tauτ的像素在细化的视差图中作为孔处理,并采用双线性插值进行填充。为了提高精度,获得亚像素的差异,亚像素插值是通过拟合抛物线到获胜成本值及其邻域来实现的。利用抛物线极小值对应的子像素坐标计算子像素差异。最后,我们使用倾斜平面模型[10,13],该模型假设一个倾斜平面用于局部视差,平滑视差图,其中每个局部倾斜平面通过最小二乘法拟合得到。注意,由于局部区域独立处理,用最小二乘拟合求解倾斜平面可以并行进行。图5为精细匹配阶段与部分中间结果的关系图。

3.5. Spatial-temporal matching cost computation

我们考虑时空立体中一个非常流行的相似性度量[26,27,29 - 31,42],即ZNCC(零均值归一化互相关)来计算我们的匹配成本(通过恢复相关系数)。ZNCC能够补偿增益和偏移[32]的差异,定义为:

其中x、y为像素坐标,d为视差,CZNCCC_{ZNCC}CZNCC​为对应的相关系数。特别地,Lx,yn(k,p)L^n_{x,y}(k,p)Lx,yn​(k,p)表示第n个左散斑图像在坐标(x+k,y+p)处的像素强度。m是散斑图像对的总数。通过在区间[-l,l]上测量k,p,在[1,m]上测量n,在以(x,y)为中心的时空体积中,Lx,yn(k,p)L^n_{x,y}(k,p)Lx,yn​(k,p)的范围超过强度。同时,Lx,y‾\overline{L_{x,y}}Lx,y​​表示体积的平均强度。同样,右散斑图像的Rx−d,yn(k,p)R^n_{x-d,y}(k,p)Rx−d,yn​(k,p)和Rx−d,y‾\overline{R_{x-d,y}}Rx−d,y​​被类似地定义。通过一些数学等价,公式(1)可以进一步简化为:

其中符号列示如下:

3.5.1. Fast computing

我们注意到,像SLLS_{LL}SLL​和SLS_LSL​这样的符号只涉及到体积两边的求和或者平方求和。因此,利用积分图像[43]的思想可以有效地计算它们。在本文中,我们提出使用时空积分图像(STII)来实现上述项的快速计算。这是传统的二维图像[43]的扩展。给定m个图像序列并以上述符号l为例,STII是一个二维图像,其值在(x,y)处定义为:

因此,可以根据STII[43]中一个时空体的四个角来计算时空体内的总和(图6)。为了计算STII,可以先沿着时间域进行累加,将一组时间图像合并到一个图像中。在此基础上,对传统的积分图像进行计算,得到STII。计算stii的图示如图6所示。通过使用stii,在一个类似于eqs的体积内计算求和的时间复杂度。(4)和(5)从O(ml2)O(ml^2)O(ml2)减为O(1)O(1)O(1),并且等式(2)中除SLRS_{LR}SLR​外的所有项都可以有效地从STII中导出。值得注意的是,在实际应用中,我们只对左右散斑图像分别计算两个STII。它们适用于不同局部窗口大小的粗匹配级和细匹配级。

4. Experiment and results

4.1 Setup

我们在配备英特尔I5-的台式机上进行实验4570 CPU (3.2GHz)和8G RAM。立体匹配算法由Visual Studio用c++实现。捕捉散斑投影图像的装置如图7所示。该设备用于捕获必要的散斑和纹理图像进行重建的整个采集时间小于200ms。一致地,散斑图像对的数目(即,m) = 3,分辨率为2688×1520。在这样的分辨率下,裁剪后的人脸子图像的大小通常在700×700像素左右。首先利用Zhang’s method[33]对两台摄像机进行标定,得到摄像机参数,然后对采集到的散斑图像进行校正,便于后续的立体匹配。在粗匹配阶段,网格步骤$ScS_cSc​被设置为17,视差范围dcmind_c^{min}dcmin​=-300,dcmaxd_c^{max}dcmax​=300,并且视差传播的缩小搜索半径dcsd^s_cdcs​=15。我们考虑一个局部窗口大小为15,即窗口半径l = 7进行粗匹配。对于精细匹配阶段,将粗差后的搜索半径dfsd^s_fdfs​设为11,同时考虑一个局部窗口大小为5,即设l = 2,以减少包含深度不连续点的机会,保证较高的视差精度。在整个过程中,我们设置匹配阈值τ=0.2\tau=0.2τ=0.2对于ZNCC系数丢弃非常不可靠的匹配。

4.2. Evaluation on reconstruction perdormance

在处理速度和重建精度之间要有很好的权衡。也就是说,处理速度的提高不应该以无法接受的重建精度为代价。与被动立体视觉和光流估计的情况不同,存在许多基准数据集,如middlebury[6]、new tsukuba[44]或kitti[45,46],对于主动立体视觉,几乎没有公共基准数据集可用。这使得主动立体匹配的实际评估以及由此产生的三维重建结果非常具有挑战性。为了解决这个问题,我们采用了3D打印技术,使用已知ground truth三维数据的打印石膏面模型作为我们的基准目标。打印的三维人脸模型示例图如图8所示。我们使用平均绝对误差(MAE)作为评价指标,将重建结果注册到地面真值数据后计算:

其中ViV_iVi​是重建人脸上的一个有效的三维点,Vi∗V_i^*Vi∗​是它在地面上最接近的匹配点,NvN_vNv​是这些点的总数。我们使用一个商业软件geomagic studio来实现这种注册和错误计算[47]。

为了验证空时立体匹配的必要性,我们首先比较了使用1对散斑图像和使用3对散斑图像的性能。MAE的定量结果和定性结果如图9所示。比较在1个散斑对下进行的(a)和(b)两个测试,可以看出,使用较大的窗口尺寸增加了发现的同源点匹配的比例(b)的重建面面积大于(a),从而减小了重建误差。这是因为仅使用一个散斑对很难满足可靠的局部匹配,而扩大局部窗口可以包含更多的信息来帮助匹配。对比图9中的©和(a),引入的时间散斑信息显著地辅助了立体匹配,因为重建的完整性和准确性都有了显著提高。此外,我们还将该方法与Orbbec公司[48]生产的基于衍射光学元件散斑预射的三维相机产品“Astra Mini”进行了比较。Astra Mini在图8所示的三维人脸模型上获得了3.17mm的MAE,而我们的方法得到了0.32mm的MAE。

另一种广泛用于评估三维侦察结构设备精度的方法是使用具有已知值的标称/参考模块[49,50]。在我们的实验中,使用了由两个独立的球体(球)组成的标准参考模块。左右球的名义直径分别为50.77mm和50.88mm。两个球之间的公称球中心距离(SCD)为100.02mm。在这个实验中,我们重新配置了所提出的算法来重建整个场景,而不是忽略人脸裁剪阶段的人脸区域。利用Geomagic Studio对部分重建的三维球体表面拟合了两个完整的球体,并通过测量得到SD和SCD。Astra Mini的定量结果以及建议的方法如表1和表2所示。根据sd(表1)和scd(表2)的测量误差,与图7中的上述装置一起提出的立体匹配优于astra mini。

我们还将最终的视差图与现有6种立体匹配方法的结果进行了比较,包括elas(efficientlarge scale立体匹配)[8]、ad-census[5]、sgm(semi-global matching)[4]、csca(cross-scale cost aggregation)[9]、sps-st(斜面平滑立体匹配)[10]和stca。(段树成本汇总[11]。上述立体视觉算法最初是为实现立体视觉而设计的,只能以单个图像对作为输入。相比之下,我们的方法是基于时空输入的。我们只是进行了定性比较,结果如图10所示。可以看出,该方法生成的视差图更加一致和连贯,再次验证了该时空方案的有效性。

图11进一步显示了我们的方法重建的真实人脸的一些结果。可以看出,重建的人脸是连贯的,没有任何孔洞或尖峰,与人类的视觉感知高度一致。

4.3. Discussion on efficiency and speed

所采用的面部裁剪阶段能够滤除不相关的背景(如衣服、背景对象),加快后续处理。我们对调整大小的图像(因子为1/4)进行人脸检测。将获得的检测盒大小调整回其原始大小。我们使用的是mtcnn[36]人脸检测器,每幅图像的速度大约为30ms。对左右纹理图像分别进行两次人脸检测,得到的人脸裁剪阶段的总时间开销为60~70ms。与构建整个场景时额外的数百毫秒相比,这是一个很大的优势。

一般情况下,生成最终人脸不均匀度图的总时间成本(不包括人脸检测和图像校正的时间成本)约为270ms,其中STII计算成本为10ms,粗匹配耗时40ms,精匹配耗时150ms。剩余时间是通过各种后处理,如补孔和光滑。此外,第3.3节中提出的视差传播策略减少了粗匹配的运行时间140ms ~ 40ms(效率提高71.4%)几乎没有对重建质量造成任何影响。

为了验证我们的粗到细方案,在图2中通过从整个管道中移除粗段进行了实验。相反,我们只使用具有宽搜索半径(如dfsd^s_fdfs​=100)的精细匹配。我们发现,在这种情况下,由于精匹配就是寻找密集匹配,因此仅精匹配的运行时间甚至增加到700ms。同时,得到的视差图仍然比由粗到细方案得到的结果差得多,即由于搜索半径不足而导致许多不匹配。图12示出了一些视觉结果和相应的时间问题。比较图12的第2列到第4列,可以看出,进一步增大搜索半径dfsd^s_fdfs​导致更多的时间开销。相比之下,我们的粗到细方案(图12最后一列)似乎是匹配质量和效率(总时间为200毫秒)的最佳选择。

关于所提出的stii,我们实现了ZNCC的一个强力实现,其复杂性为O(ml2)O(ml^2)O(ml2),如第3.5节所述。在精匹配过程中,我们用这种蛮力实现替换了ZNCC的STII实现,发现精匹配的运行时间从160ms(10ms积分图像+150ms)增加到260ms。本地窗口大小为5。通常,如果应用较大的窗口大小,STII将显示出比暴力实现更大的优势。在表3中,我们展示了与现有6种立体匹配方法的运行时间比较,其视觉结果如图10所示。现有方法的运行时间从在校正的单个散斑图像对中馈送(在面部裁剪之后)到输出视差图来计算。人脸裁剪后的斑点图像大小一般在700×700左右。如表3所示,使用STII提出的粗到细方案更快、更省时。

5. Conclusion

提出了一种有效的散斑模式投影下三维人脸重建的时空立体匹配方法。为了提高重建的整体效率,我们提出了一些策略,如人脸裁剪、粗到精匹配和时空积分图像(STII)来快速计算ZNCC(零均值归一化互相关)。通过与现有的三维摄像机产品和立体方法的比较,验证了该方案在重建精度和运行效率方面的优势。同时,对个别方案进行了评价,并证明了其对整体效率提高的贡献。实验结果表明,该方法不仅具有较好的重建精度,而且在实际应用中速度较快。未来,我们打算将所提出的方案及其相关结果应用于实际场景中的三维人脸验证与识别。

Conflict of interest

我们声明,我们没有任何商业或关联利益代表与提交的作品的利益冲突。

Acknowledgments

本研究部分由中国国家科学基金会资助,中央大学基础研究经费第61703077号,国家重点实验室YJ20175。中国科学仪器设备发展项目(2013YQ490879)、四川省科技重大项目(2018GZDX0029)。

论文《Fast spatial–temporal stereo matching for 3Dface reconstruction under speckle pattern projection》相关推荐

  1. 经典DL论文研读(part4)--ImageNet Classification with Deep Convolutional Neural Networks

    学习笔记,仅供参考,有错必纠 文章目录 ImageNet Classification with Deep Convolutional Neural Networks 摘要 Introduction ...

  2. 《每日论文》ImageNet Classification with Deep Convolutional Neural Networks

    这篇论文是剖析 CNN 领域的经典之作,也是入门 CNN 的必读论文.作者训练了一个面向数量为 1.2 百万的高分辨率的图像数据集 ImageNet, 图像的种类为 1000 种的深度卷积神经网络. ...

  3. AlexNet论文翻译(中英文对照版)-ImageNet Classification with Deep Convolutional Neural Networks

    图像分类经典论文翻译汇总:[翻译汇总] 翻译pdf文件下载:[下载地址] 此版为中英文对照版,纯中文版请稳步:[AlexNet纯中文版] ImageNet Classification with De ...

  4. ImageNet Classification with Deep Convolutional Neural Networks论文翻译——中文版

    文章作者:Tyan 博客:noahsnail.com  |  CSDN  |  简书 翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers- ...

  5. 论文《ImageNet Classification with Deep Convolutional Neural Networks》阅读及AlexNet的Tensorflow2复现

    论文<ImageNet Classification with Deep Convolutional Neural Networks>阅读及AlexNet的Tensorflow2复现 论文 ...

  6. ImageNet Classification with Deep Convolutional Neural Networks论文翻译——中英文对照

    文章作者:Tyan 博客:noahsnail.com  |  CSDN  |  简书 翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers- ...

  7. 论文研读 —— 6. ImageNet Classification with Deep Convolutional Neural Networks (1/3)

    文章目录 Authors and Publishment Authors Bibtex Abstract 1. Introduction 2. The Dataset Authors and Publ ...

  8. 《ImageNet Classification with Deep Convolutional Neural Networks》翻译

    1 引言 2 数据集 3 架构 3.1 ReLU 非线性 3.2 训练多个GPU 3.3 局部响应归一化 3.4 重叠池化 3.5 整体架构 4 减少过拟合 4.1 数据增强 4.2 Dropout ...

  9. 论文研读 —— 6. ImageNet Classification with Deep Convolutional Neural Networks (2/3)

    文章目录 3. The Architecture 3.1. ReLU Nonlinearity 3.2. Training on Multiple GPUs 3.3. Local Response N ...

  10. 论文研读 —— 6. ImageNet Classification with Deep Convolutional Neural Networks (3/3)

    文章目录 6. Results 6.1. Qualitative Evaluations 7. Discussion References 6. Results Our results on ILSV ...

最新文章

  1. 让表单文本框只读不可编辑的方法
  2. Android远程调试的探索与实现
  3. Win7系统还原声音图标的方法
  4. 47不用加减乘除做加法
  5. Edmonds-Karp算法
  6. 基于SIR模型的疫情预测 matlab
  7. 下载lpv9_ipv9_ipv9协议_中国IPv9大地址利弊分析
  8. vue 项目 跨域问题
  9. 利用腾讯云轻量服务器快速搭建网站CDN
  10. 三星s9刷android9,三星S9港版安卓9rom系统线刷包:TGY-G9600ZHU5CSG8-刷机之家
  11. 多频外差三维重建 投影仪非线性误差补偿
  12. Java8 新特性之 Stream 练习题
  13. 神来之笔--图解JVM内存分配及对象存储
  14. 飞书的聊天信息服务器,飞书服务端SDK java
  15. 《孙子兵法》十三篇注译(11--地形篇)
  16. 访问网上计算机要输入密码,教大家访问电脑显示输入网络密码怎么办
  17. 【外文翻译】图像中的傅里叶变换
  18. SAS集成Hadoop途径几何?
  19. 当清晨的第一缕阳光洒在我的头发上, 我知道,一个崭新的太阳升起来了
  20. Web3时代到来:非洲兄弟已经在用它“养家糊口”

热门文章

  1. 大学生对于繁体字的态度与认知情况调查
  2. 我在Slager上的LaTeX排版之路|空格命令(连载)
  3. 动态IP和静态IP的区别如何使用动态IP
  4. 关于单舵轮AGV运动学模型整理笔记
  5. ijkplayer 代码走读之 h264 解封装器应用详解
  6. c语言召唤窗口,如何设计出高点击率的行为召唤按钮?
  7. 笔记本电脑win10打开照相机显示灰色相机解决办法
  8. idea 2021版本错误提示反应慢
  9. 每日学习, 特征方程的复根
  10. 打开JMeter报错:Could not reserve enough space for 1048576KB object heap