基于双目视觉的手势识别

Gesture recognition based on binocular vision

原文见:https://link.springer.com/article/10.1007/s10586-018-1844-5

 Abstract

建立了方便有效的双目视觉系统。 可以使用系统从复杂环境中准确地提取手势信息。 模板校准方法用于校准双目相机,并准确获得相机的参数。 在立体匹配的阶段,BM算法用于快速且准确地匹配左和右相机的图像以获得所测量的手势的视差。 结合三角测量原理,产生更密集的深度图。 最后,将深度信息重新映射到原始彩色图像,以实现三维重建和三维云图像生成。 根据云图像信息,可以判断双目视觉系统可以从复杂背景中有效地分割手势。

1 Introduction

随着生活方式的改变和智能设备的日益普及,对增强现有人机交互体验的需求尤为迫切。其中,手势信息可以为用户提供更真实,更自然的交互体验。目前用于手势识别装置的有数据手套,体感运动传感器,肌电信号采集装置,单目摄像头,双目摄像头等。

手势或手势识别的研究需要系统构建[1]。由于早期硬件和算法的不成熟,手势的识别始于数据手套。 1989年,苏尔曼确定了手势并用它们用数据手套操纵虚拟物体[2]。 2001年,In.cheol和Sung.il实现了基于手套的手势识别,准确率达到96.88%[3]。 Noor Tubaiz等人使用数据手套实现阿拉伯手语的连续识别,准确率为98.9%[4]。由Yinfeng Fang等人开发的16通道sEMG采集系统可以准确识别手势,并且系统可以与假肢装置很好地集成[5]。在实际应用中,虽然可穿戴设备可以准确识别手势,但存在很大的局限性。数据手套和EMG收集器由大量传感器组成,这些传感器太昂贵而不能被普通用户接受。同时,由于数据手套直接接触手和个人差异,每个实验都需要进行校准,以使实验过程复杂化。最后但同样重要的是,基于数据的手势识别导致了糟糕的人机交互体验,这是限制其使用的因素[6]。由于计算机性能的发展和硬件水平的提高,基于视觉的手势识别引起了研究者的关注。相对于数据手套,基于视觉的手势识别装置简单,易于维护。基于单眼视觉的手势识别已成为常见的手势识别方法。 2000年,Tare等人提出了一种随机组织映射算法来跟踪和识别手势,有效地缩短了计算时间,提高了识别准确率[7]。通过识别人手关键部位的纹理特征,Bhuyan等人可以通过使用单目相机识别手指的弯曲运动[8,9,10,11,12]。在使用单目相机进行手势识别的过程中,该方法更多地依赖于图像处理算法和先验知识。通过改进稀疏算法,进一步提高了手势识别和识别速度的准确性[13,14]。相对于数据手套,基于单眼视觉的手势识别硬件设备便宜,易于使用且更易于用户接受。然而,由于硬件限制,单眼视觉不稳定,并且不适合在复杂环境中使用。

新的立体视觉算法不断涌现。基于双目视觉,通过双目视觉获得的图像信息更精细并且视角更宽。与单眼视觉应用场景相比,图像更灵活,识别的手势更加多样化。为了自然地实现基于视觉的手部识别,在复杂环境中分割手势是一个很大的挑战。 Chen等人提出了一种交互式手势分割方法,可以在更复杂的环境中进行手势分割[15]。同时,特定传感器和相机的组合可以进一步改善手势分割的效果[16,17,18]。双目视觉的使用不仅捕获手势的图像信息,而且还获得目标对象的深度以帮助识别信息,从而将手势与复杂背景分离。双目视觉平台的构建还可以帮助有效地规划虚拟空间中的手势[19]。支持向量机和神经网络的广泛应用也使基于双目视觉的手势识别的准确性有了很大的提高[20]。利用深度信息,可以准确定位三维空间中人手的动态变换过程,极大地丰富了手势操作的内容[21]。

在这个阶段,立体视觉的应用也是多方面的。该技术用于测量和定位微小物体的三维尺寸[22,23],人脸识别[24,25,26],物体识别[27,28,29]等。在特定应用中,一些传感器被组合以提高识别的准确性[30,31]。结构光的使用可以使识别出的物体的细节更清晰,并减少外界的干扰[32,33]。

目前,基于双目视觉的手势识别常常通过专业的工业相机,精密的深度相机和红外相机来实现,这进一步提高了该方法的应用成本。 因此,使用普通相机构建双目视觉系统以在复杂环境中实现手势识别尤为重要。

2 Binocular vision system

双目视觉系统原则上与单目或多用途视觉系统相比,符合仿生学原理,更科学,灵活,易于实施。 同时,被动相比,主动不需要额外的辅助设备,应用范围更广,设备成本更低。 本文采用被动双目视觉测距原理构建双目视觉系统。

双目立体成像原理

图1是两个平行放置的摄像机的成像原理。 两个摄像机的光轴之间的距离也是双目视觉(基线距离)中的重要参数。 两个摄像机同时分别在不同位置观察相同特征点P的空间坐标,以获得点P的图像坐标,即PlP1和PrPr。 两个图像的图像坐标是P1(x1,y1)P1(x1,y1)和Pr(xr,yr)Pr(xr,yr)。 假设两个摄像机的图像在同一平面上,那么yl = yr = yu = yyl = yr = yu = y。 表达式可以从几何关系中获得。

以这种方式,Disparity = xl-xrDisparity = xl-xr。 相机坐标下的特征点P的坐标:

因此,可以精确地匹配图像中的两个点的坐标,以从测量的物体距离确定zczc是相机的点的3D坐标。 从原理图可以看出,有必要知道摄像机的焦距f和基线距离B,以获得三维信息。 在实际图像采集过程中,由于摄像机的成像原理不是真正的针孔成像模型,因此捕获的图像不适合随后的立体匹配。 因此,需要外部影响因子来调整图像以满足要求[34,35,36]。 该影响因子也称为失真系数。

径向畸变和切向畸变

图2反映了镜头中心的失真几乎为零,边缘的径向畸变越明显,数学表达式为:

(x,y)是校正前的初始位置,(x校正,y校正)(x校正,y校正)是校正点。 切向扭曲:

从(3)和(4),我们可以得到相机的主要失真参数为k1,k2,p1,p2,kak1,k2,p1,p2,ka。 Tab.1显示了相机型号中的相关参数。

3 Camera calibration

图3显示了使用两个普通网络摄像头构建的双目视觉系统。 根据表1,为了使用双目视觉系统精确提取测量手的三维信息,需要校准相机(图4)。 这些相机的型号是Logitech c270(图5)。

在摄像机校准过程中,将获取摄像机的内部参数和外部参数。摄像机参数是建立图像坐标系与世界坐标之间关系的重要环节。目前使用的校准方法是传统的和自校准的。在传统方法中,直接线性变换(DLT)方法是Abdel-Aziz和Karara首次直接使用相机模型列出一系列线性方程[37,38]。然后通过求解方程得到相机参数。该方法假设摄像机处于理想状态,需要一些非线性优化算法才能使结果更准确。透视变换矩阵方法意味着摄像机的参数可以由透视变换矩阵表示,而不考虑失真参数的影响。然后,直接求解矩阵以得到所需的结果; Tsai建议校准-Tai两步法基于径向对准约束(RAC)[39],其核心是求解线性方程来解决相机的外部参数,然后得到相机的内部参数,校准精度为该方法更适合于精确测量,但实验条件不适合简单的视觉校准。

最初确定角落提取区域

准确提取角点

由于其传统校准方法的固有局限性,Faugeras希望通过周围环境校准相机并结合20世纪90年代的先验知识[40],这也称为自校准。目前,常用的摄像机自标定方法有基本矩阵和内在矩阵,基于Kruppa方程,逐步和逐步校准方法,以及基于主动视觉的摄像机标定方法。基本矩阵方法是根据左右相机图像中的对象点之间的一对一对应来计算基本矩阵,然后求解相机的相关参数。基于Kruppa方程方法[41],核心是每两个图像对非线性Kruppa方程有两个约束,在极坐标变换和图像链接上有Kruppa方程,以使图像上的所有图像达到相应的极距和LM算法至少,您可以计算相机相关参数。与逐步分类相比,它具有更多的优点,但其稳定性不好。基于模板校准方法的棋盘格式简单,精度高,通常用于校准立体相机[42,43,44]。在模板校准方法中,通常选择可以在整个图像上均匀分布的一些点。一般来说,如果点数更多[45,46,47],相机的校准精度会更高。然而,随着点数的增加,操作量将增加或甚至导致校准精度的降低。在摄像机校准过程中,我们选择8 * 6的特征点,这样可以保证精度。在模板校准方法中,模板对相机的校准精度有很大影响。许多研究人员会选择工业高精度校准模板或点模板,但这些模板的价格非常昂贵。我们使用的是一个常见的棋盘模板,它使用25××25 mm的方形单元格。

模板校准方法介于两个类别之间,更容易满足要求。在本文中,使用模板校准方法准确捕获相机的内部参数和外部参数。

相机校准结果:

(1)

左摄像头的主要校准结果:

焦距:fc = [817.85837818.74862]±[3.754783.71953]要点:cc = [320.26368246.68164]±[3.383363.26967]失真参数:kc = [0.034700.289270.001880.005480.00000]±[0.018060.097670.001700 .002000.00000]像素错误:错误= [0.66520.6511]

焦距:fc = [817.85837818.74862]±[3.754783.71953]要点:cc = [320.26368246.68164]±[3.383363.26967]失真参数:kc = [0.034700.289270.001880.005480.00000]±[0.018060.097670.001700 .002000.00000]像素错误:错误= [0.66520.6511]

(2)

主摄像头校准结果如下:

焦距:fc = [816.58746815.40532]±[3.420243.44325]要点:cc = [313.65229235.41916]±[3.106663.41942]失真参数:kc = [0.032650.313200.003300.002590.00000]±[0.017740.168030.001710 .001590.00000]像素错误:错误= [0.68160.6817]

焦距:fc = [816.58746815.40532]±[3.420243.44325]要点:cc = [313.65229235.41916]±[3.106663.41942]失真参数:kc = [0.032650.313200.003300.002590.00000]±[0.017740.168030.001710 .001590.00000]像素错误:错误= [0.68160.6817]

(3)

相机外部参考校准结果

旋转矢量:om = [ -  0.07673-0.048191.47491]翻译矢量:T = [20.31733-53.3234231.54584]

在摄像机的校准结果中,焦距是fc,主点坐标是cc。 数组kc是摄像机的内部参数,阵列中的5个参数对应于表1中列出的内部参数。矢量om和T是摄像机的外部参数,它们是相机的相对旋转和平移。 相机。 通过更准确的校准获得相机的相关参数,并且误差在可接受的范围内。

从图6的直方图可以看出,总平均误差是0.67像素,并且大多数样本误差低于总平均误差线。 图7可以通过校准板计算出的位置和实际位置来确定,计算结果更准确。

4.Gesture three-dimensional information extraction

4手势三维信息提取

实现手势三维信息提取的关键技术是立体匹配技术,这也是最具挑战性的部分[48]。 立体匹配技术将左右图像分为具有特征属性的小单元,然后通过小单元的特征属性逐个比较两个图像的关键信息。 选择合适的匹配特征和匹配标准是测量结果准确性的重要保证。 常见的匹配功能包括点特征,线要素和区域特征[49,50]。

有许多匹配算法,但它们都不能适应所有环境。目前常用的匹配算法包括动态规划,图像分割,区域匹配等。匹配算法基于局部约束算法和全局约束算法分为两大类。全局约束算法的准确性较高,但算法复杂度高,计算复杂度大,不能满足构建该双视平台的需要。局部约束算法也分为区域匹配算法,特征匹配算法和相位匹配算法。通过图像对特征匹配算法进行预处理,实现特征分类,然后匹配左右图像。虽然匹配精度提高了,但它需要更复杂的预处理,实时性差。相位匹配算法的精度最高,但可能出现相位奇异性问题。解决相位奇异性的方法更复杂,难以实现。因此,为了使双目视觉平台的设置更容易实现并具有较高的实时性,我们选择了区域匹配算法。区域匹配算法(BM)用于立体匹配,具有精度高,速度快,易于实现的优点[51,52]。使用构建的双目视觉平台,从图8所示的手势中提取三维信息。鉴于双目视觉平台的构建,主要使用场景是室内,因此实验的照明条件使用普通荧光灯。手与平台之间的距离为1m-2m。手势采集的场景是一般的室内场景。它不需要特殊处理就可以成为一个坚实的背景。因此,平台的室内使用可以更加自由和灵活,而不会受到背景干扰。

手势深度图信息提取

手势3D云插图

两个手指捏手势

捏手势三维云部分

在提取手势的三维信息时,从图9可以看出双目视觉系统可以生成更密集的深度图,但是由于更接近,很难将深度图与深度图清楚地区分开来。 对身体的人力。 利用3D重建,可以将深度图变换为三维云(图10),其中更容易看到手势信息被很好地提取(图11)。 为了进一步验证所提出的双目视觉系统能够有效地从复杂背景中提取手势,用捏手势(图12)代替重新实验,从生成的三维云图(图13)中可以 验证内置双目视觉系统充分利用深度信息来区分手势和背景,并能准确获取手部信息(图14)。

5 Conclusion

准确提取人手的深度信息是实现视觉手势识别的前提。 在本文中,我们使用双目视觉测试技术来提取图像深度信息,并通过重建手势图像来验证提取的深度信息的准确性。 在本文中,两台普通网络摄像机构建了双目摄像头,并进行了摄像头校准。 然后,使用快速有效的BM立体匹配算法来准确地提取三维手信息并有效地将目标对象与复杂背景分离。 我们以简单有效的方式实现了双目视觉平台,并将其应用于手势识别,进一步提高了复杂环境下手势识别的效率。 然而,为了进一步提高3D信息的准确性和适应性,有必要进一步优化相关的匹配算法。

References

1.Al-Helali, B.M., Mahmoud, S.A.: Arabic online handwriting recognition (AOHR): a survey. ACM Comput. Surv. (CSUR). 50(3), 33 (2017)CrossRefGoogle Scholar

2.Sturman, D.J., David Z., Steve P.: Hands-on interaction with virtual environments. Proceedings of the 2nd Annual ACM SIGGRAPH Symposium on User Interface Software and Technology, pp. 19–24. ACM (1989)Google Scholar

3.In-Cheol, K., Chien, S.-I.: Analysis of 3d hand trajectory gestures using stroke-based composite hidden markov models. Appl. Intell. 15(2), 131–143 (2001)CrossRefzbMATHGoogle Scholar

4.Noor, T., Shanableh, T., Assaleh, K.: Glove-based continuous Arabic sign language recognition in user-dependent mode. IEEE Trans. Hum.-Mach. Syst. 45(4), 526–533 (2015)CrossRefGoogle Scholar

5.Fang, Y.L., Liu, H.L., Gongfa, Z.X.: A multichannel surface emg system for hand motion recognition. Int. J. Hum. Robot. 12(02), 1550011 (2015).  https://doi.org/10.1142/S0219843615500115CrossRefGoogle Scholar

6.Frederic, K., Puhl, M., Krüger, A.: User-independent real-time hand gesture recognition based on surface electromyography. Proceedings of the 19th International Conference on Human-Computer Interaction with Mobile Devices and Services, p. 36. ACM (2017)Google Scholar

7.Tobely, T.E., Yoshiki, Y., Tsuda, R., Tsuruta, N., Amamiy, M.: Dynamic hand gesture recognition based on randomized self-organizing map algorithm. International Conference on Algorithmic Learning Theory, pp. 252–263. Springer, Berlin (2000)Google Scholar

8.Bhuyan, M.K., MacDorman, K.F., Kar, M.K., Neog, D.R., Lovell, B.C., Gadde, P.: Hand pose recognition from monocular images by geometrical and texture analysis. J. Vis. Lang. Comput. 28, 39–55 (2015)CrossRefGoogle Scholar

9.Yin, Q., Li, G., Zhu, J.: Research on the method of step feature extraction for EOD robot based on 2d laser radar. Discret. Contin. Dyn. Syst. Ser. 8(6), 1415–1421 (2015)MathSciNetCrossRefzbMATHGoogle Scholar

10.Li, Z., Li, G., Jiang, G., Fang, Y., Zhaojie, J., Liu, H.: Intelligent computation of grasping and manipulation for multi-fingered robotic hands. J. Comput. Theor. Nanosci. 12(12), 6192–6197 (2015)CrossRefGoogle Scholar

11.Li, Z., Li, G., Sun, Y., Jiang, G., Kong, J., Liu, H.: Development of articulated robot trajectory planning. Int. J. Comput. Sci. Math. 8(1), 52–60 (2017)MathSciNetCrossRefGoogle Scholar

12.Ding, W., Li, G., Sun, Y., Jiang, G., Kong, J., Liu, H.: D-S evidential theory on semg signal recognition. Int. J. Comput. Sci. Math. 8(2), 138–145 (2017)MathSciNetCrossRefGoogle Scholar

13.He, Y.L., Gongfa, L.Y., Sun, Y.K., Jianyi, J., Guozhang, J., Du, T., Bo, X., Shuang, L.H.: Gesture recognition based on an improved local sparse representation classification algorithm. Clust. Comput. (2017).  https://doi.org/10.1007/s10586-017-1237-1

14.Li, B.S., Ying, L.G., Kong, J.J., Guozhang, J.D., Tao, B.X., Shuang, L.H.: Gesture recognition based on modified adaptive orthogonal matching pursuit algorithm. Clust. Comput. (2017).  https://doi.org/10.1007/s10586-017-1231-7

15.Chen, D., Li, G., Sun, Y., Kong, J., Jiang, G., Tang, H., Zhaojie, J., Hui, Y., Liu, H.: An interactive image segmentation method in hand gesture recognition. Sensors 17(2), 253 (2017)CrossRefGoogle Scholar

16.Chen, D., Li, G., Sun, Y., Kong, J., Jiang, G., Li, J., Liu, H.: Fusion hand gesture segmentation and extraction based on CMOS sensor and 3D sensor. Int. J. Wirel. Mob. Comput. 12(3), 305–312 (2017)CrossRefGoogle Scholar

17.Li, G., Miao, W., Jiang, G., Fang, Y., Zhaojie, J., Liu, H.: Intelligent control model and its simulation of flue temperature in coke oven. Discret. Contin. Dyn. Syst. Ser. 8(6), 1223–1237 (2015)MathSciNetCrossRefzbMATHGoogle Scholar

18.Ding, W., Li, G., Jiang, G., Fang, Y., Zhaojie, J., Liu, H.: Intelligent computation in grasping control of dexterous robot hand. J. Comput. Theor. Nanosci. 12(12), 6096–6099 (2015)CrossRefGoogle Scholar

19.Wei, M., Li, G., Jiang, G., Fang, Y., Zhaojie, J., Liu, H.: Optimal grasp planning of multi-fingered robotic hands: a review. Appl. Comput. Math. 14(3), 238–247 (2015)MathSciNetzbMATHGoogle Scholar

20.Feng, L.B., Sheng, D.M., Liu, Y.: A gesture recognition method based on binocular vision system. International Conference on Computer Vision Systems, pp. 257-267. Springer, Cham (2017)Google Scholar

21.Jadooki, S., Mohamad, D., Saba, T., Almazyad, A.S., Rehman, Amjad: Fused features mining for depth-based hand gesture recognition to classify blind human communication. Neural Comput. Appl. 28(11), 3285–3294 (2017)CrossRefGoogle Scholar

22.Stroppa, L., Cristalli, C.: Stereo vision system for accurate 3D measurements of connector pins’ positions in production lines. Exp. Tech. 41(1), 69–78 (2017)CrossRefGoogle Scholar

23.Miao, W., Li, G., Sun, Y., Jiang, G., Kong, J., Liu, H.: Gesture recognition based on sparse representation. Int. J. Wirel. Mob. Comput. 11(4), 348–356 (2016)CrossRefGoogle Scholar

24.Mehryar, E., Evans, A.: Nasal patches and curves for expression-robust 3D face recognition. IEEE Trans. Pattern Anal. Mach. Intell. 39(5), 995–1007 (2017)CrossRefGoogle Scholar

25.Zhaojie, Ju, Ji, Xiaofei, Li, Jing, Liu, Honghai: An integrative framework of human hand gesture segmentation for human-robot interaction. IEEE Syst. J. 99, 1–11 (2015)Google Scholar

26.Li, G., Kong, J., Jiang, G., Xie, L., Jiang, Z., Zhao, G.: Air-fuel ratio intelligent control in coke oven combustion process. Inform. Int. Interdiscip. J. 15(11), 4487–4494 (2012)Google Scholar

27.Pop, D.O., Rogozan, A., Nashashibi, F., Bensrhair, A.: Fusion of stereo vision for pedestrian recognition using convolutional neural networks. ESANN 2017-25th European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning. (2017)Google Scholar

28.Chen, D., Li, G., Jiang, G., Fang, Y., Zhaojie, J., Liu, H.: Intelligent computational control of multi-fingered dexterous robotic hand. J. Comput. Theor. Nanosci. 12(12), 6126–6132 (2015)CrossRefGoogle Scholar

29.Li, G., Liu, J., Jiang, G., Liu, H.: Numerical simulation of temperature field and thermal stress field in the new type of ladle with the nanometer adiabatic material. Adv. Mech. Eng. 7(4), 1–13 (2015)Google Scholar

30.Starr, J.W., Lattimer, B.: Evidential sensor fusion of long-wavelength infrared stereo vision and 3D-LIDAR for rangefinding in fire environments. Fire Technol. 53, 1961–1983 (2017)CrossRefGoogle Scholar

31.Li, G., Yuesheng, G., Kong, J., Jiang, G., Xie, L., Zehao, W., Li, Z., He, Y., Gao, P.: Intelligent control of air compressor production process. Appl. Math. Inform. Sci. 7(3), 1051–1058 (2013)CrossRefGoogle Scholar

32.Scharstein, D., Szeliski, R.: High-accuracy stereo depth maps using structured light computer vision and pattern recognition, 2003. Proceedings. 2003 IEEE Computer Society Conference on. IEEE. 1: I-I (2003)Google Scholar

33.Mei, Q., Gao, J., Lin, H., Chen, Y., Yunbo, H., Wang, W., Zhang, G., Chen, X.: Structure light telecentric stereoscopic vision 3D measurement system based on Scheimpflug condition. Opt. Lasers Eng. 86, 83–91 (2016)CrossRefGoogle Scholar

34.Aguilar, J.J., Torres, F., Lope, M.A.: Stereo vision for 3D measurement: accuracy analysis, calibration and industrial applications. Measurement 18(4), 193–200 (1996)CrossRefGoogle Scholar

35.Li, G., Tang, H., Sun, Y., Kong, J., Guozhang J., Du, J., Bo T., Shuang, X., Liu, H.: Hand gesture recognition based on convolution neural network. Clust. Comput. (2017).  https://doi.org/10.1007/s10586-017-1435-x

36.Zhang, Y., Wang, Z., Zou, L., Fang, H.: Event-based finite-time filtering for multi-rate systems with fading measurements. IEEE Trans. Aerosp. Electron. Syst. 53(3), 1431–1441 (2017)CrossRefGoogle Scholar

37.Abdel-Aziz, Y., Karara, H.M.: Direct linear transformation into object space coordinates in close range photogrametry. Urbana-Champaign. pp. 1–18 (1971)Google Scholar

38.Zhang, Y., Wang, Z., Ma, L.: Variance-constrained state estimation for networked multi-rate systems with measurement quantization and probabilistic sensor failures. Int. J. Robust Nonlinear Control 26(16), 3507–3523 (2016)MathSciNetCrossRefzbMATHGoogle Scholar

39.Tsai, R.: A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses. IEEE J. Robot. Autom. 3(4), 323–344 (1987)CrossRefGoogle Scholar

40.Moons, T., Van Gool, L., Proesmans, M., Pauwels, E.: Affine reconstruction from perspective image pairs with a relative object-camera translation in between. IEEE Trans. Pattern Anal. Mach. Intell. 18(1), 77–83 (1996)CrossRefGoogle Scholar

41.Triggs, B.: Autocalibration and the absolute quadric. Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on. pp. 609–614. IEEE (1997)Google Scholar

42.Liao, Y., Sun, Y., Li, G., Kong, J., Guozhang Jiang, Du, Jiang, H.C., Zhaojie, J., Hui, Y., Liu, H.: Simultaneous calibration: a joint optimization approach for multiple kinect and external cameras. Sensors 17(7), 1491 (2017).  https://doi.org/10.3390/s17071491CrossRefGoogle Scholar

43.Tian, Z.: Face recognition from a single image per person using deep architecture neural networks. Clust. Comput. 19(1), 73–77 (2016)MathSciNetCrossRefGoogle Scholar

44.Sun, Y., Li, C., Li, G., Jiang, G., Jiang, D., Liu, H., Zheng, Z., Shu, W.: Gesture recognition based on kinect and sEMG signal fusion. Mob Netw Appl. (2018).  https://doi.org/10.1007/s11036-018-1008-0

44.Li, G., Peixin, Q., Kong, J., Jiang, G., Xie, L., Gao, P., Zehao, W., He, Y.: Coke oven intelligent integrated control system. Appl. Math. Inform. Sci. 7(3), 1043–1050 (2013)CrossRefGoogle Scholar

45.Li, G., Peixin, Q., Kong, J., Jiang, G., Xie, L., Zehao, W., Gao, P., He, Y.: Influence of working lining parameters on temperature and stress field of ladle. Appl. Math. Inform. Sci. 7(2), 439–448 (2013)CrossRefGoogle Scholar

46.Li, G., Liu, Z., Jiang, G., Xiong, H., Liu, H.: Numerical simulation of the influence factors for rotary kiln in temperature field and stress field and the structure optimization. Adv. Mech. Eng. 7(6), 1–15 (2015)CrossRefGoogle Scholar

47.Wang, F., Jia, K., Feng, J.: The real-time depth map obtainment based on stereo matching. The Euro-China Conference on Intelligent Data Analysis and Applications, pp. 138–144, Springer International Publishing (2016)Google Scholar

48.Yang, Q.: Stereo matching using tree filtering. IEEE Trans. Pattern Anal. Mach. Intell. 37(4), 834–846 (2015)CrossRefGoogle Scholar

49.Mozerov, M.G., van de Weijer, J.: Accurate stereo matching by two-step energy minimization. IEEE Trans. Image Process. 24(3), 1153–1163 (2015)MathSciNetCrossRefGoogle Scholar

50.Hirschmuller, H., Scharstein, D.: Evaluation of stereo matching costs on images with radiometric differences. IEEE Trans. Pattern Anal. Mach. Intell. 31(9), 1582–1599 (2009)CrossRefGoogle Scholar

51.Li, J., Huang, W., Shao, L., Allinson, N.: Building recognition in urban environments: a survey of state-of-the-art and future challenges. Inform. Sci. 277(2), 406–420 (2014)CrossRefGoogle Scholar

Gesture recognition based on binocular vision(基于双目视觉的手势识别)相关推荐

  1. 读论文-----基于单通道表面肌电信号的手势识别 Hand Gestures Recognition Based on One-Channel Surface EMG Signal

    Hand Gestures Recognition Based on One-Channel Surface EMG Signal 摘要 本文提出了一个利用OpenBCI采集两种手势信号的数据并解码信 ...

  2. 定位相关论文-A Novel Pedestrian Dead Reckoning Algorithm for Multi-Mode Recognition Based on Smartphones

    这里写目录标题 0.Abstract: 0.1逐句翻译 0.2总结 1. Introduction 1.1逐句翻译 第一段(当前的定位应用很发达,但是室内定位是一个缺口) 第二段(当前的主要方式-基于 ...

  3. 201904:Action recognition based on 2D skeletons extracted from RGB videos

    论文标题:Action recognition based on 2D skeletons extracted from RGB videos 发表时间:02 April 2019 解决问题/主要思想 ...

  4. TGARS 2019: What, Where, and How to Transfer in SAR Target Recognition Based on Deep CNNs ——学习笔记

    1 TGARS-2019论文:What, Where, and How to Transfer in SAR Target Recognition Based on Deep CNNs 链接:http ...

  5. Gesture Recognition

    "Gesture Recognition" allows Media Input devices(such as cameras) through the use of algor ...

  6. 论文阅读:Push the Limit of Acoustic Gesture Recognition

    这篇文章是香港理工大学郑元庆副教授团队在2020年IEEE INFOCOM(IEEE International Conference on Computer Communications)会议上的文 ...

  7. 阅读笔记:Zero-Effort Cross-Domain Gesture Recognition with Wi-Fi

    摘要   为了推进领域无关的感知,一个在较低的信号级别的领域无关的特征是关键.提出Widar3.0,主要为了在较低的信号级别推导和估计手势的速度分布.开发了一个只需一次训练但是可以适应不同数据领域的模 ...

  8. 论文学习:Occlusion Robust Face Recognition Based on Mask Learning

    论文地址:Occlusion Robust Face Recognition Based on Mask Learning with Pairwise Differential Siamese Net ...

  9. 【论文阅读】An Effective Method of Weld Defect Detectionand Classification Based on Machine Vision

    方法及概念: 混合高斯模型进行背景分割,提取缺陷区域 检测的缺陷类型:焊缝熔合.焊接穿孔.冷焊点.伪缺陷(灰尘.防锈胶等混合物) 焊缝缺陷分类算法区分焊缝缺陷,区分算法为灰度值曲线算法 焊缝特征:焊缝 ...

最新文章

  1. mysql cluster 视频_mysql cluster 部署实战
  2. Linux下使用expect实现跳板机自动跳转/免密登录/自动登录(转)
  3. vue 请求多个api_Vue 创建多人共享博客
  4. InvokeHelper,让跨线程访问/修改主界面控件不再麻烦(转)
  5. 向上造型和向下造型_学习园地 | 岭南盆景造型艺术——枝
  6. 极简代码(六)—— 返回 0/1 构成的布尔向量
  7. 决战EXCEL2010
  8. java 注解 @?(name=quot;usernamequot;),【MyBatis】MyBatis 注解开发
  9. java多数据源事务处理_springboot整合多数据源解决分布式事务
  10. python自动化办公(五)实现将读取的excel数据写到word指定的地方:示例(劳动合同)
  11. 李飞飞、吴恩达、Bengio等人的15大顶级深度学习课程(转)
  12. TypeError: Cannot read property 'getUserMedia' of undefined
  13. 《Machine Learning in Action》—— 懂的都懂,不懂的也能懂。非线性支持向量机
  14. wireshark过滤规则
  15. 概率论中PDF、PMF和CDF的区别与联系
  16. 记一次m3u8文件转mp4的经历
  17. 关于ITIL证书更新的重要通知
  18. Java九十条经验法则之第三条:用私有构造器或者枚举类型强化Singlen对象
  19. 10 张有关程序员的趣图,图图戳心
  20. windows7 设置png格式图片为桌面壁纸

热门文章

  1. MUI开发APP文本框获得焦点并弹出软键盘
  2. 贪心算法之优惠券问题-Gifts[USACO-2012-JAN-B]——zzx的博客
  3. unity和虚幻哪个更好
  4. 在SHP, DWG, DXF, KML/KMZ矢量数据中自由行走
  5. hdfs spark mysql环境_Mac上Hadoop, HDFS, Hive, Spark环境的安装和搭建
  6. linux wall(write all) 命令详解
  7. 2014阿里巴巴校园招聘笔试题(中南站)
  8. 关于constexpr与const
  9. ubuntu安装小米随身wifi驱动
  10. 亚马逊公司(Amazon)