目录

  • 1. 论文&代码源
  • 2. 论文亮点
  • 3. 模型结构
    • 3.1 建模思路
    • 3.2 建立拉格朗日方程
    • 3.3 网络结构
      • 3.3.1 运动分支(Motion Branch)
      • 3.3.2 视图嵌入分支(View Embedding)
      • 3.3.3 水平金字塔池化(HPP)
      • 3.3.4 损失函数
  • 4. 实验结果
    • 4.1 CASIA-B
    • 4.2 OU-MVLP
    • 4.3 消融实验
    • 4.4 结果可视化
  • 5.总结

1. 论文&代码源

《Lagrange Motion Analysis and View Embeddings for Improved Gait Recognition》
论文地址:https://ieeexplore.ieee.org/document/9879229
代码下载地址: https://github.com/ctrasd/LagrangeGait

2. 论文亮点

在本文中,通过数学建模分析,作者认为只使用一阶时间信息是很难进行步态识别的,为了有效地对人的行走模式进行建模,二阶运动特征是不容忽视的。
为了验证上述观点,作者提出了一种新的运动辅助步态识别方法,以进一步减少视角差异带来的识别误差,同时引入了一种视角感知的嵌入方法,其能够产生一个多分支框架,该框架结合了剪影序列的视图、外观和内在运动。
实验结果表明,本文所提出的模型可以有效地缩小因视角差异引起的类内误差。

注意:本文中,dxdt\frac {\text d x}{\text d t}dtdx为一阶运动特征;d2θdt2\frac {\text d^2 \theta}{\text d t^2}dt2d2θ为二阶运动特征。

1) 通过拉格朗日方程对人体进行建模:

通过拉格朗日方程(组)对人类行走过程进行建模,并得出结论:除了一阶运动特征外,我们还需要使用二阶运动特征来表示步态;

2) 提出二阶运动提取模块:

二阶运动提取模块能够提取高层特征图上的特征;

3) 引入一种新的轻量级视图嵌入模块:

引入一种新的、轻量级的视图嵌入模块,能够减少因视角变化引起的识别误差;

4) 实验结果可视化:

将所提出的方法应用于公共数据集,验证了方法的有效性,并进行了一些可视化的严谨,以进一步证明方法的正确性。

3. 模型结构

3.1 建模思路

现阶段步态识别的最优方法虽然能够取得很高的识别精度,但是我们很难确定它究竟是依赖于人体形状还是“步态”进行识别的。基于这一猜想,作者提出了使用拉格朗日方程来分析人类的行走模式。

3.2 建立拉格朗日方程


如上图所示,假设人的大腿和小腿是刚性连接的,从而对其进行机械结构的建模。
两条大腿和小腿的长度和质量分别用l1l_1l1, l2l_2l2, m1m_1m1, m2m_2m2l3l_3l3, l4l_4l4, m3m_3m3, m4m_4m4表示;θi\theta _iθi表示(大/小)腿与水平线之间的夹角;假设人是以小距离xxx水平向前运动。

首先可以得到动能方程:
T=12(m1+m2+m3+m4)(dxdt)2+16(m1l12(dθ1dt)2+m2l22(dθ2dt)2+m3l32(dθ3dt)2+m4l42(dθ4dt)2)(1)T = \frac 12(m_1 + m_2 + m_3 + m_4)(\frac {\mathrm d x}{\mathrm dt})^2 + \frac 16(m_1 l_1^2(\frac{\mathrm d \theta_1}{\mathrm dt})^2\\+ m_2 l_2^2(\frac{\mathrm d \theta_2}{\text dt})^2+ m_3 l_3^2(\frac{\mathrm d \theta_3}{\mathrm dt})^2+ m_4 l_4^2(\frac{\mathrm d \theta_4}{\mathrm dt})^2) \qquad(1)T=21(m1+m2+m3+m4)(dtdx)2+61(m1l12(dtdθ1)2+m2l22(dtdθ2)2+m3l32(dtdθ3)2+m4l42(dtdθ4)2)(1)

势能方程:
V=−12m1gl1cosθ1−m3g(l1cosθ1+l32cosθ3)−12m2gl2cosθ2−m4g(l2cosθ2+l42cosθ4)(2)V = -\frac 12 m_1gl_1 \mathrm {cos} \theta_1 - m_3g(l_1 \mathrm {cos} \theta_1 + \frac{l_3}2 \mathrm{cos} \theta_3) \\ -\frac 12 m_2gl_2 \mathrm {cos} \theta_2 - m_4g(l_2 \mathrm {cos} \theta_2 + \frac{l_4}2 \mathrm{cos} \theta_4) \qquad(2)V=21m1gl1cosθ1m3g(l1cosθ1+2l3cosθ3)21m2gl2cosθ2m4g(l2cosθ2+2l4cosθ4)(2)

然后凑出拉格朗日方程:
(说实话,从上面两个等式我怎么凑也没能凑出来下面的拉格朗日方程组,不知道是前面的列错了,还是后面的方程组是错的,,,这一部分有待继续研究。。。。)
{(m1+m2+m3+m4)d2xdt2=Q013m1l12d2θ1dt2−12(m1+m3)gl1sinθ1dθ1dt=Q113m2l22d2θ2dt2−12(m2+m4)gl1sinθ2dθ2dt=Q2(3)13m3l32d2θ3dt2−12m3gl3sinθ3dθ3dt=Q313m4l42d2θ4dt2−12m4gl4sinθ4dθ4dt=Q4\begin{cases} (m_1 +m_2 +m_3 + m_4)\frac{\mathrm d^2x}{\mathrm d t^2} =Q_0\\ \displaystyle \frac 13 m_1 l_1^2 \frac {\mathrm d^2 \theta _1}{\mathrm d t^2} -\frac12(m_1 +m_3)gl_1 \mathrm {sin} \theta _1 \frac {\mathrm d \theta _1}{\mathrm d t} = Q_1 \\ \displaystyle \frac 13 m_2 l_2^2 \frac {\mathrm d^2 \theta _2}{\mathrm d t^2} -\frac12(m_2 +m_4)gl_1 \mathrm {sin} \theta _2 \frac {\mathrm d \theta _2}{\mathrm d t} = Q_2\qquad(3) \\ \displaystyle \frac 13 m_3 l_3^2 \frac {\mathrm d^2 \theta _3}{\mathrm d t^2} -\frac12 m_3 gl_3 \mathrm {sin} \theta _3 \frac {\mathrm d \theta _3}{\mathrm d t} = Q_3 \\ \displaystyle \frac 13 m_4 l_4^2 \frac {\mathrm d^2 \theta _4}{\mathrm d t^2} -\frac12 m_4 gl_4 \mathrm {sin} \theta _4 \frac {\mathrm d \theta _4}{\mathrm d t} = Q_4 \\ \end{cases}(m1+m2+m3+m4)dt2d2x=Q031m1l12dt2d2θ121(m1+m3)gl1sinθ1dtdθ1=Q131m2l22dt2d2θ221(m2+m4)gl1sinθ2dtdθ2=Q2(3)31m3l32dt2d2θ321m3gl3sinθ3dtdθ3=Q331m4l42dt2d2θ421m4gl4sinθ4dtdθ4=Q4

其中,Q0Q_0Q0, Q1Q_1Q1, Q2Q_2Q2, Q3Q_3Q3, Q4Q_4Q4表示的是广义力,广义力是来自人体肌肉的力和阻力,这些力是人运动的本质,并且在一个步态周期内连续变化。

3.3 网络结构

作者提出疑问:
我们已知的是3D CNN可以提取时间信息,但是很难证明级联后的3D CNN是否可以进一步提取二阶运动信息,并且很难知道3D CNN是在提取运动信息,还是仅仅对特征图进行求和。

所以作者设计了一个模块,利用光流估计中使用的方法提取二阶运动特征,与3D CNN相比,这一方法可以明确地提取相邻帧之间的运动(从而进一步分析)。

作者提出了一个名为LagrangeGait的网络模型,该网络的框架由三个分支组成。
顶层分支是运动分支,根据前述列出的拉格朗日方程,提取二阶运动特征;中间分支是提取外观特征的主干分支,借鉴的是GaitSet或GaitGL等骨架网络,在这一分支中浅层提取出的特征图被用于运动(顶层)分支;底层分支为视觉分支,负责预测输入剪影序列的视图,并产生可训练的视图嵌入模块。

给定一个步态剪影序列,表示为I={I1,I2,...,IT}\pmb I = \{ \pmb I_1, \pmb I_2, ..., \pmb I_T \}III={III1,III2,...,IIIT},其中TTT为序列长度。

主干分支提取的浅层特征图为Xorigin=[X1,X2,...,Xt]\pmb X_{origin} = [\pmb X_1, \pmb X_2, ..., \pmb X_t]XXXorigin=[XXX1,XXX2,...,XXXt],其中Xi∈RC×H×W\pmb X_i \in \Bbb R^{C \times H \times W}XXXiRC×H×WXorigin∈Rt×C×H×W\pmb X_{origin} \in \Bbb R^{t \times C \times H \times W}XXXoriginRt×C×H×Wttt是池化后特征图在时间维度上的长度。

随后,Xorigin\pmb X_{origin}XXXorigin被送入不同的分支:
Xorigin=F3d(I)Xmotion=Fmotion(Xorigin)Xappearance=Fbackbone(Xorigin)fview=Fview(Xappearance)\pmb X_{origin} = F_{3d}(\pmb I)\\ \pmb X_{motion} = F_{motion}(\pmb X_{origin})\\ \pmb X_{appearance} = F_{backbone}(\pmb X_{origin})\\ \pmb f_{view} = F_{view}(\pmb X_{appearance}) XXXorigin=F3d(III)XXXmotion=Fmotion(XXXorigin)XXXappearance=Fbackbone(XXXorigin)fffview=Fview(XXXappearance)其中,Xmotion,Xappearance∈RC2×H×W\pmb X_{motion}, \pmb X_{appearance} \in \Bbb R^{C_2 \times H \times W}XXXmotion,XXXappearanceRC2×H×W, fview∈RC3\pmb f_{view} \in \Bbb R^{C_3}fffviewRC3以及Fmotion,Fbackbone,FviewF_{motion}, F_{backbone}, F_{view}Fmotion,Fbackbone,Fview分别与上述三个分支相对应。

然后,对序列视角进行预测,并融合到Xmotion\pmb X_{motion}XXXmotionXappearance\pmb X_{appearance}XXXappearance中:p^=Fpredict(fview)fmotion=Ffusion1(Xmotion,p^)fappearance=Ffusion2(Xappearance,p^)\hat p = F_{predict}(\pmb f_{view})\\ \pmb f_{motion} = F_{fusion_1}(\pmb X_{motion},\hat p)\\ \pmb f_{appearance} = F_{fusion_2}(\pmb X_{appearance}, \hat p)p^=Fpredict(fffview)fffmotion=Ffusion1(XXXmotion,p^)fffappearance=Ffusion2(XXXappearance,p^)其中,p^∈RM\hat p \in \Bbb R^Mp^RM是预测视角,MMM是离散视图的个数;fmotion\pmb f_{motion}fffmotionfappearance\pmb f_{appearance}fffappearance分别是最终得到的运动特征和外观特征,fmotion∈Rnmotion×C3,fappearance∈Rnappearance×C3\pmb f_{motion} \in \Bbb R^{n_{motion} \times C_3}, f_{appearance} \in \Bbb R^{n_{appearance} \times C_3}fffmotionRnmotion×C3,fappearanceRnappearance×C3,其中nmotion,nappearancen_{motion} , n_{appearance}nmotion,nappearance是使用HPP模块对运动特征图和外观特征图进行切片的条数,C3C_3C3是两个特征图的通道数(是相等的)。

最终用于步态识别的特征为:
ffinal=[fmotion;fappearance](4)\pmb f_{final} = [\pmb f_{motion}; \pmb f_{appearance}] \qquad(4)ffffinal=[fffmotion;fffappearance](4)
上述方程的具体运算过程将在下文中进行详细解释。

3.3.1 运动分支(Motion Branch)

一阶特征提取层使用三维卷积,二阶特征提取参考RAFT光流法【RAFT: Recurrent All-Pairs Field Transforms for Optical Flow】的结构(光流法的介绍可以参考这一篇博客:【入门向】光流法(optical flow)基本原理+深度学习中的应用【FlowNet】【RAFT】),并使用相邻帧响应关系:X0=FQ(Xorigin,i)X1=FK(Xorigin,i+1)Att(X0,X1)=Softmax(X0TX1)\pmb X_0 = F_Q(\pmb X_{origin, i})\\ \pmb X_1 = F_K(\pmb X_{origin, i+1})\\ Att(\pmb X_0, \pmb X_1) = Softmax(\pmb X_0^T\pmb X_1)XXX0=FQ(XXXorigin,i)XXX1=FK(XXXorigin,i+1)Att(XXX0,XXX1)=Softmax(XXX0TXXX1)其中,FQF_QFQFKF_KFK是核为1×11 \times 11×1的卷积层组合,进行维度合并Att(X0,X1)∈RHW×HWAtt(\pmb X_0, \pmb X_1) \in \Bbb R^{HW \times HW}Att(XXX0,XXX1)RHW×HW

随后,相关图被重塑为Cor(X0,X1)∈RH×W×HWCor(\pmb X_0, \pmb X_1) \in \Bbb R^{H \times W \times HW}Cor(XXX0,XXX1)RH×W×HW

因为我们已经假设在一帧的时间内,人体的移动是很微小的,那么对于Xorigin,i\pmb X_{origin, i}XXXorigin,i中的任一像素点x=(u,v)\pmb x = (u, v)xxx=(u,v),在Xorigin,i+1\pmb X_{origin, i+1}XXXorigin,i+1中对应的像素点为x′=(u+f1(u),v+f1(v))\pmb x' = (u+f^1(u), v+f^1(v))xxx=(u+f1(u),v+f1(v)),采样范围为:N(x)r={x+dx∣dx∈Z2,∣∣dx∣∣1≤r}N(x)_r = \{\pmb x + \pmb{dx}|\pmb {dx}\in \Bbb Z^2,||\pmb{dx}||_1 \le r \}N(x)r={xxx+dxdxdxdxdxdxZ2,dxdxdx1r}其中,dx\pmb{dx}dxdxdx是采样偏移量,rrr是采样半径。

对于Cor(X0,X1)Cor(\pmb X_0, \pmb X_1)Cor(XXX0,XXX1)上的每一个像素点x\pmb xxxx,我们根据N(x)rN(x)_rN(x)r定义的公式进行采样,可以得到Xcorr,i′∈RH×W×(2r+1)2\pmb X_{corr,i}' \in \Bbb R^{H \times W \times (2r+1)^2}XXXcorr,iRH×W×(2r+1)2,然后对通道的表示位置进行交换,得到Xcorr,i∈R(2r+1)2×H×W\pmb X_{corr,i} \in \Bbb R^{(2r+1)^2 \times H \times W}XXXcorr,iR(2r+1)2×H×W

最后,二阶特征图在时间维度上进行整合,得到一个特征图的序列:Xcorr=[Xcorr,1;Xcorr,2;...;Xcorr,t−1]X_{corr} = [X_{corr,1}; X_{corr,2}; ...; X_{corr,t-1}]Xcorr=[Xcorr,1;Xcorr,2;...;Xcorr,t1]其中Xcorr∈R(2r+1)2×t−1×H×WX_{corr} \in \Bbb R^{(2r+1)^2 \times {t-1} \times H \times W}XcorrR(2r+1)2×t1×H×W

然后,使用三维卷积得到运动特征:Xmotion=F3dconv(Xcorr)(5)\pmb X_{motion} = F_{3dconv}(X_{corr}) \qquad(5)XXXmotion=F3dconv(Xcorr)(5)其中,F3dconvF_{3dconv}F3dconv的卷积核大小为3×3×33 \times 3 \times 33×3×3Xmotion∈RC2×T×H×W\pmb X_{motion} \in \Bbb R^{C2 \times T \times H \times W}XXXmotionRC2×T×H×W

3.3.2 视图嵌入分支(View Embedding)

对于现有的步态识别模型,很少有考虑到视图本身的方法,本文作者提出了一种更轻量级的视图嵌入(融合)方法。

首先计算输入特征图Xorigin\pmb X_{origin}XXXorigin视图特征Xappearance=PMax(Xorigin)fview=PGlobal_Avg(Xappearance)\pmb X_{appearance} = P_{Max}(\pmb X_{origin})\\ \pmb f_{view} = P_{Global\_Avg}(\pmb X_{appearance})XXXappearance=PMax(XXXorigin)fffview=PGlobal_Avg(XXXappearance)其中,PMaxP_{Max}PMax是时间维度上的最大池化,PGlobal_AvgP_{Global\_Avg}PGlobal_Avg是全局平均池化。

然后,预测的视角可以用下列方程进行计算:p^=Wviewfview+Bviewy^=argmaxpi^\hat p = W_{view} \pmb f_{view} +B_{view} \\ \hat y = \text{arg} \text{max}\hat{p_i}p^=Wviewfffview+Bviewy^=argmaxpi^其中,Wview∈RM×C2W_{view} \in \Bbb R^{M \times C_2}WviewRM×C2BviewB_{view}Bview分别是全连接层的权重和偏置;视图预测结果y^∈{0,1,2,...,M−1}\hat y \in \{0, 1, 2, ..., M-1\}y^{0,1,2,...,M1}MMM是视角数量,对于CASIA-B数据集M=11M=11M=11,对于OU-MVLP数据集M=14M=14M=14

argmax是求出使因变量为最大值时自变量的值(集合),这里返回的是自变量的索引值。

对于每一个离散视角y^\hat yy^,将训练两个嵌入Em,y^∈C0E_{m,\hat y} \in \Bbb C_0Em,y^C0Ea,y^∈C0E_{a,\hat y} \in \Bbb C_0Ea,y^C0分别融合进运动和外观特征,并应用于HPP模块。

3.3.3 水平金字塔池化(HPP)

在步态识别中,水平金字塔池化(HPP)已经被广泛应用,本文除了对外观使用HPP之外,还对运动特征图做了同样的池化操作,在对两者进行池化结束后,与前面视角嵌入结果相连接,得到最终的特征投影。

对于HPP后得到的外观特征图表示为fapp,1,fapp,2,...,fapp,n\pmb f_{app,1}, \pmb f_{app,2}, ..., \pmb f_{app,n}fffapp,1,fffapp,2,...,fffapp,n其中,fapp,i∈RC2\pmb f_{app,i} \in \Bbb R^{C_2}fffapp,iRC2nnn是被分割出的条数,对于运动分支和外观分支,条数分别是nmotionn_{motion}nmotionnappearancen_{appearance}nappearance

作者原文这部分的Ffusion1F_{fusion_1}Ffusion1Ffusion2F_{fusion_2}Ffusion2搞混了。。
假设Xmotion\pmb X_{motion}XXXmotionzzz,那么Ffusion1F_{fusion_1}Ffusion1可以用下式进行计算:fmv,i=[fmotion,i;Em,z]ffinalm,i=Wpfmv,i,i=1,2,...,nmotionfmotion=[ffinalm,1,ffinalm,2,...,ffinalm,nmotion]\pmb f_{mv,i} = [\pmb f_{motion,i};E_{m,z}]\\ \pmb f_{finalm,i} = W_p \pmb f_{mv,i}, \space i=1, 2, ..., n_{motion} \\ \pmb f_{motion} = [\pmb f_{finalm,1}, \pmb f_{finalm,2}, ..., \pmb f_{finalm,n_{motion}}]fffmv,i=[fffmotion,i;Em,z]ffffinalm,i=Wpfffmv,i,i=1,2,...,nmotionfffmotion=[ffffinalm,1,ffffinalm,2,...,ffffinalm,nmotion]其中,fmv,i∈RC2+C0\pmb f_{mv,i} \in \Bbb R^{C_2 +C_0}fffmv,iRC2+C0ffinalm,i∈RC2\pmb f_{finalm,i} \in \Bbb R^{C_2}ffffinalm,iRC2fmotion∈Rnmotion×C2\pmb f_{motion} \in \Bbb R^{n_{motion} \times C_2}fffmotionRnmotion×C2

Xappearance\pmb X_{appearance}XXXappearance同理。

最后得到最终特征ffinal∈R(nmotion+nappearance)×C2\pmb f_{final} \in \Bbb R^{(n_{motion}+n_{appearance})\times C_2}ffffinalR(nmotion+nappearance)×C2

3.3.4 损失函数

包括交叉熵损失和三元组损失,用公式分别表示为:LCE=−∑i=1N∑j=1Myijlog(pij),pij=ep^ij∑j=1Mep^ij(6)\mathcal L_{CE} = -\sum_{i=1}^N \sum _{j=1}^M y_{ij}\text {log}(p_{ij}),\space p_{ij} = \frac {e^{\hat p_{ij}}}{\sum _{j=1}^M e^{\hat p_{ij}}}\qquad(6)LCE=i=1Nj=1Myijlog(pij),pij=j=1Mep^ijep^ij(6)Ltrip=1K∑i=1K∑j=1nmax(m−dij−+dij+,0)(7)\mathcal L_{trip} = \frac 1K \sum _{i=1}^K \sum _{j=1}^n max(m-d_{ij}^- + d_{ij}^+,0)\qquad(7)Ltrip=K1i=1Kj=1nmax(mdij+dij+,0)(7)
L=Ltrip+λCELCE(8)\mathcal L = \mathcal L_{trip} + \lambda_{CE} \mathcal L_{CE}\qquad(8)L=Ltrip+λCELCE(8)

4. 实验结果

4.1 CASIA-B

4.2 OU-MVLP

4.3 消融实验



4.4 结果可视化

5.总结

本文首先用拉格朗日方程对人类的行走过程进行建模,并说明了二阶运动信息对于区分相似步态外观是十分必要的。基于这一结论,作者解释了为什么使用3D CNN能够取得更好地性能,并提出了一个新的二阶运动提取模块。

此外,作者提出了一个轻量级的视角嵌入模块,以减少因视角变化引起的类内误差。

最后作者期望拉格朗日步态识别框架能够为其他领域的运动分析提供新思路。

参考博客:

(CVPR-2022)用于改进步态识别的拉格朗日运动分析和视角嵌入

【入门向】光流法(optical flow)基本原理+深度学习中的应用【FlowNet】【RAFT】

【步态识别】LagrangeGait基于拉格朗日《Lagrange Motion Analysis and View Embeddings for Improved Gait Recognition》相关推荐

  1. 【图像识别-步态识别】基于计算机视觉实现步态周期检测与步态角度特征提取附MATLAB源码

    1 内容介绍 人体步态是人行走的姿态.它作为一种新的行为特征,具有非接触性.可感知性和非侵犯性.难以伪装和隐藏.易于捕捉等特点,而且在系统的低分辨率下.一定距离时它是唯一可感知的特征.步态识别就是根据 ...

  2. 【步态识别】基于深度学习的步态识别系统的MATLAB仿真,包括ALEXNET,改进CNN,GOOGLENET

    1.软件版本 matlab2021a 2.本算法理论知识 图显示了步态识别研究策略的流程图.在整个研究过程中,我们将从实际场景中记录多人的行走视频.利用颜色模型从行走视频中提取人体目标,得到人体目标行 ...

  3. 【步态识别】基于CNN、步态能量图+HOG特征提取的步态识别算法的MATLAB仿真

    卷积层的结构如下所示: 具体可以看如下的网址: 这个是传统的卷积神经网络.我们按这个进行设计.仿真结果如下: 他的识别率为88.89%. 然后我这里介绍下我们的改进思路,改进思路如下所示: 此外, 影 ...

  4. 【步态识别】基于CNN深度学习的步态识别算法的MATLAB仿真

    目录 1.软件版本 2.本算法理论知识点 3.算法具体理论 4.核心代码 5.仿真演示

  5. (CVPR-2020)GaitPart:基于时间部分的步态识别模型(一)

    文章目录 GaitPart:基于时间部分的步态识别模型 Abstract 1. Introduction 2. Related Work 3. Proposed Method 3.1. Pipelin ...

  6. python步态识别算法_译 | GaitSet:将步态作为序列的交叉视角步态识别(一)

    本文是复旦大学发表于 AAAI 2019 的工作,截至目前CASIA-B正确率最高的网络. 英文粘贴原文,google参与翻译但人工为主,有不对的地方欢迎评论 ,部分为本人理解添加,非原文内容. 译 ...

  7. 2021WSB-day3-3:Yasushi教授介绍步态识别的最新研究进展

    听百家之言,集百家智慧,站在巨人肩上攀登 日本大阪大学科学与工程研究所的Yasushi Yagi教授介绍了步态识别的优势,步态识别具有一些与其他生物特征不同的独特优势,比如不需要认证个体的专门配合就能 ...

  8. 【步态识别】GaitEdge超越普通的端到端识别《GaitEdge: Beyond Plain End-to-end Gait Recognition for Better Practicality》

    目录 1. 论文&代码源 2. 论文亮点 3. 跨域识别问题 4. 框架解读 4.1 步态合成(Gait Synthesis) 预处理(Pre-processing) 4.2 步态调整模块(G ...

  9. CVPR2020 步态论文:Gait Recognition via Semi-supervised Disentangled Representation Learning to Identit

    论文题目:Gait Recognition via Semi-supervised Disentangled Representation Learning to Identity and Covar ...

最新文章

  1. CVPR 2017 全部及部分论文解读集锦
  2. html导航去下划线,纯CSS实现导航栏下划线跟随的示例代码
  3. try catch对异常进行输出到日志、_java安全编码指南之:异常处理
  4. android 通知栏按钮,android 通知栏添加按钮点击效果
  5. 新闻资讯java开发_新闻资讯app开发的功能与意义
  6. Hive系列(一)metastore的认证和授权
  7. mysql row 格式binlog 恢复_为什么要把MySQL的binlog格式修改为row
  8. java date eee_java将 Date原始格式EEE MMM dd HH:mm:ss Z yyyy转成指定格式
  9. 【渝粤教育】国家开放大学2018年春季 0133-21T大学物理 参考试题
  10. linux c 调用c程序,Linux C调用C++库(用C封装C++接口)
  11. visio 2013安装使用
  12. PMP考试题型是如何分布的?
  13. html变形金刚代码,百度变形金刚JS特效
  14. 【点云处理技术之PCL】点云配准算法之NDT
  15. 中创教育提示:教育机构主动退费?警惕落入退费诈骗陷阱!
  16. 「精研科技」× 企企通,全球MIM龙头借助采购供应商数字化向多领域突破
  17. ins是什么与Instagram有什么区别
  18. 【AI实战】手把手教你深度学习文字识别(文字检测篇:基于MSER, CTPN, SegLink, EAST等方法)...
  19. 论文阅读(21 AAAI)Mind-the-Gap Unsupervised Domain Adaptation for Text-Video Retrieval
  20. 【Linux】解决可恶的 “NIC Link is Down”

热门文章

  1. C++:二维数组参数传递
  2. 微信公众平台搭建与开发揭秘
  3. 深度学习OSSIM关联分析(附源码注解)
  4. Qt入门-QLabel类
  5. 【Linux】grep命令与正则表达式(RegExp)
  6. Git最佳实践(init、config、status、add、commit、diff、push) 1.0v
  7. 计算机机房线槽,机房机柜布置 机房整改之布线篇~
  8. AIS航行状态和船舶类型
  9. RSA非对称加密传输---前端加密解密(VUE项目)
  10. el-table 合并单元格(合并行)