文章目录

  • GaitPart:基于时间部分的步态识别模型
  • Abstract
  • 1. Introduction
  • 2. Related Work
  • 3. Proposed Method
    • 3.1. Pipeline
    • 3.2. Frame-level Part Feature Extractor
    • 3.3. Temporal Feature Aggregator
      • 微动作模板生成器
      • 时间池化
    • 3.4. Implementation Details
  • 参考文献

GaitPart:基于时间部分的步态识别模型

论文题目:GaitPart: Temporal Part-based Model for Gait Recognition

paper是北京科技大学发表在CVPR 2020的工作

论文地址:地址


Abstract

\quad \quad步态识别是基于视频的生物特征识别技术中最有前途的一种,用于识别长距离的个人行走模式。目前,大多数步态识别方法都是以整个人体为单位建立时空表示。然而,作者观察到,人体不同部位在行走过程中具有明显不同的视觉外观运动模式。在最新的文献中,使用部分特征进行人体描述已被证实有利于个体识别。综上所述,假设人体的每个部分都需要自己的时空表达。然后,作者提出了一种新的基于部分的模型GaitPart,并从两个方面得到了提高性能的效果:一方面,提出了一种新的卷积应用——焦点卷积层,以增强部分级空间特征细粒度学习。另一方面,提出了微动作捕捉模块(MCM),在GaitPart中有几个并行的MCM,分别对应人体的预定义部位。值得一提的是,MCM 是一种新颖的步态任务时间建模方法,它专注于短程时间特征,而不是循环步态的冗余远程特征。在两个最流行的公共数据集CASIA-B和OU-MVLP上的实验充分证明了本文的方法在多个标准基准上达到了最先进水平。源代码地址


1. Introduction

\quad \quad步态是描述人的行走模式的一种生理行为生物特征。与人脸、指纹和虹膜等其他生物特征识别方式相比,它可以很容易地在远距离捕获,并且不需要目标的明确合作。因此,步态识别在犯罪侦查访问控制社会安全等方面具有巨大的潜力。步态识别作为视觉中的一项识别任务,其基本目标是从人体形状的时间变化特征中学习唯一不变的表示。然而,在现实场景中,诸如背包携带外套穿着相机视角等变化会导致步态外观发生巨大变化,这给步态识别带来了重大挑战。

\quad \quad为了缓解这些问题,许多基于深度学习的方法提供了有希望的解决方案。Thomas等人利用3D-CNN提取时空信息,试图找到人类步态的通用描述符。GaitNet提出了一种自动编码器框架,用于从原始RGB图像中提取与步态相关的特征,然后使用 LSTM 对步态序列的时间变化进行建模。GaitSet假设轮廓的外观已经包含其位置信息,因此将步态视为提取时间信息的集合。

\quad \quad这些现有方法将整个人体形状作为一个单元来提取时空信息以进行最终识别。然而,作者观察到人体的不同部位在行走过程中具有明显不同的形状运动模式,如图1(a)所示。来自[6,15,20,5,12,13,19,28]的更多证据表明,人体描述的部分特征可以提供细粒度的信息,有利于个体识别任务。对于时间变化的特征,其中一些最先进的方法没有明确地对时间特征进行建模,这导致了时间序列中重要的不变特征的丢失。其他一些方法通过深度堆叠3D卷积或循环操作对远程依赖关系进行建模,以表示对步态序列的全局理解。然而,这些方法对周期性步态保留了不必要的长程序列约束,从而失去了步态识别的灵活性。

\quad \quad受上述发现的启发,作者假设人体的每个部分都需要自己的表达方式,其中局部短程时空特征微动作模式)是人类步态最具判别力的特征。因此,作者提出了一种新的基于时间部分的框架,称为 GaitPart。如图 1(b)所示,GaitPart 由两个设计良好的新的组件组成,即帧级部分特征提取器(FPFE)和微动作捕捉模块(MCM)。

图 1. (a):人类步态的不同部分在行走过程中具有明显不同的形状和运动模式。 (b): GaitPart 概述,由帧级部分特征提取器 (FPFE) 和微动作捕捉模块 (MCM) 组成。

\quad \quadGaitPart的输入是一系列步态轮廓。FPFE是一种特殊而简洁的叠加CNN,它首先将每一帧作为输入,然后在输出特征图上进行预定义的水平分割。通过这种方式,可以获得图1(b)中着色的多个部分空间特征序列,每个序列对应于人体的某个预定义部分,其微动作模式将被相应的MCM捕获。注意,这些并行MCM之间的参数是独立的,这反映了GaitPart是一种部分独立的方法。最后的步态表示是通过简单地级联这些MCM的所有输出而形成的。更具体地说,作者作出以下三大贡献:

  • 在 FPFE 中,提出了一种简单而有效的卷积应用,称为焦点卷积 (FConv),以增强对部分级空间特征细粒度学习。其核心思想是让顶层卷积核专注于输入帧的每个特定部分内的更多局部细节,直观地利用更细粒度的局部信息。
  • 在 MCM 中,作者认为局部短程时空特征(微动作模式) 是周期性步态最具判别力的特征,而长程依赖是冗长且低效的。此外,提出了一种基于注意力的 MCM 来模拟局部微动作特征和对整个步态序列的全局理解
  • 提出了一种新的基于时间部分的步态识别框架,称为 GaitPart。在广泛使用的步态数据库CASIAB和OU-MVLP上进行的大量实验表明,GaitPart 大大优于先前的最先进方法,显示出其优越性。在 CASIA-B上进行的大量严格消融实验进一步证明了GaitPart中每个组件的有效性。

2. Related Work

Gait Recognition. 大多数最先进的工作都以空间特征提取时间建模为重点。对于第一个问题,先前基于 CNN 的研究通常在整个特征图上执行常规的2-D或3-D卷积操作。虽然这种空间维度上的统一操作自然而广泛地应用,但这些方法忽略了步态任务中人体各部分之间的显著差异

\quad \quad为了获得时空表示,许多工作倾向于显式地对时间变化进行建模或直接将整个步态序列压缩到一帧中。然而,基于RNN的方法对周期性步态保留了不必要的顺序约束,而另一种基于GEI的方法对现实场景中的变化非常敏感,尽管它们具有简单的优势。

Part-based model. 将特征图分割成条带并将它们汇集到列向量中已普遍用于相关领域。例如,行人重识别。在忽略空间对齐的情况下,这些方法假设每个列向量可以代表人体的某个对应部分

\quad \quad不同于行人重识别领域,作者认为步态任务中基于部分的模式应该以部分依赖的方式设计。在步态任务中,虽然人体各部位在外观运动模式方面存在显著差异,但人体不同部位完全有可能具有共同的属性,例如Re-ID中的颜色纹理。因此,GaitPart 被设计为一种部分相关的方法,其参数在生成时空表示的阶段是部分相关的。

\quad \quad此外,本文还提出了焦点卷积(FConv),它是卷积的一种新的应用,构成了FPFE。更具体地说,FConv 首先将输入特征图分割成几个部分,然后分别对这些部分执行常规卷积。当深度堆叠 FConv 时,顶层神经元的感受野会受到限制,预计会集中在输入帧相应部分内的更多局部细节上。

Temporal model. 对步态时间变化进行建模的方法通常可以分为三类:3DCNN-BasedLSTM-basedSet-based。其中,基于3DCNN的方法直接提取用于步态识别的时空特征,但这些方法通常训练困难,不能带来很好的性能。Zhang等人提出了一种新的自动编码器框架,用于从原始RGB视频中提取姿势特征,并使用三层LSTM在时间序列中聚合这些姿势特征以生成最终步态特征。然而,基于LSTM的方法对周期性步态保留了不必要的顺序约束。通过假设轮廓的外观已经包含其位置信息,GaitSet提出将步态视为一个集合,并以时间池化的方式提取时空特征。这种方法足够简洁有效,但没有明确地建模时间变化

\quad \quad与上述相反,作者观察到具有相似视觉外观的帧可能会周期性地出现在周期性步态中,这表明在完整的步态周期后不会有判别性信息增益。这种现象意味着远程依赖(例如,比完整的步态周期更长)对于步态识别可能是多余且无效的。因此,GaitPart 将注意力转向局部短程时间建模,并提出了微动作捕捉模块。更多细节将在第 3.3 节中讨论。


3. Proposed Method

\quad \quad在本节中,首先介绍 GaitPart 的流程,然后介绍帧级部分特征提取器 (FPFE),最后介绍时间特征聚合器 (TFA) 和实现细节。框架如图2所示。

3.1. Pipeline


\quad \quad如图 2 所示,包含ttt帧的步态轮廓序列被逐帧输入 GaitPart。帧级部分特征提取器(FPFE)是一种专门设计的卷积网络,用于提取每个帧fif_ifi​的空间特征FiF_iFi​
Fi=FPFE⁡(fi)F_{i}=\operatorname{FPFE}\left(f_{i}\right) Fi​=FPFE(fi​)
其中i∈1,2,…,ti \in 1,2, \ldots, ti∈1,2,…,t表示帧在步态序列中的索引,FPFE 的细节将在 3.2 节中介绍。这样就可以得到一系列特征图,记为SF={Fi∣i=1,…,t}S_{F}=\left\{F_{i} \mid i=1, \ldots, t\right\}SF​={Fi​∣i=1,…,t},其中FiF_{i}Fi​是一个三维张量,即通道高度宽度维度。

\quad \quad然后,Horizontal Pooling(HP)模块,旨在提取部分人体的判别性部分形成的特征,将特征图FiF_{i}Fi​水平分割成nnn个部分。对于FiF_{i}Fi​的第jjj部分,Fj,iF_{j, i}Fj,i​,HP模块通过全局平均池化全局最大池化将其下采样成列向量pj,ip_{j, i}pj,i​
pj,i=Avgpool2d (Fj,i)+Maxpool2d (Fj,i)p_{j, i}=\text { Avgpool2d }\left(F_{j, i}\right)+\text { Maxpool2d }\left(F_{j, i}\right) pj,i​= Avgpool2d (Fj,i​)+ Maxpool2d (Fj,i​)
类似的操作在 [5, 6, 20, 15] 中很常见。

\quad \quad作为中间结果,SFS_{F}SF​中的每个特征图都可以转化为nnn个部分级特征向量,从中可以得到部分表示矩阵(PR-Matrix),记为P=(pj,i)n×tP=\left(p_{j, i}\right)_{n \times t}P=(pj,i​)n×t​。如图 2 所示,显然 PR-Matrix 中对应的向量行,记为Pj,⋅={pj,i∣i=1,2,…,t}P_{j, \cdot}=\left\{p_{j, i} \mid i=1,2, \ldots, t\right\}Pj,⋅​={pj,i​∣i=1,2,…,t},期望代表步态变化第jjj部分。因此,很自然地,可以通过将Pj,⋅P_{j,\cdot}Pj,⋅​聚合成特征向量vjv_{j}vj​来提取第 j 部分的时空特征,公式为
vj=MCM⁡j(Pj,⋅)v_{j}=\operatorname{MCM}_{j}\left(P_{j, \cdot}\right) vj​=MCMj​(Pj,⋅​)
其中MCMj\mathrm{MCM}_{j}MCMj​表示第jjj个微动作捕捉模块 (MCM)。并且有n个并行的MCM,它们的参数是独立的,组成了时间特征聚合器(TFA)。最后,使用几个独立的FC层将从TFA中提取的特征向量映射到度量空间,以进行最终的个体识别。

图 2. GaitPart 的框架。 Block1、2 和 3 由 FConvs 和池化层组成。 HP 代表 Horizontal Pooling,MCM 代表 Micro-motion Capture Module。特别是,MCMjMCM_jMCMj​负责聚合 Part Representation Matrix 中第jjj行的所有向量,以生成时空特征vjv_jvj​用于最终识别。


3.2. Frame-level Part Feature Extractor


\quad \quad帧级部分特征提取器(FPFE)旨在提取每一帧的部分形成的空间特征,由三个块组成,每个块由两个焦点卷积层(FConv)组成。接下来先详细介绍FConv,然后再详细介绍FPFE的具体结构。

Definition. FConv是卷积的一种新应用,它可以首先将输入特征映射水平分割成几个部分,然后分别对每个部分执行常规卷积。设ppp为预定义部分的数量,特别是当p=1p=1p=1时,FConv等效于常规卷积层。

Motivation. 为了加强对部分信息空间特征细粒度学习,作者开发了FConv。如图3(a)所示,随着网络的深入,通过在FConv中设置超参数p,顶层神经元的感受野将限制在比正常情况更窄的范围内,这使得顶层神经元即使在深度网络中也可以关注输入帧相应部分内的更多局部细节。对感受野的这种约束有望为每个部分提取更细粒度和更精确的特征。

Operation. 如图 3(b) 所示,输入的特征图首先被水平分割成ppp个预定义的部分,然后分别对这些部分执行常规卷积操作。之后,输出的特征图将被水平级联起来,作为FConv的最终输出。此外,FPFE 的确切结构如表1所示,为每个FConv设置超参数ppp的消融研究将在第 4.3 节中讨论。

图3.(a):深层网络中顶层神经元感受野的扩展。上图:常规情况。底部:使用FConvs。(b):FConv的图示和特征图通过其尺寸显示,例如C×H×WC\times H\times WC×H×W。

表1. 帧级部分特征提取器的具体结构。In_C、Out_C、Kernel和Pad分别代表FConv的输入通道、输出通道、卷积核大小和填充。特别的,ppp表示FConv中预设的部分数量。


3.3. Temporal Feature Aggregator


\quad \quad如 3.1 节所述,时间特征聚合器 (TFA) 由 n 个并行微动作捕捉模块 (MCM) 组成,每个 MCM 负责对相应部分的短程时空表示进行建模。接下来,以MCM的细节为重点,忽略预定义部分的索引。

\quad \quadMCM包含两个部分:微动作模板生成器(MTB)和时间池化(TP)。令Sp=S_{p}=Sp​= {pi∣i=1,2,…,t}\left\{p_{i} \mid i=1,2, \ldots, t\right\}{pi​∣i=1,2,…,t}为PR-Matrix的一行,这是一个具有序列通道维度的二维张量。MTB旨在将部分级特征向量SpS_{p}Sp​序列映射到微动作特征向量序列SmS_{m}Sm​中,公式为 Sm=MTB⁡(Sp)S_{m}=\operatorname{MTB}\left(S_{p}\right)Sm​=MTB(Sp​)。之后,通过对序列SmS_{m}Sm​的聚合,TP模块将提取出最具判别力的运动特征向量vvv,公式化为v=TP⁡(Sm)v=\operatorname{TP}\left(S_{m}\right)v=TP(Sm​),用于最终识别。接下来,将首先详细描述MTB模块,然后是TP模块。

微动作模板生成器

Description.帧级部分信息特征向量映射到微动作特征向量中。
Motivation. 假设短距离的时空表示(微动作特征)是周期性步态的最有判别力的特征,并认为任何特定时刻的微动作模式应该完全由其本身及其相邻帧决定
Operation. 让R(pi,r)={pk∣k=i−r,…,i,…,i+r}R\left(p_{i}, r\right)=\left\{p_{k} \mid k=i-r, \ldots, i, \ldots, i+r\right\}R(pi​,r)={pk​∣k=i−r,…,i,…,i+r}代表由pip_{i}pi​及其rrr相邻帧组成的子序列,然后iii时刻的微动作特征可以定义为
mi=TempFunc (R(pi,r))m_{i}=\text { TempFunc }\left(R\left(p_{i}, r\right)\right) mi​= TempFunc (R(pi​,r))
其中Tempfunc表示微动作模板函数,目的是压缩子序列R(pi,r)R\left(p_{i}, r\right)R(pi​,r)。

\quad \quad参照GEI将序列中所有帧的平均值作为步态的时空表示的做法,作者将两个统计函数作为模板函数的实例化。如图4所示,对SpS_{p}Sp​的每一时刻应用模板函数,实际上是在进行一维全局平均池化一维全局最大池化,核大小为2r+12 r+12r+1。这样就得到了微动作特征向量序列SmS_{m}Sm​,可以表示为
Sm=Avgpool1d (Sp)+Maxpool1d (Sp)S_{m}=\text { Avgpool1d }\left(S_{p}\right)+\text { Maxpool1d }\left(S_{p}\right) Sm​= Avgpool1d (Sp​)+ Maxpool1d (Sp​)

图 4. 微动作捕捉模块(MCM,包括 MTB 和 TP 模块)的详细结构。 MTB模块在序列维度上滑动,将每个相邻的2r+12r+12r+1列向量聚合成一个微动作特征向量。然后,TP 模块应用一个简单的 max 函数来收集帧和通道维度之间最具判别力的微动作特征,以进行最终识别。

\quad \quad此外,为了获得对微动作具判别力的表示,引入了通道注意力机制来重新加权每个时刻的特征向量。事实上,采用一维卷积核,重新加权的微动作序列SmreS_{m}^{r e}Smre​可以被表述为
Slogits =Conv1dNet (Sp)Smre=Sm⋅Sigmoid (Slogits )\begin{aligned} S_{\text {logits }} &=\text { Conv1dNet }\left(S_{p}\right) \\ S_{m}^{r e} &=S_{m} \cdot \text { Sigmoid }\left(S_{\text {logits }}\right) \end{aligned} Slogits ​Smre​​= Conv1dNet (Sp​)=Sm​⋅ Sigmoid (Slogits ​)​
其中Conv1dNet表示一个由两个一维卷积层组成的小网络。

\quad \quad如图 4 所示,MTB 就像一个滑动窗口检测器。一方面,窗口内的所有帧级特征向量都会被 TempFunc 压缩成一个微动作向量。另一方面,引入了通道注意力机制,使模型能够根据窗口内的特征对微动作向量进行重新加权,从而使更多有判别性的动作表达能够被突出,用于最终的识别。

\quad \quad实际上,有两个MTB,在MCM中使用不同的窗口大小(3和5),如图5所示。每个 MTB 中 Conv1dNet 的确切结构如表2所示。本设计的目的是在序列维度上融合多尺度信息,从而聚集更丰富的微动作特征。消融研究将在第 4.3 节中显示。

图 5. 实践中微动作捕捉模块的抽象结构,包含 TP 和两个具有不同窗口大小(3 和 5)的并行 MTB 模块。

表 2. MTB1 和 MTB2 的确切结构。在 C 中,In_C、Out_C、Kernel 和 Pad 分别表示一维卷积层的输入通道、输出通道、核大小和填充。特别是,C 和 s 分别表示输入特征图的通道和压缩比。注意,“|”周围的值分别代表 MTB1 和 MTB2 的设置。

时间池化

Description. 聚合微动作特征向量序列,Smre(t)={mire∣i=1,…,t}S_{m}^{r e}(t)=\left\{m_{i}^{r e} \mid i=1, \ldots, t\right\}Smre​(t)={mire​∣i=1,…,t},表示步态运动模式,公式为
v=TP(Smre(t))v=\mathrm{TP}\left(S_{m}^{r e}(t)\right) v=TP(Smre​(t))
其中vvv表示TP模块的输出(列向量)。

Principle. 作为一个周期运动,一个完整的周期应该能够完整地代表理想条件下的整个步态序列。因此,令Smre(T)={mire∣i=1,…,T}S_{m}^{r e}(T)=\left\{m_{i}^{r e} \mid i=1, \ldots, T\right\}Smre​(T)={mire​∣i=1,…,T}表示完整步态周期内的微动作特征序列(T 表示周期),TP 模块应满足以下公式:
For ∀t>T,∃TP⁡(Smre(t))=TP⁡(Smre(T))\text { For } \forall t>T, \exists \operatorname{TP}\left(S_{m}^{r e}(t)\right)=\operatorname{TP}\left(S_{m}^{r e}(T)\right)  For ∀t>T,∃TP(Smre​(t))=TP(Smre​(T))
这就是步态时间聚合的基本原理,其核心思想是周期性步态经过一个完整的周期后不会有判别性信息增益

Operation. 两个自然而简单的统计函数应用于序列维度,作为TP模块的实例,即mean(⋅)\text{mean}(\cdot)mean(⋅)和max⁡(⋅)\max (\cdot)max(⋅)。

当TP(⋅)=mean(⋅)\mathrm{TP}(\cdot)=\text{mean} (\cdot)TP(⋅)=mean(⋅)
TP⁡(Smre(t))=∑1tmiret\operatorname{TP}\left(S_{m}^{r e}(t)\right)=\frac{\sum_{1}^{t} m_{i}^{r e}}{t} TP(Smre​(t))=t∑1t​mire​​
TP⁡(Smre(T))=∑1TmireT\operatorname{TP}\left(S_{m}^{r e}(T)\right)=\frac{\sum_{1}^{T} m_{i}^{r e}}{T} TP(Smre​(T))=T∑1T​mire​​

\quad \quad很明显,当且仅当ttt是TTT的整数倍时,上面两式相等(这里mirem_{i}^{r e}mire​不是常数)。然而,真实世界步态视频的长度是不确定的,mean(⋅)\text{mean}(\cdot)mean(⋅)的统计函数似乎不是一个很好的选择。

当TP(⋅)=max⁡(⋅)\mathrm{TP}(\cdot)=\max (\cdot)TP(⋅)=max(⋅)
TP⁡(Smre(t))=max⁡(m1re,…,mTre,…,mtre)TP⁡(Smre(T))=max⁡(m1re,…,mTre)\begin{gathered} \operatorname{TP}\left(S_{m}^{r e}(t)\right)=\max \left(m_{1}^{r e}, \ldots, m_{T}^{r e}, \ldots, m_{t}^{r e}\right) \\ \operatorname{TP}\left(S_{m}^{r e}(T)\right)=\max \left(m_{1}^{r e}, \ldots, m_{T}^{r e}\right) \end{gathered} TP(Smre​(t))=max(m1re​,…,mTre​,…,mtre​)TP(Smre​(T))=max(m1re​,…,mTre​)​

\quad \quad由于步态是一个周期性动作,显然上两式相等。因此,最终决定采用函数max⁡(⋅)\max (\cdot)max(⋅)。消融研究将在第 4.3 节中讨论。


3.4. Implementation Details


Network hyper-parameters. 如表中所1示,FPFE 由 FConv LayersMax Pooling LayersLeaky ReLU 激活函数组成。需要指出的是,在FConv中设置了预定义的部分编号ppp。当ppp较大时,施加在感受野上的约束更强。而当p=1p=1p=1时,FConv相当于普通的卷积层,约束会被移除。因此,随着网络的深入,设置ppp值的经验也在增加。

Loss and Sampler. 如第3.1节所述,GaitPart的输出是n列特征向量。在这项工作中,使用单独的 Batch All (BA+)triplet loss来训练网络,并使用不同样本之间对应的列特征向量来计算损失。训练批大小为(pr,k)(pr,k)(pr,k),其中prprpr表示人数,kkk表示训练一批中每个人的样本数。此外,在测试阶段,原始步态视频将直接输入模型;在训练阶段,由于步态视频的长度不确定,采样器应收集一个固定长度的片段作为输入:先截取一个30-40帧长的片段,然后随机抽取30个排序的帧进行训练。特别的,如果原始视频的长度小于 15 帧,它将被丢弃。并且长度大于15帧小于30帧时,会重复采样。

Testing. 在测试阶段,gallery和probe之间的距离被定义为相应特征向量的欧几里得距离的平均值。

参考文献

[5] Hanqing Chao, Yiwei He, Junping Zhang, and Jianfeng Feng. Gaitset: Regarding gait as a set for cross-view gait recognition. AAAI, 2019. 1, 2, 3, 7, 8

[6] Yang Fu, Yunchao Wei, Yuqian Zhou, Honghui Shi, Gao Huang, Xinchao Wang, Zhiqiang Yao, and Thomas Huang. Horizontal pyramid matching for person re-identification. AAAI, 33, 04 2018. 2, 3

[12] S. Li, S. Bak, P. Carr, and X. Wang. Diversity regularized spatiotemporal attention for video-based person reidentification. In CVPR, pages 369–378, 2018. 2, 5

[13] W. Li, X. Zhu, and S. Gong. Harmonious attention network for person re-identification. In CVPR, pages 2285–2294, 2018. 2

[15] Hao Luo, Youzhi Gu, Xingyu Liao, Shenqi Lai, and Wei Jiang. Bag of tricks and a strong baseline for deep person re-identification. In CVPR Workshops, June 2019. 2, 3

[19] C. Su, J. Li, S. Zhang, J. Xing, W. Gao, and Q. Tian. Posedriven deep convolutional model for person re-identification. In ICCV, pages 3980–3989, 2017. 2

[20] Yifan Sun, Liang Zheng, Yi Yang, and Shengjin Wang. Beyond part models: Person retrieval with refined part pooling. ECCV, 11 2017. 2, 3

[28] H. Yao, S. Zhang, R. Hong, Y. Zhang, C. Xu, and Q. Tian. Deep representation learning with part loss for person reidentification. IEEE Transactions on Image Processing, 28(6):2860–2871, June 2019. 2

(CVPR-2020)GaitPart:基于时间部分的步态识别模型(一)相关推荐

  1. 知识图谱 基于CRF的命名实体识别模型

    基于CRF的命名实体识别模型 条件随机场 CRF ​ 条件随机场 CRF 是在已知一组输入随机变量条件的情况下,输出另一组随机变量的条件概率分布模型:其前提是假设输出随机变量构成马尔可夫随机场:条件随 ...

  2. CVPR 2020丨基于并行点检测和点匹配的单阶段实时HOI Detection方法

    本文转载自知乎,为商汤科技CVPR 2020最新论文解读. https://zhuanlan.zhihu.com/p/144238209 在CVPR2020上,商汤团队联合北京航空航天大学Colab( ...

  3. CVPR 2020丨基于范例的精细可控图像翻译CoCosNet,一键生成你心目中的图像

    编者按:图像翻译是近年来的研究热点,类比于自然语言翻译,它将输入图像的表达转化为另一种表达,在图像创作.图像风格化.图像修复.域自适应学习等领域有着广泛应用.然而现有技术通常仅能产生合理的目标域图像, ...

  4. CVPR 2020 | ACGPN: 基于图像的虚拟换装新思路

    点击上方"机器学习与生成对抗网络",关注"星标" 获取有趣.好玩的前沿干货! CVPR 2020之117篇GAN论文分类清单 编辑  AI科技评论 本文介绍的是 ...

  5. 【步态识别】基于深度学习的步态识别系统的MATLAB仿真,包括ALEXNET,改进CNN,GOOGLENET

    1.软件版本 matlab2021a 2.本算法理论知识 图显示了步态识别研究策略的流程图.在整个研究过程中,我们将从实际场景中记录多人的行走视频.利用颜色模型从行走视频中提取人体目标,得到人体目标行 ...

  6. 基于LDA+SVM实现人脸识别模型

    基于LDA+SVM实现人脸识别模型 描述 人脸识别(图像识别)是机器学习领域十经典的应用,在本质上,人脸识别属于监督学习中的分类问题.前面章节中我们已经学习了支持向量机(SVM),该算法在图像分类领域 ...

  7. CVPR 2020丨基于点云的3D物体检测新框架

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 本文介绍的是CVPR2020入选论文<HVNet: Hybrid Voxel ...

  8. 基于深度学习的步态识别算法的MATLAB仿真

    可以看到,他们制作数据库是在非常理想的情况下进行的. 可以看到,拍摄的背景为单一的颜色࿰

  9. 一种基于SE-Inception的茄科疾病识别模型

    A solanaceae disease recognition model based on SE-Inception 1.期刊信息 期刊名称:Computers and Electronics i ...

最新文章

  1. 【Fragment】onActivityResult
  2. python编程基础是什么-编程学习第一步,让你20天搞定Python编程
  3. Android自动化测试之Robotium学习(二)
  4. Qt工作笔记-树图结构的2种方式,实现右键菜单
  5. [HAOI2012]高速公路
  6. anconda设置镜像源_管理2000+Docker镜像,Kolla是如何做到的
  7. win10禁用计算机维护,win10哪些服务可以禁用 服务哪些可以禁止启动
  8. 【转】Linux内核调试方法总结
  9. centos下的nginx安装工作记录20130701
  10. 自己写daemon守护进程
  11. mysql connectors层_mysql底层工作原理
  12. dw相对路径怎么改_了解 Dreamweaver 模板中的路径
  13. 桌面图标icon替换客制图标。图标要比原始图标大,要求一致。应用图标去掉四周白边,保持原有比例。
  14. 84、举办大型群众性活动的消防安全要求
  15. [BJDCTF 2nd]假猪套天下第一
  16. 编写测试用例方法----因果图判定表
  17. Linux-线程安全
  18. 登陆页面总结(bootdo)
  19. 关于HTML的超链接
  20. simditor上传图片php,Simditor图片上传

热门文章

  1. flv.js php,B站视频开源代码flv.js+HTML5无flash播放视频
  2. 创建学生成绩数据库的简单sql语句
  3. 三七互娱 2021秋招 游戏测试
  4. nginx日志[配置解释]
  5. java调用qt生成的dll_在Qt中调用vs2008生成的dll以及lib的方法
  6. 静态路由设置实例解析
  7. 【9.4】多元复合函数的求导法则
  8. 不懂就问:PHP浮点数中的e和E分别表示什么?
  9. python实现日历功能_详解Python日历模块的使用
  10. 1.2 聪明的投资者:投资与投机(聪明投资者的预期收益)