文章目录

  • 具有深度通用线性嵌入的跨视角步态识别
  • Abstract
  • 1. Introduction
  • 2. Related Work
  • 3. The Koopman Operators
  • 4. Proposed Approach
    • 4.1. Problem Formulation
    • 4.2. Model Architecture
      • Observation Functions Approximating
      • Koopman Matrix Memory
      • Discriminative Feature Extractor
    • 4.3. Loss Functions
    • 4.4. Implementation Details
  • Results
  • 参考文献

具有深度通用线性嵌入的跨视角步态识别

paper题目:Cross-View Gait Recognition with Deep Universal Linear Embeddings

paper是北航发表在CVPR 2021的工作

论文地址:链接

Abstract

与指纹和虹膜等其他生物特征标识符相比,步态因其非侵入性和非合作特性而被认为是一种有吸引力的生物特征标识符。目前,跨视图步态识别方法总是从各种深度卷积网络中建立表示进行识别,而忽略了步态序列的潜在动态信息。如果假设行人具有不同的步行模式,则可以通过计算每个视角的动态特征来执行步态识别。本文将Koopman算子理论引入步态识别,可以为非线性动力系统的全局线性逼近找到嵌入空间。此外,提出了一种基于卷积变分自编码器和深度 Koopman 嵌入的新框架来逼近 Koopman 算子,将其用作来自线性化嵌入空间的动态特征,用于跨视角步态识别。它为步态识别系统提供了可靠的物理解释性。在大型公共数据集 OU-MVLP 上进行的实验证明了所提出方法的有效性。

1. Introduction

步态识别旨在通过识别人的体型和行走方式来识别人。与指纹或虹膜等其他生物特征相比,步态不需要检测目标合作,并且可以在更远的距离上执行。此外,它也很难伪装。因此,步态识别可以应用于一些特殊的事务,例如刑事调查。

尽管进展令人鼓舞,但步态识别仍然受到许多外部因素的影响,例如携带条件、不同的步幅、服装和相机视角,这些因素会降低步态识别系统的性能。在所有这些挑战因素中,相机视角可能是最棘手的一个。现有技术证明,如果改变视角,单视图步态识别系统的性能将急剧下降。

为了解决这些问题,已经提出了许多用于跨视角步态识别的深度学习模型,并取得了很好的效果。一般来说,这些方法可以分为两类,分别是基于外观的方法和基于模型的方法。前者是过去几年步态识别的主流。这些方法从步态轮廓图像中提取特征,并通过度量学习损失函数优化特征空间中的个体内距离,而无需步态周期建模。此外,还提出了时间融合单元和部分分割单元来结合轮廓序列和局部部分的特征。

基于模型的步态识别专注于以数学方式从步态序列重建身体结构。三维模型比二维模型传达更多信息,并且可以构建来表示步态模式。因此,它可以在理论上针对视角变化实现可接受的性能。一些生物力学步态分析也支持这一点。然而,这些方法的性能容易受到姿态估计的准确性和轮廓序列质量的影响,这限制了它们的发展。

一般来说,基于外观的方法擅长特征表示,但存在数据不足的问题,而基于模型的方法更能观察差异,但难以构建。尽管深度卷积神经网络 (ConvNets) 可以提供强大的特征提取器并在受控场景中实现出色的性能,但现有模型仍然不能很好地处理较大的视角差异或服装和物品携带的变化。因为,本质上,ConvNet 还是一个二维模板,而人体是一个三维对象。毫不奇怪,即使有确切的人的数据,该模型仍然无法处理他/她未包含在训练集中的 2D 投影。这个问题也被称为计算机视觉的不适定问题。

受基于惯性传感器的步态分析、生物力学步态分析和人类步态动态分析工作的启发,作者意识到动态特征在步态识别中具有竞争力,因为它模拟了人类步态的本质,运动过程,而不是纯粹的人形。因此,与大多数现有的深度学习方法不同,本文从动态系统的角度探索跨视角步态识别。更具体地说,作者介绍了 Koopman 理论,它是流体力学文献中分析非线性系统的流行工具。事实上,Koopman 理论已经作为视频背景分离、图像欺诈和运动检测应用于计算机视觉。至于步态识别,最相关的工作是 Wang 等人的工作[39],其中应用窗口动态模式分解来生成步态能量图像。然而,在他们的工作中只研究了静态步态特征。

如图 1 所示,Koopman 理论侧重于非线性系统的系统线性表示,它提供了一种表示步态步行周期的新方法。通过近似 Koopman 算子提出了一种新的跨视角步态识别框架(见图 2)。首先,对齐的轮廓被输入卷积变分自动编码器 (VAE) 以进行图像级编码。然后,强制执行额外的约束和损失函数来识别动态线性演变的 Koopman 算子。最后,从 Koopman 矩阵中训练一个全连接的网络以获得最终的步态表示。

图 1. 以前的工作侧重于步态轮廓序列的特征融合,并搜索具有相同身份的特征对的距离较小的判别空间 (a)。本文计算步态图像线性演化的 Koopman 空间中的动态特征(b),然后从它们的动态特征中识别它们。

总而言之,作者做出以下三个主要贡献。

  • 将 Koopman 理论引入步态轮廓的动态特征提取。这是第一项应用 Koopman 分析的研究。
  • 通过集成卷积变分自动编码器和深度 Koopman 嵌入,提出了一种用于跨视角步态识别的新框架。
  • 在广泛使用的大型步态数据库OU-MVLP上进行了实验。结果证明了本文方法的有效性,这对理解步态识别和人类步行动力学之间的联系做出了重要贡献。

2. Related Work

在本节中,将简要介绍最近在步态识别方面的工作。在深度学习时代之前,时间序列分析方法被应用于一些工作中,例如自回归建模和隐马尔可夫模式,用于动态建模。这些模型通常具有很强的假设,但它们也不能很好地拟合非线性系统。在深度学习时代,ConvNets已在众多计算机视觉任务中被证明是成功的,它也被用于步态识别并取得了令人钦佩的性能。一般来说,基于 ConvNet 的方法可以分为两类,基于外观的方法和基于模型的方法。同时,根据输入数据的类型,所提出的工作也可以分为基于模板的方法和基于序列的方法。

大多数基于模板的方法应用 ConvNets 从单个步态图像中提取步态特征,例如步态能量图像 (GEI)或其他类似 GEI 的模板图像。吴等人[43]提出了三个具有不同架构的 ConvNet,并进行了一系列实验,显着提高了跨视角步态识别性能。同时,还提出了一些生成模型来将步态图像从一个视图转换到另一个视角,例如自动编码器和生成对抗网络。

一些工作直接从步态轮廓序列建立模型。他们应用时间模型对信息进行跨时间编码,例如特征图池化、长短期记忆和三维ConvNet。一些关于大型步态数据库的最新作品呈现出具有竞争力的性能。GaitSet提出了一种将步态视为一组轮廓而不是连续序列的新颖观点。他们认为剪影的外观包含位置信息,这是对时间信息的替代。因此,他们应用一个简单的 ConvNet 从轮廓中提取帧级步态特征,然后使用池化操作将帧级特征聚合为单个集合级特征。张等人[50]提出了一种与 ConvNets 相结合的模型,用于单图像特征提取和 LSTM 注意力模型,用于帧级 ConvNet 上的注意力分数。GaitPart提出了一种带有微动作捕捉模块的新型基于部分的模型,该模型还提供了一种时间建模方法。

最近,一些工作专注于基于模型的步态识别方法。他们从步态图像序列中重建人体的数学结构。可以构建人体行走的三维数据,它比二维数据传达的信息更多。因此,它可以通过三维模型旋转来解决跨视角问题。然而,它收到过多的细节的影响,从而降低了crossview步态识别的性能。

3. The Koopman Operators

本节将介绍 Koopman 算子和扩展动态模式分解的基础知识。 Koopman 算子是一种线性但无限维的算子,通过数据驱动的方法进行近似。对于非线性动力系统,Koopman 观察函数将原始状态空间映射到一个嵌入空间,在该嵌入空间中,动力学将普遍线性发展。扩展动态模态分解 (EDMD) 是一种逼近 Koopman 特征值、特征函数和模态元组的方法。 EDMD 过程需要两个先决条件:快照数据集和观察函数字典。

给定一个离散时间动态系统,xt∈Mx_{t} \in \mathcal{M}xtM在时间步ttt,描述为:
xt+1=F(xt)x_{t+1}=F\left(x_{t}\right) xt+1=F(xt)
其中FFF表示及时映射系统状态的动力学。 Koopman 理论根据函数的演化提供了对动力系统的另一种描述,即 Koopman 算子K\mathcal{K}K,它是一个无限维线性算子。将特征函数表示为φp:M→F\varphi_{p}: \mathcal{M} \rightarrow \mathcal{F}φp:MF和Koopman算子K\mathcal{K}K的特征值λp\lambda_{p}λp,有
Kφp(xt)=λpφp(xt),p=1,2,…\mathcal{K} \varphi_{p}\left(x_{t}\right)=\lambda_{p} \varphi_{p}\left(x_{t}\right), \quad p=1,2, \ldots Kφp(xt)=λpφp(xt),p=1,2,
考虑一个向量值函数g:M→Fg: \mathcal{M} \rightarrow \mathcal{F}g:MFK\mathcal{K}Kggg映射到一个新函数Kg\mathcal{K} gKg中,满足:
Kg(xt)=g(F(xt))\mathcal{K} g\left(x_{t}\right)=g\left(F\left(x_{t}\right)\right) Kg(xt)=g(F(xt))
如果ggg位于特征函数φp\varphi_{p}φp的范围内,则ggg可以根据特征函数展开为
g(xt)=∑p=1∞φp(xt)vpg\left(x_{t}\right)=\sum_{p=1}^{\infty} \varphi_{p}\left(x_{t}\right) v_{p} g(xt)=p=1φp(xt)vp
然后有
g(F(xt))=Kg(xt)=∑p=1∞Kφp(xt)vp=∑p=1∞λpφp(xt)vp\begin{aligned} g\left(F\left(x_{t}\right)\right) &=\mathcal{K} g\left(x_{t}\right) \\ &=\sum_{p=1}^{\infty} \mathcal{K} \varphi_{p}\left(x_{t}\right) v_{p} \\ &=\sum_{p=1}^{\infty} \lambda_{p} \varphi_{p}\left(x_{t}\right) v_{p} \end{aligned} g(F(xt))=Kg(xt)=p=1Kφp(xt)vp=p=1λpφp(xt)vp
因此,如果将λp\lambda_{p}λp视为系数,则系统的动态是线性的:
g(F(xt))=Kg(xt)g\left(F\left(x_{t}\right)\right)=K g\left(x_{t}\right) g(F(xt))=Kg(xt)
其中 Koopman 算子K\mathcal{K}K将产生一个矩阵KKK到由φp\varphi_{p}φp跨越的子空间。传统上,观测函数ggg可以通过手工设计的方法从基础物理知识中确定。然后,系统识别问题可以转化为求 Koopman 矩阵KKK,在给定收集到的数值数据的情况下,可以通过线性回归求解。总之,Koopman 算子理论侧重于非线性系统的线性表示,捕获原始非线性系统的全部信息。

4. Proposed Approach

4.1. Problem Formulation


给定一个步态轮廓序列,可以将其视为时间序列数据{xt}\left\{x_{t}\right\}{xt},其中t∈[1,2,…,M]t \in[1,2, \ldots, M]t[1,2,,M]MMM是该步态序列中的帧数。 Koopman 理论表明,通过在线性空间中用 Koopman 算子表示非线性动力学系统,可以将线性系统的预测用于系统状态分析。假设通过假设行人具有独特的步行模式,将人类步行视为动态系统。在这种情况下,可以根据受试者iii的步态轮廓序列{xi,t}\left\{x_{i, t}\right\}{xi,t}计算不同的 Koopman 矩阵KiK_{i}Ki
g(xi,t+1)=Kig(xi,t)g\left(x_{i, t+1}\right)=K_{i} g\left(x_{i, t}\right) g(xi,t+1)=Kig(xi,t)
一旦可以通过最小二乘解从{xi,t}\left\{x_{i, t}\right\}{xi,t}估计KiK_{i}Ki,可以在比较估计的步行模式K^i\hat{K}_{i}K^i的相似性后识别行人的身份:
K^iT=LS(Φ({xi,t}))\hat{K}_{i}^{\mathrm{T}}=L S\left(\Phi\left(\left\{x_{i, t}\right\}\right)\right) K^iT=LS(Φ({xi,t}))
其中Φ\PhiΦ是表示观察函数ggg的卷积神经网络,LSL SLS代表最小二乘解。因此,将步态识别任务制定如下:
feat i=Ψ(LS(Φ({xi,t})))\text { feat }_{i}=\Psi\left(L S\left(\Phi\left(\left\{x_{i, t}\right\}\right)\right)\right) feati=Ψ(LS(Φ({xi,t})))
其中Ψ\PsiΨ是一个全连接网络,它将估计的 Koopman 矩阵K^i\hat{K}_{i}K^i转换为用于个体识别的判别空间中的新特征。

此外,估计的 Koopman 矩阵K^i\hat{K}_{i}K^i也可用于预测未来,因为它包含原始系统的信息。在我们的模型中,行人{x^~i,t}\left\{\tilde{\hat{x}}_{i, t}\right\}{x^~i,t}的未来图像可以预测为:
x^~i,t+T=K^iTΦ(xi,t)\tilde{\hat{x}}_{i, t+T}=\hat{K}_{i}^{T} \Phi\left(x_{i, t}\right) x^~i,t+T=K^iTΦ(xi,t)

4.2. Model Architecture


模型由三个关键组件组成,包括观察函数逼近模块 (OFA)、Koopman 矩阵记忆 (KMM) 和判别特征提取器模块 (DFE)。

在 OFA 模块中,应用具有卷积层的变分自动编码器 (VAE)来利用深度学习的能力来表示 Koopman 算子的特征函数。 KMM 模块包含训练集中每个人的可学习参数 Ki,可以通过反向传播进行训练。在 DFE 模块中,使用简单的全连接网络将估计的 Koopman 矩阵转换为用于跨视角识别的判别空间。该模型如图 2 所示。

图 2. 提出的方法的框架。在训练步骤一中,OFA 和 KMM 模块被训练。在训练步骤二中,只有 DFE 模块中的参数使用 OFA 中的参数进行训练。

Observation Functions Approximating


在观察函数逼近模块中,输入数据是对齐的步态轮廓序列。在时间步长ttt具有身份iii的图像xi,tx_{i, t}xi,t被输入编码器Φ\PhiΦ
zi,t=Φ(xi,t)z_{i, t}=\Phi\left(x_{i, t}\right) zi,t=Φ(xi,t)

编码器Φ\PhiΦ包含六个卷积层和两个全连接层,如表1所示。在全连接层之后,网络给出一个平均向量μ\muμ和一个标准差向量σ\sigmaσ。他们都是DDD维的。然后得到从分布N(μ,σ2)N\left(\mu, \sigma^{2}\right)N(μ,σ2)中采样的xi,tx_{i, t}xi,t的编码。编码器Φ\PhiΦ旨在借助深度网络的非线性变换而不是原始观察函数将原始输入数据xi,t∈Rnx_{i, t} \in \mathbb{R}^{n}xi,tRn转换为 Koopman 空间zi,t∈Fz_{i, t} \in \mathcal{F}zi,tFΦ\PhiΦ的输出大小为DDD,这意味着在这项工作中,设置F=RD\mathcal{F}=\mathbb{R}^{D}F=RDDDD是该模型的超参数,可以通过实验确定。在这项工作中,设置D=128D=128D=128。认为 128 维空间足以逼近 Koopman 矩阵进行识别,因为步态周期是一个相对简单的动力系统。

一个解码器Φ−1\Phi^{-1}Φ1用于确保 Koopman 空间中的代码zi,tz_{i, t}zi,t保留原始图像中的大部分有用信息,而不是收敛于诸如零之类的异常值,而架构也显示在表 1 中,
x~i,t=Φ−1(zi,t)\tilde{x}_{i, t}=\Phi^{-1}\left(z_{i, t}\right) x~i,t=Φ1(zi,t)

该编码器-解码器模块通过将原始步态序列转换为 Koopman 空间来提取人类行走模式。代替手工设计的观察函数,编码器-解码器结构能够表示任意函数,包括所需的 Koopman 特征函数。因此,本文的模型可以准确地拟合人类步行动力学,而无需手动设计功能。

表 1. 编码器Φ\PhiΦ、解码器Φ−1\Phi^{-1}Φ1和全连接网络Ψ\PsiΨ的架构。除了 FC 2 和 FC 7 之外,每个卷积和全连接层之后都会跳过激活函数 ReLU。FC 5 和 FC 6 之后的批量归一化层也被跳过。每个卷积层后面的字符串被格式化为过滤器的大小,即特征图的维度。 Conv 代表卷积算子,Deconv 代表 2D 转置卷积算子,而 outpadding 代表添加到输出形状一侧的附加尺寸。

Koopman Matrix Memory


假设个体具有独特的步行模式。因此,他们的 Koopman 矩阵在匀速行走时应该是相同的。为了在训练阶段实现这一假设,为训练数据集构建了一个 Koopman Matrix MemoryKKKK=[Ki]K=\left[K_{i}\right]K=[Ki]是一个可学习的参数矩阵,通过反向传播从预测相同步态序列中的下一帧进行训练。训练集中的每个个体都有一个唯一的KiK_{i}Ki,它是一个D×DD \times DD×D矩阵,随机初始化。在输入步态序列X=[xi,t]X=\left[x_{i, t}\right]X=[xi,t]被编码为Z=[zi,t]Z=\left[z_{i, t}\right]Z=[zi,t]后,KiK_{i}Ki用于预测 Koopman 空间中下一个快照的状态
[z^i,2,z^i,3,…,z^i,t+1]=Ki[zi,1,zi,2,…,zi,t]\left[\hat{z}_{i, 2}, \hat{z}_{i, 3}, \ldots, \hat{z}_{i, t+1}\right]=K_{i}\left[z_{i, 1}, z_{i, 2}, \ldots, z_{i, t}\right] [z^i,2,z^i,3,,z^i,t+1]=Ki[zi,1,zi,2,,zi,t]

KiK_{i}Ki直接从Koopman Matrix MemoryKKK加载。这样可以保证不同视角的输入步态序列可以编码到同一个空间中。需要注意的是,Koopman Matrix MemoryKKK仅用于训练 OFA 模块。 OFA 模块中的参数被冻结后,该 KMM 模块将从模型中移除,不再使用。

Discriminative Feature Extractor


最后,一个简单的全连接网络Ψ\PsiΨ将估计的 Koopman 矩阵K^i\hat{K}_{i}K^i转换为判别空间中的新特征:
feat i=Ψ(K^i)\text { feat }_{i}=\Psi\left(\hat{K}_{i}\right) feati=Ψ(K^i)
其中欧几里得距离可以用来衡量两个特征的相似度。还应该注意的是,输入数据K^i\hat{K}_{i}K^i是通过公式K^iT=LS(Φ({xi,t}))\hat{K}_{i}^{\mathrm{T}}=L S\left(\Phi\left(\left\{x_{i, t}\right\}\right)\right)K^iT=LS(Φ({xi,t}))中所示的最小二乘估计计算的,而不是来自 Koopman Matrix Memory 的KiK_{i}KiΨ\PsiΨ的架构如表 1 所示。

4.3. Loss Functions


实现了OFA模块中自编码器的重构精度,以减少空间信息丢失。 LΦ\mathcal{L}_{\Phi}LΦ是指原始步态轮廓序列与从线性空间恢复的步态轮廓序列之间的差异,如下:
LΦ=∥xi,t−Φ−1(Φ(xi,t))∥\mathcal{L}_{\Phi}=\left\|x_{i, t}-\Phi^{-1}\left(\Phi\left(x_{i, t}\right)\right)\right\| LΦ=xi,tΦ1(Φ(xi,t))

同时,应用额外的损失Lμ,σ\mathcal{L}_{\mu, \sigma}Lμ,σ来增强模型生成能力,它试图将分布推向尽可能接近单位高斯,
Lμ,σ2=KL(N(μ,σ2)∥N(0,1))\mathcal{L}_{\mu, \sigma^{2}}=K L\left(N\left(\mu, \sigma^{2}\right) \| N(0,1)\right) Lμ,σ2=KL(N(μ,σ2)N(0,1))
其中KLK LKL代表 Kullback-Leibler 散度。

根据 Koopman 理论,学习线性动力学KiK_{i}Ki以确保线性动力学:Φ(xi,t+1)=\Phi\left(x_{i, t+1}\right)=Φ(xi,t+1)= KiΦ(xi,t)K_{i} \Phi\left(x_{i, t}\right)KiΦ(xi,t)。更一般地说,在SSS个时间步上执行线性预测,损失为:
Llinear =∥Φ(xi,t+S)−KiSΦ(xi,t)∥\mathcal{L}_{\text {linear }}=\left\|\Phi\left(x_{i, t+S}\right)-K_{i}^{S} \Phi\left(x_{i, t}\right)\right\| Llinear=Φ(xi,t+S)KiSΦ(xi,t)
此外,还需要在SSS个时间步长上使用Lfurure \mathcal{L}_{\text {furure }}Lfurure预测未来的步态图像:
Lfurure =∥xi,t+S−Φ−1(KiSΦ(xt))∥\mathcal{L}_{\text {furure }}=\left\|x_{i, t+S}-\Phi^{-1}\left(K_{i}^{S} \Phi\left(x_{t}\right)\right)\right\| Lfurure=xi,t+SΦ1(KiSΦ(xt))
在这些损失中,范数∥⋅∥\|\cdot\|是均方误差,并且它们都是在训练批次中平均的。

至于 DFE 模块,带有硬挖掘的三元组损失Ltriplet \mathcal{L}_{\text {triplet }}Ltriplet和 Softmax 损失Lsoftmax \mathcal{L}_{\text {softmax }}Lsoftmax都用于身份识别。在一个训练批次中,从训练集中随机选择p×kp \times kp×k个步态轮廓序列,其中ppp表示所选主题的数量,kkk表示不同视角的数量。对于一个训练batch中的每一个数据作为anchor,为Ltriplet \mathcal{L}_{\text {triplet }}Ltriplet选择最难的正数据和最难的负数据。同时,对Lsoftmax \mathcal{L}_{\text {softmax }}Lsoftmax应用了一个额外的分类器,它以yiy_{i}yi作为输入,在图 2 中省略。

4.4. Implementation Details


在训练过程中,整个模型分两步训练。一起训练 OFA 和 KMM 模块,在训练步骤一中没有 DFE 模块。然后冻结 OFA 模块的参数,在第二步训练中单独训练 DFE 模块而不使用 KMM 模块。原因是最小二乘解应用于计算的 Koopman 矩阵K^i\hat{K}_{i}K^i。如果完全训练这个模型,它需要通过最小二乘解中的特征分解步骤反向传播损失,这是不稳定的。此外,如果不能正确建立 Koopman 空间,则 Koopman 矩阵K^i\hat{K}_{i}K^i都是无理数。因此,采用了两步训练策略。

在训练步骤一中,OFA 和 KMM 模块与损失函数一起训练:
Lstep 1=αLΦ+βLμ,σ2+γLlinear +λLfurure \mathcal{L}_{\text {step } 1}=\alpha \mathcal{L}_{\Phi}+\beta \mathcal{L}_{\mu, \sigma^{2}}+\gamma \mathcal{L}_{\text {linear }}+\lambda \mathcal{L}_{\text {furure }} Lstep1=αLΦ+βLμ,σ2+γLlinear+λLfurure
在训练步骤二中,使用损失函数训练 DFE 模块:
Lstep 2=ξLtriplet +Lsoftmax \mathcal{L}_{\text {step } 2}=\xi \mathcal{L}_{\text {triplet }}+\mathcal{L}_{\text {softmax }} Lstep2=ξLtriplet+Lsoftmax
在步态轮廓序列的两个训练步骤中随机选择 32 个连续帧作为训练样本。在测试阶段,每 32 帧计算一个 Koopman 矩阵。因此,得到不止一个 Koopman 矩阵,因为步态序列中总是有超过 32 帧。probe样本和gallery样本之间的最终距离将是该探针序列的所有计算的 Koopman 矩阵的平均距离。

Results

参考文献

[39] Jiawei Wang, Edel B Garcia, Shiqi Y u, and Dexin Zhang. Windowed dmd for gait recognition under clothing and carrying condition variations. In Chinese Conference on Biometric Recognition, pages 484–492. 2017. 2

[43] Zifeng Wu, Y ongzhen Huang, Liang Wang, Xiaogang Wang, and Tieniu Tan. A comprehensive study on cross-view gait based human identification with deep cnns. IEEE transactions on pattern analysis and machine intelligence, 39(2):209–226, 2016. 1, 2, 7

[50] Y uqi Zhang, Y ongzhen Huang, Shiqi Y u, and Liang Wang. Cross-view gait recognition by discriminative feature learning. IEEE Transactions on Image Processing, 29:1001– 1015, 2019. 1, 3, 7, 8

(CVPR-2021)具有深度通用线性嵌入的跨视角步态识别相关推荐

  1. 读《基于深度学习的跨视角步态识别算法研究》

    2020 背景: 作为一种新兴的识别技术,步态识别具有在非受控.远距离.低分辨率的场景下进行身份识别的优点,并且步态不易改变和伪装,所以近年来得到的关注逐渐增多. 步态识别作为一种新兴的身份识别技术, ...

  2. CVPR 2022 | 华南理工提出VISTA:双跨视角空间注意力机制实现3D目标检测SOTA,即插即用...

    来源:机器之心 本文提出了 VISTA,一种新颖的即插即用多视角融合策略,用于准确的 3D 对象检测.为了使 VISTA 能够关注特定目标而不是一般点,研究者提出限制学习的注意力权重的方差.将分类和回 ...

  3. CVPR 2022 | 华南理工提出VISTA:双跨视角空间注意力机制实现3D目标检测SOTA

    ©作者 | 邓圣衡.梁智灏.孙林.贾奎 来源 | 机器之心 本文提出了 VISTA,一种新颖的即插即用多视角融合策略,用于准确的 3D 对象检测.为了使 VISTA 能够关注特定目标而不是一般点,研究 ...

  4. CVPR 2021 论文大盘点-行人技术篇

    本文总结CVPR 2021 行人相关技术论文,包括人群计数.行人检测跟踪.步态识别等.共计 7 篇. 大家可以在: https://openaccess.thecvf.com/CVPR2021?day ...

  5. 【深度学习】步态识别-论文阅读(无参考意义):Cross-View Gait Recognition Based on Feature Fusion

    这里写目录标题 摘要 介绍 相关工作 改进 提出 多尺度特征融合 全局和局部特征融合 特征映射 结论 基于特征融合的跨视图步态识别 摘要 与人脸识别相比,步态识别是最有前途的视频生物特征识别技术之一, ...

  6. CVPR 2021 论文大盘点-人脸识别篇

    关注公众号,发现CV技术之美 本文总结CVPR 2021 人脸识别相关论文,包含极端姿态人脸识别.新数据集.跨年龄人脸识别等.共计 15 篇. 大家可以在: https://openaccess.th ...

  7. 【深度学习】步态识别-论文阅读:(T-PAMI-2021)综述:Deep Gait Recognition

    论文详情: 期刊:T-PAMI-2021 地址:参考笔记 1.Abstract 本文综述了到2021年1月底在步态识别方面的最新进展,以 全面概述了深度学习步态识别的突破和最近的发展,涵盖了广泛的主题 ...

  8. 深度步态识别综述(一)

    文章目录 Deep Gait Recognition: A Survey Abstract INTRODUCTION REVIEW METHODOLOGY TEST PROTOCOLS AND DAT ...

  9. 动作识别最新高效利器 ACTION-Net:通用的多路径激活模块 | CVPR 2021

    2021-04-20 01:48:02 本文是对我们 CVPR 2021 接收的工作 "ACTION-Net: Multipath Excitation for Action Recogni ...

  10. 【深度学习】CVPR 2021 全部论文链接公布!最新1660篇论文合集!附下载链接

    大家好呀,CVPR 官方公布了接受的所有论文的链接,我最近几天上班摸鱼把 CVPR2021 的全部论文下载下来了.踩了不少坑,如果对你有所帮助,欢迎分享一下,谢谢啦! 文末附带爬虫教程. CVPR20 ...

最新文章

  1. 毒霸duba劫持首页的解决方案(实测有效)
  2. java多线程 --ConcurrentLinkedQueue 非阻塞 线程安全队列
  3. kafka 发布-订阅模式_使用Apache Kafka作为消息系统的发布-订阅通信中的微服务,并通过集成测试进行了验证...
  4. jupyter notebook中创建环境、安装使用pytorch
  5. 什么是SQL Server故障转移群集
  6. Python 面向对象 —— 特殊函数(setattr、getattr、hasattr)
  7. Joint European Conference on Machine Learning and Knowledge Discovery in Databases(ECML-PKDD)会议怎么样?
  8. Maven中的dependencyManagement 详解
  9. params.c:Parameter() - Ignoring badly formed line in configuration file: ignore errors 解决方法
  10. 磁珠特性以及选型注意事项
  11. 中国传统文化课程笔记
  12. phpnow怎么改php版本,phpnow升级php版本的方法
  13. Java类和对象——图书管理系统v1.0
  14. Rust FFI 编程 - nix crate
  15. AirPods Pro 和 AirPods 3 固件更新,或将提升稳定性,如何操作看这里
  16. IDEA使用AVD Manager创建AVD
  17. MATLAB:未来搜索算法(FSA)优化BP神经网络权值、阈值用于降水预测
  18. wlan:11a/11b/11g/11n/11ac
  19. 一文看懂个税2022
  20. fets去除回车符号

热门文章

  1. 微博视频php解析,微博视频的地址解析下载
  2. g729源码分析-开篇
  3. js控制flash播放器
  4. lqr matlab,MATLAB中的LQR函数用法
  5. linux磁盘加密bitlocker,Azure Disk Encryption(Azure磁盘加密)能用在Linux和Windows下
  6. 科大讯飞测试开发工程师面试
  7. F28335的ePWM模块
  8. Hspice: 安装心得
  9. 记Dorado7学习(4)
  10. 说说3D打印培训课程在我国的开展的现状——3D打印培训宁波清车