An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition

文章目录

    • An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition
  • 摘要
  • 一、引言
  • 二、相关工作
  • 三、模型架构
    • 1.GCN
    • 2.注意增强图卷积LSTM
    • 3.AGC-LSTM网络
  • 4、实验
    • 1 数据集
    • 2 实施细节
    • 3 结果和比较
  • 总结

摘要

基于骨架的动作识别是一项重要任务,要求从给定的骨骼序列中充分了解人体动作的运动特征 。近期的研究表明在任务中扩展骨架序列的时空特征是至关重要的。然而,怎么有效的提取判别时空特征仍然是一项挑战。本文提出的注意力增强图卷积LSTM(AGC-LSTM)网络,用于骨架数据的动作识别。提出的AGC-LSTM网络不仅能捕获在空间配置和时间动态中的判别特征,还能扩展时空域之间的关联关系。同时,本文还提出一个时间分层体系结构来增强AGC-LSTM顶层的时间接收域,该方法提高了高级语义表示的学习能力,并显著降低了计算成本。另外,为了选择判别空间信息,注意力机制在每个AGC-LSTM层中增强关键关节的信息。然后在两个数据集NTU+RGB-D和Northwestern-UCAL中进行实验,实验结果跟一些其他方法进行比较。


一、引言

在计算机视觉领域,人类动作识别起着基础性和重要的作用,目的是预测视频中的动作类别。由于其广泛的潜在性应用已经研究数十年并且现在依然很流行,例如视频监控、人机交互、运动分析等等。
动作识别在计算机视觉领域是一个具有挑战性的任务。针对基于RGB视频和三维骨架数据的人体动作识别,有各种各样的研究方法。尽管基于RGB视频的方法取得了很好的成绩,但还存在一些局限,例如背景杂波、照明变化、外观变化等等。3D骨架数据是将人体结构表示为一系列关键关节的3D坐标。由于骨架序列不包含颜色信息,因此不受RGB视频的限制。这种立邦的表现方式允许对人类行为的更有区别的时间特征建模。
对于基于骨骼的动作识别,现有的方法探索了不同的模型来学习空间和时间特征。很多方法都在试图设计一个有效的模型来识别骨骼序列的时空特征。但是怎么有效的提取判别空间和时间特征仍然是一个巨大的挑战。
人类骨架序列的三个显著特征:
1)每个骨骼及其相邻关节之间的相关性较强,骨架序列包含了丰富的体系结构信息;
2)人体结构的同一关节的时间连续性;
3)时间和空间域之间的相关性;
本文提出了一种新的、通用的框架,主义增强图卷积LSTM网络(AGC-LSTM),用于基于骨骼的动作识别,该网络通过同步学习上述时空特征来改进骨骼表示。
提出的AGC-LSTM网络的总体架构如下图2所示。首先,每个关节的坐标被传送到具有线性层的空间特征。然后连接两个连续帧中的不同的空间特征来组成一个扩展特征。为了消除这两个特征之间的尺度差异,采用共享LSTM对每个联合序列进行处理。然后,申请三个AGC-LSTM层进行建模时间特征,如图1中。

由于AGC-LSTM中有图卷积操作,因此不仅可以有效的捕获空间配置和时间动态的判别特征,还可以扩展时空域之间的相关关系。注意力机制在每个时间步长增强关键关节的特征,可以促进AGC-LSTM学习更多的判别特征。例如,肘,手腕和收的特征对动作握手非常重要,在识别行为的过程中应当加强。受cnn中空间池化的启发,我们提出了一种时间层次结构,采用时间平均池化来增加AGC-LSTM顶层层的时间接受域,从而提高了高级时空语义特征的学习能力,并显著降低了计算成本。最后,利用所有关节的全局特征和最后一层AGC-LSTM中聚焦关节的局部特征来预测人类动作的类别。虽然基于关节的模型达到了最先进的结果,也探索了提出的模型在部件级的性能。在基于零件的模型中,每个零件的链接作为一个节点来构造图。此外,基于关节和领边的双流模型可以进一步提高性能。

本文的主要贡献可以总体概括为一下几点:
1、提出了AGC-LSTM网络,首次尝试使用图卷积LSTM;
2、有效铺货判别时空特征,注意力机制被用来增强关键关节的特征,有助于改善时空表达;
3、使用时间层次结构,提高高层次的时空语义特征的学籍能力,降低计算代价;
4、与其他方法比较。

二、相关工作

GNN:基于图的模型由于其对图结构数据的有效表示而引起了人们的广泛关注。主要包括GNN和GCN,GCN中有分为两种方法:空间透视,光谱透视。本文使用AGC-LSTM网络来学习骨架序列中的时空特征。
骨架动作识别:基于骨骼数据的人体动作识别由于其有效的运动动力学表征而收到关注。

三、模型架构

1.GCN

图卷积网络是一个学习图结构数据表示的通用的、有效框架。各种GCN辩题已经在许多任务上取得了最先进的结果。对于骨架动作识别,用 Gt={Vt,Et}\ G _t ={\lbrace V _t,E _t \rbrace} Gt​={Vt​,Et​}表示在t的单个帧中的人体骨架图,其中Vt\ V _t Vt​表示N个关节节点,Et\ E _t Et​表示骨架的边。节点vti\ v _{ti} vti​的邻接集合表示为N(vti)={vtj∣d(vti,vtj)≤D}\ N(v _{ti})={\lbrace v _{tj} | d(v _{ti},v _{tj}) \leq D\rbrace} N(vti​)={vtj​∣d(vti​,vtj​)≤D},其中d(vti,vtj)\ d(v _{ti},v _{tj}) d(vti​,vtj​)表示从节点vtj\ v _{tj} vtj​到vti\ v _{ti} vti​的最短距离。图标签函数l:Vt→{1,2,...,K}\ l:V _t \to {\lbrace 1,2,...,K \rbrace} l:Vt​→{1,2,...,K}表示为分配标签{1,2,...,K}\ {\lbrace 1,2,...,K \rbrace} {1,2,...,K},对每个图节点vti∈Vt\ v _{ti}\in V _t vti​∈Vt​,可以将节点vti\ v _{ti} vti​的邻居集N(vti)\ N(v _{ti}) N(vti​)划分为固定数量的K个子集。图卷积的表达式如下:

其中X(vtj)\ X(v _{tj}) X(vtj​)表示为vtj\ v _{tj} vtj​的特征。W(⋅)\ W( \cdot ) W(⋅)是一个权值函数,从K个权重中分配一个以标签l(vti)\ l(v _{ti}) l(vti​)为索引的权值。Zti(vtj)\ Z _{ti}(v _{tj}) Zti​(vtj​)是对应子集的个数,用于规范化特征表示。Yout(vti)\ Y _{out}(v _{ti}) Yout​(vti​)表示节点vti\ v _{ti} vti​的图卷积的输出数据。根据邻接矩阵,式1可以表示为:

其中Ak\ A _k Ak​是标签k∈{1,2,...,K}\ k \in {\lbrace 1,2,...,K \rbrace} k∈{1,2,...,K}在空间配置上的邻接矩阵。Λkii=∑jAkij\ \Lambda {^{ii}_k}= \sum _j A {^{ij} _k} Λkii​=∑j​Akij​是一个对角矩阵。

2.注意增强图卷积LSTM

对于序列建模,大量研究表明,LSTM作为RNN的变体,在建模长时间依赖方面具有惊人的能力。采用各种基于LSTM的模型来学习骨架序列的时间动力学。但是,由于LSTM的全连接操作,在骨架动作识别中具有忽略空间相关性的局限性。相比于LSTM,AGC-LSTM不仅可以捕获在空间配置和时间动态中的判别特征,还可以扩展时空域的相关联关系。
类似LSTM,AGC-LSTM也包括三个们,一个输出门it\ i _t it​,一个记忆门ft\ f _t ft​,还有一个输出门ot\ o _t ot​。这些门都包含了图卷积操作。AGC-LSTM的输入Xt\ X _t Xt​,隐藏状态Ht\ H _t Ht​和细胞记忆Ct\ C _t Ct​是图结构数据,具体AGC-LSTM的架构图如下图3。由于AGC-LSTM图卷积操作,细胞记忆Ct\ C _t Ct​和隐藏状态Ht\ H _t Ht​可以表现出时间动态,并包含空间结构信息。AGC-LSTM单元可以表示为

其中∗g\ \ast g ∗g表示为图卷积操作,⨀\ \bigodot ⨀为哈达玛积。σ(⋅)\ \sigma(\cdot) σ(⋅)表示sigmoid激活函数。ut\ u _t ut​表示调制输入。H^t\ \hat H _t H^t​是一个中间隐藏状态。Wxi∗gXt\ W _{xi}*g X _t Wxi​∗gXt​表示Xt\ X _t Xt​和Wti\ W _{ti} Wti​的图卷积,可以写成式1。fatt(⋅)\ f _{att}(\cdot) fatt​(⋅)表示可以选择关节节点的判别信息的注意力网络,而fatt(H^t)\ f _{att}(\hat H _t) fatt​(H^t​)和H^t\ \hat H _t H^t​的和作为输出目标,在保持空间信息的完整性的前提下,增强关键节点的信息,并且不削弱其他无关节点的信息。
该注意网络采用软注意机制对关键关节进行自适应关注,该机制能够自动度量关节的重要性。空间注意网络事宜图如图4所示。AGC-LSTM网络的中间隐藏状态H^t\ \hat H _t H^t​包括大量空间信息和时间动态信息,有助于指导关键节点的选择。这里将所有节点的信息聚合为查询特征:

其中W\ W W是学习参数矩阵,所有节点的注意分数表示为:

其中αt=(αt1,αt2,...,αtN)\ α _t=(α _{t1},α _{t2},...,α _{tN}) αt​=(αt1​,αt2​,...,αtN​),Us\ U _s Us​,Wh\ W _h Wh​,Wq\ W _q Wq​都是学习参数矩阵。bs\ b _s bs​,bu\ b _u bu​为偏量。由于存在多个关键节点的可能性,本文使用的是sigmoid激活函数。节点vti\ v _{ti} vti​的隐藏状态Hti\ H _{ti} Hti​可以表示为(1+αti)⋅H^ti\ (1+α _{ti}) \cdot \hat H _{ti} (1+αti​)⋅H^ti​。注意力增强隐藏状态Ht\ H _t Ht​将会输出到下一个AGC-LSTM层。注意,在最后一个AGC-LSTM层中,所有节点特征的聚合作为全局特征Ftg\ F ^ g_t Ftg​,聚合节点的加权和作为局部特征Ftl\ F ^ l_t Ftl​。

全局特征Ftg\ F ^ g_t Ftg​和局部特征Ftl\ F ^ l_t Ftl​用于预测动作类。

3.AGC-LSTM网络

本文提出一个端到端的注意力增强图卷积LSTM网络用于骨架动作识别。总体架构如图2所示。
节点特征表示:对于骨架序列,使用线性层和LSTM层将每个关节的三维坐标映射到高维特征空间。第一个线性层将关节坐标编码为256维的向量作为位置特征Pt∈RN×256\ P _t \in R ^{N\times 256} Pt​∈RN×256,Pti∈R1×256\ P _{ti} \in R ^{1\times 256} Pti​∈R1×256表示节点i的坐标。由于位置特征Pti\ P _{ti} Pti​只包含位置信息,因此有利于学习图模型中的空间结构特征。连续帧间帧差特征Vti\ V _{ti} Vti​可帮助获取AGC-LSTM的动态信息。为兼顾两者的嗯有点,将两种特征串联起来作为一种增强特征来丰富特征信息。然而,位置特征Pti\ P _{ti} Pti​和连续帧间帧差特征Vti\ V _{ti} Vti​的特征向量存在尺度方差,这里采用LSTM层来消除两个特征之间的尺度方差:

其中Eti\ E _{ti} Eti​是在t时间节点i的增广特征。非线性层和LSTM是在不同节点间共享的。
时间分层体系结构:在LSTM层之后,序列{E1,E2,...,ET}\ {\lbrace E _1,E _2,...,E _T\rbrace} {E1​,E2​,...,ET​}作为节点特征注入以下GC-LSTM层,其中Et∈RN×de\ E _t \in R ^{N \times d _e} Et​∈RN×de​。提出的三个AGC-LSTM层用来学习空间配置和时间动态。通过CNN中的空间池化,在AGC-LSTM提出了一个时间层次架构用于时间域平均池化,以增加顶部AGC-LSTM层的时间感受域。通过时间层析结构,在AGC-LSTM层的顶层,每次输入的时间接收域从一帧变成一个短时剪辑,对时间动态的感知更加敏感。另外,可以减少计算代价。
学习AGC-LSTM:每个步长的全局特征Ftg\ F ^ g_t Ftg​和局部特征Ftl\ F ^ l_t Ftl​转化为C类评分otg\ o ^ g_t otg​和otl\ o ^ l_t otl​,其中ot=(ot1,ot2,...,otC)\ o _t=(o _{t1},o _{t2},...,o _{tC}) ot​=(ot1​,ot2​,...,otC​)。第i类的预测概率如下:

训练师,考虑到AGC-LSTM顶层每个步长的隐藏状态包含一个短期动态,用损失监督模型:

其中y\ y y是真实状态标签,Tj\ T _j Tj​表示第j层AGC-LSTM的步长,第三个时间的目标是对不同的关节给予同等的关注,最后一个步长用来限制关键节点的数量。λ\ λ λ和β\ β β是权重衰减系数,需注意的是,只有在最后一个时间步长的y^T3g\ \hat y ^g _{T _3} y^​T3​g​和y^T3l\ \hat y ^l _{T _3} y^​T3​l​的概率之和用来预测动作识别的类别。
尽管基于关节的AGC-LSTM网络取得了较好的成果,本文还将在部件级上探讨所提议的模型性能。根据人体身体结构,身体可以被分为几个部分。与基于关节的AGC-LSTM网络相似,首先在线性层和共享LSTM层捕获部分特征。然后将零件特征作为节点表示,输入到三个AGC-LSTM层中,对零件的时空特征进行建模。结果表明,本文的模型在零件级上也能获得较好的性能。基于关节和零件的混合模型如下图所示,可以进一步提高性能。

4、实验

1 数据集

本文采用两个数据集分别是NTU RGB+D和Northwestern-UCLA数据集。

2 实施细节

本文的实验,从每个骨架序列中采样一个固定长度的T作为输入,分别在NTU和Northwestern-UCLA数据集中将T设为100和50。在提出的AGC-LSTM中,每个节点的邻接集合包括节点直接相连的结点,即D=1。与ST-GCN相比较,AGC-LSTM的图标签函数将邻居集划分为K=3个子集:节点本身,向心组和离心组。三个AGC-LSTM层的通道为512。训练时,使用Adam优化函数来优化网络。采用概率为0.5的Dropout避免两个数据集的或拟合,同时设置两个权重衰减系数为0.01和0.001.初始学习率设置为0.0005,并通过每20个迭代乘以0.1来降低,两个数据集的批量大小为别人64和30。

3 结果和比较

本节对提出的网络在两个数据集中进行分析,并与一些相关其他技术比较。
1、在NTU上的比较
2、Northwestern上的比较

3、本文使用的部件级结构在两个数据集上的分析


可视化三个AGC-LSTM层的注意力权值

用混淆矩阵分析的NTU和Northwestern数据集上的实验结果

用混淆矩阵分析的NTU数据集上的误分类结果

总结

本文提出了一个注意力蹭墙图卷积LSTM网络用于骨架动作识别,此网络是第一个尝试将图卷积LSTM用于动作识别的任务。提出的AGC-LSTM网络不仅可以捕获空间配置和时间动态上的判别特征,还能探索空间和时间域的相关关系。因此注意力网络用于增强AGC-LSTM各层关键关节的信息。另外,还提出了时间分层结构用来捕获高级时空语义特征,此方法取得了不错的结果。学习姿态对象关系有助于客服失败案例中提到的限制,未来将尝试将骨骼序列与物体外观相结合,以提高动作识别的性能。

(论文笔记)An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition相关推荐

  1. 【论文翻译】An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition

    An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition 基于骨架的注意 ...

  2. 视频动作识别--Convolutional Two-Stream Network Fusion for Video Action Recognition

    Convolutional Two-Stream Network Fusion for Video Action Recognition CVPR2016 http://www.robots.ox.a ...

  3. [LGCN论文笔记]:Large-Scale Learnable Graph Convolutional Networks

    文章目录 Abstract 补充:如何理解 inductive learning 与 transductive learning? 1. Introduction 2. Related Work 图卷 ...

  4. 译:Convolutional Two-Stream Network Fusion for Video Action Recognition

              这是双流神经网络的改进版,接下来会出他的读书笔记. 摘要:近年来,卷积神经网络(卷积神经网络)对视频中人类行为识别的应用提出了不同的解决方案,用于整合外观和运动信息.为了更好地利用 ...

  5. 论文笔记01——PoseCNN:A Convolutional Neural Network for 6D Object Pose Estimation in Cluttered Scenes

    参考链接: https://blog.csdn.net/nwu_NBL/article/details/83176353 论文标题:<PoseCNN:杂乱场景中物体6D姿态估计的卷积神经网络&g ...

  6. 论文翻译:Two-Stream 3D Convolutional Neural Network for Human Skeleton-Based Action Recognition

    摘要:在三维人体动作识别中,如何有效地从骨骼序列中提取时空信息仍然是一个挑战.虽然最近的动作识别方法是基于递归神经网络的,表现出了突出的性能,但这些方法的缺点之一是倾向于过分强调时间信息.由于三维卷积 ...

  7. [翻译]Convolutional Two-Stream Network Fusion for Video Action Recognition

    摘要 近年来,卷积神经网络(卷积神经网络)对视频中人类行为识别的应用提出了不同的解决方案,用于整合外观和运动信息.为了更好地利用时空信息,我们研究了许多在空间和时间上融合卷积塔的方法.我们得出以下结论 ...

  8. Convolutional Two-Stream Network Fusion for Video Action Recognition翻译

    本文转于:https://blog.csdn.net/weixin_42164269/article/details/80689653 若有侵权请联系删除 摘要 近年来,卷积神经网络(卷积神经网络)对 ...

  9. 论文阅读06——《CaEGCN: Cross-Attention Fusion based Enhanced Graph Convolutional Network for Clustering》

    欢迎到我的个人博客看原文 论文阅读06--<CaEGCN: Cross-Attention Fusion based Enhanced Graph Convolutional Network f ...

最新文章

  1. tensorflow.python.framework.errors_impl.InvalidArgumentError: 2 root error(s) found.
  2. 4种营销场景满足其中一个要不要做小程序?
  3. Java中的锁原理、锁优化、CAS、AQS详解!
  4. 批量模糊查询_模糊匹配,Power Query的这个功能太实用了,可惜Excel还没有
  5. html body background color,HTML Style backgroundColor用法及代码示例
  6. SQL SERVER数据库多条件查询
  7. java反射 修改静态方法的值 setAccessible
  8. windows文件保护_Windows系统下媲美时间机器的系统备份工具,统统免费
  9. weblogic命令行操作
  10. 我的代码第一次运行时的样子
  11. python找出列表间隐含的关联关系以及重复模式
  12. php 把数字大写,php 阿拉伯数字转中文大写金额
  13. string.Format字符串格式说明
  14. win10计算机证书管理器,win10系统iE浏览器导入数字证书的详细办法
  15. ucore操作系统lab2实验报告
  16. duplicate复制数据库(rac-单实例)
  17. shell脚本100 例(下) shell 脚本知识点,学习、进修、面试、居家旅行必备精品.--潜心研究必有所成
  18. 白鹭引擎王泽:重度H5游戏性能优化技巧标题的文章
  19. 济宁网络诈骗立案_在节日期间避免网络犯罪和诈骗
  20. 通过分解和增强学习恢复微光图像(CVPR2020)

热门文章

  1. 记录mysql数据库被攻击
  2. word/excel 里的表格如何到PS里使用
  3. 从黑格尔的正反合理论看人生的三个阶段
  4. 使用PDF24 将mathmatica 的.nb文件转化为PDF文档
  5. 生成100个p元素,隔行变色(红、黄、蓝、绿、紫)
  6. 深度学习理论与实践——课程笔记(一)
  7. 算法分析之常用符号大O、小o、大Ω符号、大Θ符号、w符号
  8. 计算机网络第七版第三章课后习题,《计算机网络·自顶向下方法》第七版 第三章 课后习题与问题 答案...
  9. 产品周报第27期|会员新增拉黑用户权益;CSDN APP V5.1.0版本发布……
  10. 机器学习与网络安全(一)