一、论文信息

标题:《Relation-Aware Global Attention for Person Re-identification》

作者:Zhizheng Zhang et al.(中科大&微软亚洲研究院)

文章:openaccess.thecvf.com/c

源码:github.com/microsoft/Re

文章收录于CVPR 2020,bib引用如下:

@article{zhang2020relation,
title={Relation-Aware Global Attention for Person Re-identification},
author={Zhang, Zhizheng and Lan, Cuiling and Zeng, Wenjun and Jin, Xin and Chen, Zhibo},
journal={CVPR},
year={2020}
}

二、论文解读

这是一篇将注意力机制应用于行人重识别(person re-identification)任务上的文章。自从注意力机制在NLP领域过渡到CV领域以来,不少文章已经提出了很多基于注意力的改进,如Non-Local[1],SE[2],cSE[3],sSE[3],CBAM[4],Dual attention[5],Criss-Cross Attention[6],Fast Attention[7]等等,笔者认为,其无外乎就是从整体-局部、空间-通道、计算量-有效性这几个维度进行改进。比如,Non-local旨在通过汇总来自所有位置的信息来增强目标位置的特征。这个计算量是庞大的,因为它计算了每个点对之间的关系:

Diagram of Non-local block.

Non-Local虽然可以在特征图的空间上捕捉长距离的依赖(上下文信息),但是当我们输入的特征图尺度过大时,这显存大多数情况下会爆炸。那么如何在合理的保持全局的感受野的同时,去减少显存和运算量呢?于是很多人就往这上面改进,比如CC-Net[6],采用的是当前位置与同一行和同一列像素的之间的相关性来得到水平和垂直方向之间的远距离像素的上下文信息,并同时叠加两个相同的模块来间接的获得全局的感受野,减少了计算量。

Diagram of Criss-Cross block.

本文的主要贡献点在于提出一个高效的“关系感知全局注意力”(Relation-aware Global attention, RGA)模块,该模块可以有效的捕获全局的结构信息,以便更好的进行注意力学习。具体来说,就是对每一个特征位置,为了更加紧凑地捕获全局的结构信息和局部的外观信息,使用RGA模块来将各种关系堆叠起来,即将所有的特征位置的成对相关性/亲和力(correlations/affinities)与特征本身一起,使用一个浅层神经网络来学习出注意力。通过应用RGA模块,可以显著的增强特征表示能力,从而学习到更具有判别力的特征。

这里简单的介绍下行人重识别的任务是做什么的:

行人重识别,简单来说就是要在不同的时间、地点或者相机上匹配到一个特定的人,属于图像检索的内容。其难点和核心便在于如何从杂乱的背景、姿态的多样性以及存在遮挡等各种复杂多变的情况下,有效地从人像图像中鉴别并提取出视觉特征(即区分出不同的人)。

图(a)为原图。图(b)为CBAM模块预测出来的,可以看出上下文之间缺乏一种联系。图(c)是RGA模块可以从结构化的信息中捕获并挖掘到全局范围内的关系。

注意力机制的本质就是以某种方式来探索事物的内在联系,通过不同的操作来对原始的输入进行一个要素的重分配,达到突出重要特征,抑制非重要特征的目的。作者认为,大多数的注意力只是通过在感受野有限的范围内利用卷积进行学习,这使得在一个全局的范围内很难利用到丰富的结构化信息。一种解决方案是在卷积层中使用空洞卷积,另一种解决方案是通过堆叠深度来达到一个全局信息的获取,但无疑这两种操作都会大大增加网络的规模。此外,如[8]所述,CNN的有效感受野仅占整个理论感受野的一小部分。除此之外,Non-local [1] 也被提出来通过成对的关系/亲和力来计算连接的去那种,使得神经网络能够通过从所有位置到目标位置之间的特征进行加权求和,从而捕获到全局的信息。然而,Non-local却忽略了许多丰富的全局信息探索。因为它仅仅是简单地将学习到的关系/亲和力当做权重来聚合特征。这种使用关系的确定性方式(即加权求和的方式)具备较弱的挖掘能力,并且也缺乏足够的适应性。因此,作者认为可以通过引入一种建模函数,从关系中挖掘出有效的信息,同时利用此类有价值的全局范围内的结构信息来引导注意力的学习。

图2展示了如何学习到5个特征向量/节点x1,...,x5所对应的注意力系数过程。图(a)显示的是一个局部注意力的学习过程,其中每个特征向量都是独立的求出一个注意力系数的,忽略了各个特征向量的关联性。图(b)是基于全局的注意力:将5个特征向量连接起来共同学习出注意力系数。

重点关注下图(c),即本文所提出来的RGA模块。RGA模块是通过同时考虑全局的关系信息来学习注意力。对于每一个特征向量i(这里取i=1为例),作者通过将当前特征向量(i=1)与其余特征向量直接进行两两的堆叠,得到  ,其代表着全局范围内的关系信息。注意到,这里  。不同于图(a)的那种方式缺乏全局的感知和图(b)的那种方式没有充分不同特征向量之间的关系,所提出的RGA注意力模块,是通过一个具有全局范围关系的学习函数来确定的,其中包含作为输入的结构信息。可以看出,所提到的关系表示中的结构信息包括了亲和信息和位置信息,有助于语义学习和注意力推断。

方法部分梳理

给定一个特征集合  ,其中  表示特征/特征向量/特征节点,  为特征维度,  为特征的数量。注意力便是要根据各个特征之间关系(也称为亲和性或者相似性)的重要程度,来为每个特征生成一个注意力系数(也称为亲和系数)。如上所示,图(a)是直接对每个特征向量都独立的进行一个注意力学习,缺乏全局的视野。一些弥补的方式便是通过利用空洞卷积或者堆叠卷积块来捕获全局的信息,但这样计算量明显是太大了。图(b)这种方式是通过将多个特征节点连接起来,然后通过全连接的方式去学习注意力。但是,当节点数量过多时,会导致计算效率低下,而且难以优化。图(c)则是本文所提出来的关系感知全局注意力模块,它有以下的两个优点:

  • 更好地探索全局的结构化信息以及知识挖掘(knowledge mining);

  • 使用一个共享(节省参数量)的变换函数来为每一个独立的特征位置去学习注意力;

这里相当于就是利用局部的卷积运算操作来间接的等效替代全局的运算。主要的思想是分别挖掘出当前特征节点与所有的特征节点之间的一个对与对之间的关系,并通过将这些关系对堆叠起来,来表示当前特征节点的一个全局结构化信息。具体来说,用  来表示第  个特征和第  个特征之间的亲和性(affinity),对于特征节点  ,其亲和/关系向量为  。随后,利用当前特征本身与这些关系对,并通过一个可学习的变换函数(learned transformation function)来推断出注意力  ,这里  包含了全局的信息。从数学角度,作者这里通过一个图  定义了特征的集合以及特征与特征之间的关系,其中便包含这  个特征的一个节点结合  以及一个边缘集合  。于是,我们便可以将所有节点的关系对表示为一个亲和矩阵  ,这里令  。对于每一个  ,令  定义为第R个节点的第  行,  定义为第R个节点的第  列。

对于第  个特征节点  ,它相应的关系向量  提供了一个紧凑的表示来捕获全局结构信息,比如包含了所有特征节点的位置信息和关系信息。每一个关系对定义了所有的节点与当前节点的一个相似性,而当它们在关系向量中的位置表示特征节点的位置(即索引)时,关系向量反映了所有节点相对于当前节点的一种聚类状态和模式,而这将有利于整体确定  的相对重要性(注意力)。

在计算特征位置的注意力时,为了掌握全局范围的信息,这里将成对关系项(即其与所有特征位置的相关性/亲和力)和一元项(即该位置的特征)进行堆叠, 通过卷积运算学习注意力

基于空间的关系感知全局注意力 ( Spatial Relation-Aware Global Attention )

给定一个中间的特征张量  ,这里  为CNN的某一层输出特征图,作者这里设计了一个RGA-S来学习一个尺度大小为  的空间关系图。这里按通道的划分方式将每个空间位置处  维特征向量作为特征节点。所有空间位置形成  个节点的图 。如图(a)所示,对空间位置进行光栅扫描,并将其标识号指定为1,···,N。然后,计算出每个节点对之间的关系,这里利用点积的方式求出:

这里  和  为两个嵌入函数(其实就是通过一个1x1的卷积+BN+ReLU来实现)。同理,我们也可以通过同样的方式来计算出  。于是,我们便可以利用关系对  来描述  和  之间的双向关系。最后,以此类推,我们便可以计算出所有节点之间的关系对,从而得到一个亲和矩阵  。然后,我们将这个关系对与原来的输入特征节点联结起来,通过一个全局平均池化求出相应的权重值,最后再通过Sigmoid激活函数来生成相应的权重图。

基于通道的关系感知全局注意力 ( Channel Relation-Aware Global Attention )

跟上面差不多,只不过计算方式不一样。

总结

本文提倡的观点是,要直观地判断一个特征节点是否重要,就应该知道全局范围的特性,这样便可以通过得到进行决策所需要的关系信息,来更好地探索每个特征节点各自的全局关系,从而更好地学习注意力。整篇文章给人的感觉可读性非常差,作者在里面对一些名称的定义并没有进行一个统一,读起来云里雾里,涉嫌过度包装的成分,缺乏严谨性。感觉逻辑性并没有特别强,文章的核心很难get到,很疑惑审稿人真的有认真的去研究过这篇文章是不是真的能work?不过仔细想想也能体谅,毕竟现在注意力这块想发表到顶会上的难度越来越大,各个维度都被人魔改成不成样,很难找到一个标新立异的点切进去,所以只能靠花样的包装来刺激审稿人的神经。整体来说,创新性不是非常强,说白了还是在讲故事,还是没有从本质上创新,有点在玩改造积木的感觉。注意力方式跟其他注意力之间没啥大的区别,结合不同特征图的信息,然后合并起来,通过一个全连接或者普通的1x1或者3x3操作,最后再通过一个GAP和Sigmoid/Softmax输出。至于为什么能有效的降低计算量,只不过这里将一些计算量大(Fully connection)的操作换成小的操作(Conv 1×1)。(全连接>3×3卷积>1×1卷积)

套路还是那个套路,只不过看谁的故事讲的好。

Reference:

[1] Non-local Neural Networks. (CVPR2018)

[2] Squeeze-and-Excitation Networks. (CVPR2018)

[3] Concurrent Spatial and Channel Squeeze & Excitation in Fully Convolutional Networks. (MICCAI 2018)

[4] CBAM: Convolutional Block Attention Module. (ECCV 2018)

[5] Dual AttentionNetwork for Scene Segmentation. (CVPR 2019)

[6] CCNet: Criss-Cross Attention for Semantic Segmentation. (ICCV 2019)

[7] Real-time Semantic Segmentation with Fast Attention. (arxiv)

[8] Understanding the effective receptive field in deep convolutional neural networks. (NeurIPS 2016)


往期精彩回顾适合初学者入门人工智能的路线及资料下载机器学习及深度学习笔记等资料打印机器学习在线手册深度学习笔记专辑《统计学习方法》的代码复现专辑
AI基础下载机器学习的数学基础专辑
本站知识星球“黄博的机器学习圈子”(92416895)
本站qq群704220115。
加入微信群请扫码:

【论文解读】基于关系感知的全局注意力相关推荐

  1. ACL 2018 论文解读 | 基于深度强化学习的远程监督关系抽取

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考. 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 点击本文底部的「阅读原文」即刻加入社区 ...

  2. ACL 2018论文解读 | 基于排序思想的弱监督关系抽取选种与降噪算法

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考. 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 点击本文底部的「阅读原文」即刻加入社区 ...

  3. ACL 2018论文解读 | 基于路径的实体图关系抽取模型

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考. 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 点击本文底部的「阅读原文」即刻加入社区 ...

  4. 为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别...

    ©PaperWeekly 原创 · 作者|张玮玮 学校|东北大学硕士生 研究方向|情绪识别 引言论文动机 现有的基于脑电图的情绪识别方法大多不能很好地解决以下三个方面的问题:1. 脑电图信号的拓扑结构 ...

  5. 论文解读 | 基于正则化图神经网络的脑电情绪识别

    ©PaperWeekly 原创 · 作者|张玮玮 学校|东北大学硕士生 研究方向|情绪识别 引言 论文动机  现有的基于脑电图的情绪识别方法大多不能很好地解决以下三个方面的问题: 1. 脑电图信号的拓 ...

  6. 知识图谱最新权威综述论文解读:关系抽取

    上期我们介绍了2020年知识图谱最新权威综述论文<A Survey on Knowledge Graphs: Representation, Acquisition and Applicatio ...

  7. ICCV 2019 论文解读 | 基于层次解析的Image Captioning

    ©PaperWeekly 原创 · 作者|蔡文杰 学校|华南理工大学 研究方向|计算机视觉 目前大多数的 image captioning 模型采用的都是 encoder-decoder 的框架.本文 ...

  8. AAAI 2019 论文解读 | 基于区域分解集成的目标检测

    作者丨文永亮 学校丨哈尔滨工业大学(深圳) 研究方向丨目标检测.GAN 本文解读的是一篇发表于 AAAI 2019 的 paper,文章提出了一种 R-DAD 的方法来对 RCNN 系列的目标检测方法 ...

  9. 论文解读 | 基于递归联合注意力的句子匹配模型

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考. 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 点击本文底部的「阅读原文」即刻加入社区 ...

最新文章

  1. YOLOv3中Loss
  2. python编写一个压测重启的测试程序
  3. flutter实现底部弹出框以及特色功能
  4. HBase数据模型:rowkey timestamp 列族 cell
  5. php 代码如何使用,PHP如何使用strval()函数?用法和代码示例
  6. 玩转oracle 11g(8):使用profile管理用户口令
  7. Python安装pip
  8. C#编程(十九)----------部分类
  9. 一个非常好的C#字符串操作处理类StringHelper.cs
  10. 苹果mac文本处理软件:FSNotes
  11. C++ 实现反射机制(转载)
  12. VC通过函数索引调用DLL范例
  13. 奎享添加自己字体_如何添加字体?系统字体的两种方法添加方法
  14. python恢复图像超分辨率_SRCNN实现图像超分辨率重建
  15. matlab声压级的计算,声压级计算
  16. 使用John the ripper破解弱密码
  17. 印刷MES管理系统等数字化系统,应用发展如此迅速
  18. sql按不同纬度拆分时间以及相关时间函数整理
  19. R语言入门(二)正态性检验与假设检验
  20. 谷歌测试工具_使用Google网站优化工具进行A / B测试的指南

热门文章

  1. 数据库菜鸟不可不看 简单SQL语句小结
  2. Lightweight Render Pipeline
  3. ubuntu php多版本共存切换
  4. 一起玩树莓派3+使用Gitlab搭建专业Git服务
  5. Entity Framework 的小实例:在项目中添加一个实体类,并做插入操作
  6. ASP.NET MVC3 + Ninject.Mvc3 依赖注入原来可以这么简单
  7. python打开excel执行vba代码_python可以添加,运行和删除VBA宏以实现excel而无需中间保存步骤吗?...
  8. 生物反应器:生物过程工程的动物细胞培养控制 Bioreactors : animal cell culture control for bioprocess engineering 英文原版
  9. CCF真题 201312-1 出现次数最多的数
  10. 北斗导航 | 卫星导航系统时间转换:闰年(附C源代码)