注意力机制本质上与人类对外界事物的观察机制相似。通常来说,人们在观察外界事物的时候,首先会比较关注比较倾向于观察事物某些重要的局部信息,然后再把不同区域的信息组合起来,从而形成一个对被观察事物的整体印象。注意力机制能够使得深度学习在观察目标时更加具有针对性,使得目标识别与分类的精度都有所提升

Attention Mechanism可以帮助模型对输入的每个部分赋予不同的权重,抽取出更加关键及重要的信息,使模型做出更加准确的判断,同时不会对模型的计算和存储带来更大的开销。

总的来说,注意力机制可分为两种:一种是软注意力(soft attention),另一种则是强注意力(hard attention)。

软注意力(soft attention)与强注意力(hard attention)的不同之处在于:

  • 软注意力更关注区域或者通道,而且软注意力是确定性的注意力,学习完成后直接可以通过网络生成,最关键的地方是软注意力是可微的,这是一个非常重要的地方。可以微分的注意力就可以通过神经网络算出梯度并且前向传播和后向反馈来学习得到注意力的权重。 在计算机视觉中,很多领域的相关工作(例如,分类、检测、分割、生成模型、视频处理等)都在使用Soft Attention,典型代表:SENet、SKNet

  • 强注意力是更加关注点,也就是图像中的每个点都有可能延伸出注意力,同时强注意力是一个随机的预测过程,更强调动态变化。当然,最关键是强注意力是一个不可微的注意力,训练过程往往是通过增强学习(reinforcement learning) 来完成的。

CV中的注意力机制

深度学习与视觉注意力机制结合的研究工作,大多数是集中于使用掩码(mask)来形成注意力机制。掩码的原理在于通过另一层新的权重,将图片数据中关键的特征标识出来,通过学习训练,让深度神经网络学到每一张新图片中需要关注的区域,也就形成了注意力。

计算机视觉中的注意力机制的基本思想是让模型学会专注,把注意力集中在重要的信息上而忽视不重要的信息。

Attention机制的本质就是利用相关特征图学习权重分布,再用学出来的权重施加在原特征图之上最后进行加权求和。不过施加权重的方式略有差别,大致总结为如下四点:

  • 这个加权可以是保留所有分量均做加权(即soft attention);也可以是在分布中以某种采样策略选取部分分量(即hard attention),此时常用RL来做。

  • 加权可以作用在空间尺度上,给不同空间区域加权;

  • 加权可以作用在Channel尺度上,给不同通道特征加权;

  • 加权可以作用在不同时刻历史特征上,结合循环结构添加权重,例如机器翻译,或者视频相关的工作。

为了更清楚地介绍计算机视觉中的注意力机制,通常将注意力机制中的模型结构分为三大注意力域来分析。主要是:空间域(spatial domain),通道域(channel domain),混合域(mixed domain)。

  1. 空间域——将图片中的的空间域信息做对应的空间变换,从而能将关键的信息提取出来。对空间进行掩码的生成,进行打分,代表是Spatial Attention Module。

  2. 通道域——类似于给每个通道上的信号都增加一个权重,来代表该通道与关键信息的相关度的话,这个权重越大,则表示相关度越高。对通道生成掩码mask,进行打分,代表是senet, Channel Attention Module。

  3. 混合域——空间域的注意力是忽略了通道域中的信息,将每个通道中的图片特征同等处理,这种做法会将空间域变换方法局限在原始图片特征提取阶段,应用在神经网络层其他层的可解释性不强。

卷积神经网络中常用的Attention

在卷积神经网络中常用到的主要有两种:一种是spatial attention, 另外一种是channel attention。当然有时也有使用空间与通道混合的注意力,其中混合注意力的代表主要是BAM, CBAM。

Spatial Attention:

对于卷积神经网络,CNN每一层都会输出一个C x H x W的特征图,C就是通道,同时也代表卷积核的数量,亦为特征的数量,H 和W就是原始图片经过压缩后的图的高度和宽度,

Spatial Attention就是对于所有的通道,在二维平面上,对H x W尺寸的特征图学习到一个权重,对每个像素都会学习到一个权重。你可以想象成一个像素是C维的一个向量,深度是C,在C个维度上,权重都是一样的,但是在平面上,权重不一样。

Channel Attention:

对于每个C(通道),在channel维度上,学习到不同的权重,平面维度上权重相同。所以基于通道域的注意力通常是对一个通道内的信息直接全局平均池化,而忽略每一个通道内的局部信息。

spatial 和 channel attention可以理解为关注图片的不同区域和关注图片的不同特征。channel attention的全面介绍可以参考论文:SCA-CNN,通道注意力在图像分类中的网络结构方面,典型的就是SENet。

计算机视觉注意力机制-Attention相关推荐

  1. 清华南开出品最新视觉注意力机制Attention综述

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 来源丨量子位 编辑丨极市平台 导读 清华大学计图团队和南开大学程明明 ...

  2. 【每周CV论文推荐】初学视觉注意力机制有哪些值得阅读的论文?

    欢迎来到<每周CV论文推荐>.在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的. 注意力机制是当下计算机视觉和自然语言处理中非 ...

  3. 华为诺亚方舟加拿大实验室提出BANet,双向视觉注意力机制用于单目相机深度估计...

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 这篇文章的作者是华为加拿大诺亚方舟实验室,是一篇将双向注意力机制用于弹幕深度估计的工作.主要的创新点在 ...

  4. 视觉注意力机制(中)

    简介 在上篇文章中,我介绍了视觉注意力机制比较早期的作品,包括Non-local.SENet.BAM和CBAM,本篇文章主要介绍一些后来的成果,包括A2A^2A2-Nets.GSoP-Net.GCNe ...

  5. 计算机视觉注意力网络(一)——简介

    文章目录 注意力机制简介与分类 计算机视觉中的注意力机制 卷积神经网络中常用的Attention 参考 注意力机制简介与分类 注意力机制(Attention Mechanism)是机器学习中的一种数据 ...

  6. 视觉注意力机制的发展历程-Attention-Family

    目录 视觉注意力机制的发展历程-Attention-Family ---------------------------------2015------------------------------ ...

  7. 视觉注意力机制(下)

    简介 在上篇文章中,我介绍了视觉注意力机制一些比较新的作品,包括 A 2 A^2 A2-Nets.GSoP-Net.GCNet和ECA-Net,本篇文章主要介绍一些近年以来最新的成果,包括SKNet. ...

  8. 注意力机制(Attention)最新综述论文及相关源码

    来源:专知 注意力机制(Attention)起源于模仿人类的思维方式,后被广泛应用于机器翻译.情感分类.自动摘要.自动问答等.依存分析等机器学习应用中.专知编辑整理了Arxiv上一篇关于注意力机制在N ...

  9. 注意力机制Attention Mechanism及论文

    注意力机制Attention Mechanism Q,K,V 注意力分数 seq2seq中注意力机制的应用 注意力机制源于对人类视觉的研究.在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息 ...

最新文章

  1. qteewidgetitem添加子节点_行为树的节点
  2. 我的Dll(动态链接库)学习笔记
  3. 手机QQ会员H5加速方案——sonic技术内幕
  4. 把指定用户的命令写在/home/etc/rc.local中,系统开机时就会自动执行指定用户的命令。
  5. du,df,fdisk,mkfs.ext3命令详解
  6. 不要再纠结卷积的公式啦!0公式深度解析全连接前馈网络与卷积神经网络
  7. 前端笔记-echarts加载bmap地图
  8. FastCGI - Writing Hello World in FCGI with C++
  9. 在 里面_适合县城里面加盟的鞋店推荐
  10. 详解 MySQL 基准测试和 sysbench 工具
  11. 机器视觉技术概述-技术难点-市场前景
  12. [置顶] 话说你最拼命的时候怎样拼命的?
  13. 安装maya过程记录
  14. 2019-9-9,中兴笔试
  15. 语音验证码api 手机接听验证码
  16. stm32的语音识别_基于STM32的嵌入式语音识别模块设计
  17. 苹果6标准模式和放大模式具体有什么差别?
  18. 机器学习教程 之 半监督学习 Co-training 协同训练 (论文、算法、数据集、代码)
  19. postman的使用
  20. Assertion断言的使用

热门文章

  1. 两岸四地消费者信心指数出炉:中国大陆消费者信心指数评析
  2. 微信公众平台搜索文章会调用搜狗百科内容?
  3. window7_64安装STAF
  4. 前沿综述:细数2018年最好的词嵌入和句嵌入技术
  5. 离别是为了下一次更好的重逢
  6. 那些年,我们一起做过的 Java 课后练习题(51 - 55)
  7. MATLAB2014a的安装
  8. win7系统,打开office出现错误代码0x8007007B的解决办法
  9. 计算机中mpeg代表什么,mpg和mpeg格式的区别
  10. Origin双坐标轴图表