作者丨崔权

学校丨早稻田大学硕士生

研究方向丨深度学习,计算机视觉

知乎专栏丨サイ桑的炼丹炉

前言

由于最近在做一个 Image Caption 的任务,读了一些最新的论文,把 CVPR2017 里比较中规中矩的 Image Caption 论文给拿出来总结一下。

说中规中矩是因为有一些 Caption 的论文做的方向比较偏,比如有一篇叫做 StyleNet,生成一些具有特定风格的描述,比如幽默风趣的 caption。而这篇总结里挑出来的论文都是在 MSCOCO 的 caption 任务上取得了不错效果的。

没有接触过 Image Caption 的同学这里有之前我在给研究生新生介绍 Image Caption 时用的 slides,Introduction of Image Caption[1]。没有什么文字,都是直观上的图片解释。

一共四篇论文,列表如下:

1. SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning

2. Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning

3. Skeleton Key: Image Captioning by Skeleton-Attribute Decomposition

4. Deep Reinforcement Learning-based Image Captioning with Embedding Reward

SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning

由于这篇文章应该是效果最好的,所以放在最前面,如果对 encoder-decoder 模型不熟悉可以先看第二篇,第二篇基于的是传统的 visual attention 方法。

这篇论文出自于腾讯 AI Lab,文章一开始就肯定了 visual attention 在 image caption 中起到的重要作用,并且指出其原因主要是人类的视觉系统在进行相关任务时并不是处理一整张图片而是根据需要每次处理图片的 selective part,这和 attention机制想要模拟的过程是相同的。

这篇文章使用的还是传统的 CNN-RNN 模型,也称为 Encoder-Decoder 模型,但是文章指出,在之前别人的研究中使用的 attention 模型仅仅通过空间 attention 权重对上下文语义和 conv layer 输出的最后的 feature map 进行了映射,在 CNN 环节中并没有进行 attention 的相关操作。

在这篇文章中,作者们充分利用了 CNN 的三个特性,来提出一种新的 attention 机制。

具体来说,这是一种 spatial and channel-wise 的 attention 机制,这种 attention 机制学习的是多层 3D-feature map 中的每一个 feature 与 hidden state 之间的联系,也就是在 CNN 中引入 attention,而不是单单使用 CNN 部分的输出。

结合下图阐述两点 SCA 的 motivation:

因为一张 channel-wise的feature map 本质上就是一个对应 filter 产生的 detector response map(feature map 中 element 较大的地方说明 response 大,也就是该处含有某种 semantic attribute,比如眼睛、鼻子等),那么基于 channel-wise 的 attention 机制就可以被视为是一个根据上下文语义选取相关语义特征的过程。

比如图中的例子,当我想预测 cake 这个单词时,channel-wise attention 就会给含有蛋糕、火焰、灯光和蜡烛形状物体的 feature map 分配更大的权重。

由于一张 feature map 依赖于前层的 feature map 们,一个很自然的想法就是对多层 feature map 使用 attention 机制,以便能够获得多层语义抽象概念。

比如,在前层中对 feature map 中含有的较低级的 semantic attributes,例如圆柱体(蛋糕的形状)、阵列(蜡烛的排放),赋予更大的权重,对于 cake 这个单词的预测是很有益的。 SCA-CNN 的大概运作方式如图:

对第 l 层来说,未进行 attention 的 feature map是第(l-1)卷积层的输出,网络首先通过 channel-wise attention 函数来计算 channel-wise attention 权重

attention 权重将用来与进行 channel-wise 乘积(的 channel 维度和向量的长度是相等的,将中第 i 个 channel 维度的 feature map 与中第 i 个标量相乘,乘积返回的结果是一个和 形状相同的张量,这样的操作称为 channel-wise 乘积)。

然后使用 spatial attention 函数来计算 spatial attention 权重,最后该层的输出由共同决定该层的输出

在进行预测第 t 个单词的时候,通过将 t-1 时刻的 hidden layer 状态最后一层 conv layer 经过 C-S attention 的输出和 t-1 时刻的 word embedding共同输入进 LSTM,对 t 时刻的 hidden layer 状态进行预测:

再将 t 时刻的 hidden state与 t-1 时刻的word embedding结合起来进行 MLP,输出为一个字典大小 D x 1 的向量,最后进行 softmax 选出最大概率对应的 word:

据我看过的代码,attention 的实现基本都是通过 MLP+activation 来完成,论文的具体公式推导不作分析,我已经全部推导过,各个变量的维度也很清晰,如果有问题可以联系我。

有的人可能会说,为什么一定要先进行 channel-wise attention 再进行 spatial attention 呢?

文章中给出了两种结构,先 channel 后 spatial 的称为 C-S 模型,另一种称为 S-C 模型,对这两种模型都进行了实验,结果是,总的来说,C-S 模型比 S-C 模型表现要好一点。

Knowing when to look: Adaptive Attention via A Visual Sentinel for Image Captioning

这篇文章的主要工作是对 visual attention 进行的改进。

传统的 Encoder-Decoder 模型在生成每个单词时都要求网络 attend to 图片,但是 decoder 在生成一些 non-visual 的单词比如"the"、"and"和"of"时似乎不需要 visual attention,还有一些单词是一些管用词组,可以通过语言模型来可靠预测,也不需要 visual attention。

这篇文章提出的是基于 visual sentinel(哨兵)的 adaptive attention 模型,在生成每个单词时,模型决定是 attend to 图片还是视觉哨兵,当语言模型不能提供有效信息的时候,模型才 attend to 图片。

举个例子:

图片的描述为"A white bird perched on top of a red stop sign",一只白色的鸟栖息在一个红色 stop 标志上。

像"A"和"of"这种单词是没有像"red"和"bird"这种易于理解的视觉信号的,并且在生成"on top of"这种固定搭配词组的时候,语言模型就可以胜任,并不需要visual attention的帮助。

事实上,如果在生成这种不应该依靠 visual attention 的词时,使用了 visual attention 的话,生成的梯度可能会误导模型,并且可能会毁了之前 visual attention 在更新参数时做出的努力。

对 visual sentinel 的解释:

visual sentinel是一个隐变量(latent variable),主要用来表示 decoder 已知的东西(what the decoder already knows)。decoder 记忆的内容有长期的也有短期的内容,有图片的内容也有语言的内容,visual sentinel 就是拿来帮助 decoder 决定是否需要 attend to 图片,通过一个 sentinel 门实现,通过线性插值的方式决定是否需要依赖图片,表示为:

这里表示 visual attention,总的 attention 结果由 visual sentinel 和 visual attention 共同决定。

该模型的 attention module 如图所示:

整个 attention 计算过程和预测词的过程如下:

1. 首先是普通 visual attention 的计算:

这里最后一个特殊符号是一个元素全部为 1 的向量,其主要目的是为了将与其相乘的矩阵变得与加号前面的矩阵大小相同。

2. 然后是 visual sentinel 的计算:

中间的乘号是 element-wise multiplication。

3. 接着是 sentinel gate 的计算:

是一个 1xk 的向量,上面式子中后面一项算出来的是一个标量,sentinel gate就是的最后一项,也就是第 k+1 项。

4. 总的attention计算:

5. 最后是预测词:

p 是一个 1xD 的向量,D 表示词库的大小,最后得到的是概率最大词对应的 index,再从词库中返回这个 word。

Skeleton Key: Image Captioning by Skeleton-Attribute Decomposition

这篇文章指出,目前大多数的 image caption 模型中使用的 language model 都是逐个逐个生成词的,按照 label 中 caption的顺序,但是对于人来说,一种更自然的方式是,先确定图中有哪些物体,物体之间的关系是什么,然后再使用物体的瞩目特征来仔细描述每一个物体。

文章提出了一种 coarse-to-fine(我将其理解为椎轮大辂)的方法,将原始的图片描述分解为两个部分,一个主干句(skeleton sentence)和各种物体的特征(attributes),再生成语句的时候,也分为两个部分进行生成。通过这种分解,该文章的模型达到了 state-of-the-art 的效果。

举个例子:

为了生成上图中的描述,首先生成一句 skeleton sentence: horse on pasture(马儿在牧场上),用来表示物体中的主要物体和物体之间的关系,horses on pasture;然后,这些通过 visual attention 重新访问这些物体,当物体的 attention response 很大时,就生成对这些物体特征的描述,Three 和 a green。将两个句子结合起来生成最终的描述,Three horses on a green pasture。

方法的结构如图:

1. Skeleton-Attribute decomposition for captions:第一步需要对已有的训练集 caption 作语法分析,并且提取出主干句和特征描述。NP/VP/PP/AP 分别是名词/动词/副词/形容词。

2. 使用经过了 CNN 提取的特征作为语言模型的输入,decoder 部分由两个 LSTM 组成,一个是 Skel-LSTM,用来生成主干句,另一个是 Attr-LSTM 用来生成描述特征。

3. 在 Skel-LSTM 中使用的是 visual attention,在每个 time step 生成一张 attention map,用来预测这一时刻的词。用来描述 skeleton sentence 中的 skeleton object 时生成的 attention map 也可以用在生成对该 object 的特征描述上,所以在 Skel-LSTM 中获得的 visual attention 也可以在 Attr-LSTM 中再次使用。

在 Attr-LSTM 中对特征的生成不是逐个 object 生成的,是一次性生成的,因为学习过程中由于 Skel-LSTM 中物体是有顺序的,所以 Attr-LSTM 也学习了特征的顺序。

Attr-LSTM 中不仅使用了 attention,还使用了 current time step t 对应 LSTM 的 hidden state 和对应 skeleton word 的 word embedding。具体方法不细说请参考论文,欢迎讨论。

4. 最后将 skeleton sentence 和 attributes 结合起来,作为最终的 caption。

顺便提及一下,文章也指出了 encoder-decoder 模型的两个问题,很值得我们思考解决方法:

  • 鹦鹉学舌式地复述在训练过程中出现的语句,并且在生成语句时,描述和句式两个方面缺乏变化;

  • 由于是逐字生成描述,物体的特征需要在物体之前生成,因为不管是英语还是中文,形容词都是在名词之前出现的。但是从人类的角度来说,对一个物体的描述是需要 refer to 物体的。

Deep Reinforcement Learning-based Image Captioning with Embedding Reward

这是将强化学习与图像描述结合起来的论文,因为我的强化学习学得不多,只停留在 GAN 和 GAN 的一些变体,如果有错误请指正。

文章提出了一种新的 decision-making 框架来进行图像描述,用了一个"policy network"和一个"value network"协同生成描述。

policy network 扮演一个局部 guidance 的角色,根据这一时刻的状态,提供对下一个词预测的置信度。

value network 扮演一个全局、前瞻的 guidance,评估现状态所有可能的扩展状态。该网络本质上是在调整学习的方向,从预测正确的词汇到描述与 ground truth 相似的描述(这句话我不是很理解)。

使用的是 actor-critic 方法来训练网络,也就是先行动后打分的方法,是一种平衡了 value-based methods 和 policy-based methods 的方法。

作者说,他们的这种方法只通过 policy network 就可以提取出正确但是概率却很低的单词,具体例子如下图:

Next Action 表示下一个生成单词的 preference ranking,显然在现在时刻最合适的词 holding 并不是最优选择,但是 value network 却会 go forward 到假设生成 holding 这个词的 state,然后评估这个 state,对于生成一个合适描述这一目标,分数有多高。

作者首先使用基于交叉熵 loss 的监督学习 pretrain 了一个 policy network,使用均方误差训练了一个 value network,然后使用深度强化学习来改进两个网络。深度强化学习常用的领域是游戏和控制,对于 caption 这个任务来说,很难定义一个明确的目标,也就没法明确优化的目标。

这篇论文中提出了一种 actor-critic 模型,使用的 reward 由 visual semantic embedding 生成(visual semantic embedding 计算的是图片和描述的相似度,也就间接说明了 caption 的正确性,可以作为强化学习中合适的 target 来进行优化)。

文中具体的实现方法我也只能直观上地理解,公式推导我还不行,当我补上了足够的强化学习知识再来进行补充。

最近看新闻,腾讯 AI lab 在 MSCOCO 的 caption 任务上夺冠的模型也使用的是强化学习模型,我觉得强化模型在 caption 方向上可能会大放异彩。

相关链接

[1] slides:http://slides.com/walkingdead526/deck#/

论文链接

[1] https://arxiv.org/abs/1611.05594

[2] https://arxiv.org/abs/1612.01887

[3] https://arxiv.org/abs/1704.06972

[4] https://arxiv.org/abs/1704.03899

我是彩蛋

 解锁新功能:热门职位推荐!

PaperWeekly小程序升级啦

今日arXiv√猜你喜欢√热门职位

找全职找实习都不是问题

解锁方式

1. 识别下方二维码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能

职位发布

请添加小助手微信(pwbot01)进行咨询

长按识别二维码,使用小程序

账号注册paperweek.ly

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

▽ 点击 |阅读原文 | 访问作者知乎专栏

CVPR2017有哪些值得读的Image Caption论文?相关推荐

  1. AAAI 2022有哪些值得读的NLP相关论文?

    ©PaperWeekly 原创 · 作者 | 王馨月 单位 | 四川大学 研究方向 | 自然语言处理 新任务 1.1 NAREOR 论文标题: NAREOR: The Narrative Reorde ...

  2. 多目标跟踪(MOT)领域近期值得读的几篇论文

    ©PaperWeekly 原创 · 作者|黄飘 单位|华中科技大学硕士生 研究方向|多目标跟踪 Siamese Track-RCNN 论文题目:Multiple Object Tracking wit ...

  3. 2019年,异质图神经网络领域有哪些值得读的顶会论文?

    本文主要梳理了 2019 年各大顶会上关于异质图神经网络的论文,包括算法研究及应用研究.同时,作者也整理了相关大牛老师/论文/资料/数据集供大家学习. 作者丨纪厚业 学校丨北京邮电大学博士生 研究方向 ...

  4. 2017年度最值得读的AI论文 | NLP篇 · 评选结果公布

    历时九天,我们收到了近千份有效读者投票,2017 年度最值得读的 AI 论文评选也正式结束. 我们根据读者的投票情况,选出了自然语言处理和计算机视觉领域"2017 年最值得读的十大论文&qu ...

  5. 2017年度最值得读的AI论文 | CV篇 · 评选结果公布

    历时九天,我们收到了近千份有效读者投票,2017 年度最值得读的 AI 论文评选也正式结束. 我们根据读者的投票情况,选出了自然语言处理和计算机视觉领域"2017 年最值得读的十大论文&qu ...

  6. 软件工程实训有必要吗_人工智能专业值得读吗?就业如何?

    要说这几年的风口,人工智能首当其冲.热门是否代表了好就业?我觉得不是:那是不是就不好就业?我觉得也不是. 先来看看这些耸人听闻的标题吧-- "人工智能人才缺口超过500万,补齐人才短板乃是当 ...

  7. NLP领域近期有哪些值得读的开源论文?(附下载)

    来源:PaperWeekly 本文约3300字,建议阅读8分钟. 本文为你分享10篇值得读的NLP论文,带源代码的那种~ @paperweekly 推荐 #Relation Extraction 本文 ...

  8. 近期有哪些值得读的推荐系统论文?来看看这份私人阅读清单

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考.在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 本期「本周值得读」关注的是「推荐系统」领 ...

  9. NLP领域近期有哪些值得读的开源论文?

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考. 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 点击本文底部的「阅读原文」即刻加入社区 ...

最新文章

  1. 2021年上海市高考成绩查询,2021上海市地区高考成绩排名查询,上海市高考各高中成绩喜报榜单...
  2. 快速理解VirtualBox的四种网络连接方式
  3. Azkaban的Web Server源码探究系列20:resolvebuildFlow
  4. 浅谈javaweb三大框架和MVC设计模式
  5. 百度地图大数据告诉你一线城市真相
  6. java修改ldap用户密码_LDAP 用户更改自己的密码
  7. 来来来!java页面导出数据到excel
  8. IPC生产者与消费者模型加线程
  9. Javsscript自定义事件和触发
  10. 笔记本电脑拔掉电源屏幕会黑一下怎么办
  11. 两台计算机传输文件速度,两台电脑间如何快速传输几百个G的文件?使用这2个方法,方便极了...
  12. 计算机主板功能是什么,电脑主板的作用是什么_电脑主板作用详细介绍 - 系统家园...
  13. P5167 xtq的神笔
  14. 自学python经验_我学Python的经验,Python学习经验分享
  15. Django个人博客搭建4-配置使用 Bootstrap 4 改写模板文件
  16. wtc java 代码 tpcall(servicename_wtc经验心得以及相关代码
  17. audio_policy.conf文件:AUDIO_DEVICE_IN_REMOTE_SUBMIX含义
  18. android 自适应图片轮播,Android使用Recyclerview实现图片轮播效果的方法
  19. uni-app前端解决跨域的问题
  20. strcmp()函数的用法

热门文章

  1. 标准库 - 输入输出处理(input and output facilities) lua
  2. Java基础课程---权限修饰符
  3. 微信卡券 - 微信公众平台 整理笔记
  4. uva111346Probability
  5. /usr/local/php-5.2.14/sbin/php-fpm start Starting php_fpm –fpm-config
  6. MATLAB中cif用于清除什么,cifti-matlab-master 能够对MRI数据进行功能成像 - 下载 - 搜珍网...
  7. 中用BBP公式计算_散户如何计算庄家的持仓量和持仓成本?
  8. 字符串原样输出程序python_Python格式化字符串(格式化输出)
  9. 点对点信道互连以太网实验_以太网防雷器通讯参数测试(二)——防雷器对高速链路影响的参数...
  10. 画出该lti系统的幅频特性响应曲线_一文带你通俗理解幅频响应和相频响应