论文标题:

Neural Machine Translation with Universal Visual Representation

论文作者:

Zhuosheng Zhang, Kehai Chen, Rui Wang, Masao Utiyama, Eiichiro Sumita, Zuchao Li, Hai Zhao

论文链接:

https://openreview.net/forum?id=Byl8hhNYPS

收录情况:

ICLR 2020 (Spotlight)

代码链接:

https://github.com/cooelf/UVR-NMT


长期以来,机器翻译都只涉及到文本之间的转换,但实际上,人的感知功能可以是“多模态”的。

本文提出一种通用的视觉表征,将图片信息融合到机器翻译模型中。

使用这种视觉知识融合方法,不需要额外的双语-图片标注数据,模型就能够在多个数据集上取得显著的效果提升。

多模态与机器翻译

机器翻译是两种语言间的转换,比如“A dog is playing in the snow”翻译为中文就是“小狗在雪地里玩耍”。

但人类理解世界不只是用文字,还有视觉、听觉等感知能力;并且翻译的过程需要保持“语义”不变。比如下面的图:

讲中文的人会说“小狗在雪地里玩耍”,而讲英文的人会说“A dog is playing in the snow”。也就是说,人们对客观世界的本质认知是相同的,只是“方法”不同,体现在语言上,就是语法上的差异。

为此,我们可以假设在机器翻译模型中,融入这种“客观的世界知识”,比如把图片信息加入,以此期望增强翻译能力。同时考虑文本和图片,这就是一种多模态。

然而,过去的翻译-图片研究大都需要大量的双语-图片标注数据,这在数据上成为一个研究的瓶颈。本文针对这种情况,提出“通用的视觉表示”,仅用单语-图片标注数据,就能显著提高机器翻译的效果。

本文的方法在数据集EN-RO,EN-DE,EN-FR上均有约一个BLEU值的提高,这说明了本方法的有效性。

具体来说,本文贡献如下:

  • 提出一种通用的视觉表示方法,无需双语-图片标注语料;

  • 该方法可以在只有文本的数据集上使用;

  • 实验证明了该方法效果提升的一致性。

在阅读完本文之后,读者可以思考下述问题:

  • 如果要翻译单语-图片数据集中没有的语言,可以怎么做?

  • 在融合步骤,是否可以有其他的方法进行融合?

  • 你认为本文这种方法从逻辑上是否真的有效?为什么?

通用视觉表示

本节来介绍本文的方法。

首先我们有一个单语-图片数据集,也就是,其中的每条数据都是一张图片和对图片的描述

这个描述的句子为,把其中的停用词去掉后得到了,它所描述的图片是

然后,对中的每个词,计算它在整个数据集中的TF-IDF值,然后取中TF-IDF值最大的前个词作为这个图片的主题词,也就是和图片最相关的个词。

这样一来,每个图片都有它主题词,同时,每个词都有可能同时是多个图片的主题词。我们可以把这看成一个“主题词-图片”查询表,输入一个词,就可以在表中查询以为主题的所有图片

那么,现在输入一个句子,我们就可以按照同样的步骤:

1.去除停用词;

2.计算每个词的TF-IDF;

3.取前个TF-IDF最高的词;

4.在查询表中找到所有对应的图片;

5.按照出现次数的多少排序,取出前个出现次数最多的图片(因为多个词可能对应同一个图片),得到集合

现在,这个图片集合就可以认为是和输入句子对应的视觉信息,可以用它去增强翻译效果了。下图是流程示意图:

在机器翻译中融合图片信息

为了把图片融合进去,我们首先用一个预训练的ResNet提取图片集的表示,然后计算

这里,是Transformer Encoder的最后一层,是用ResNet得到的图片集的表示,使用sigmoid计算。

在Decoder端,直接把送入即可。融合步骤如下所示:

实验

我们在三个数据集上进行实验:WMT16 En-RO, WMT14 EN-DE和WMT14 EN-FR。这三个数据集大小从小到大增加,从而在不同大小的数据集上都能验证该方法。

下表是在这三个数据集上的结果,++表示显著更优。

可以看到,和基线模型(Trans.(base/big))相比,本文的方法(+VR)在三个数据集上都能得到显著的提升,平均提升约一个BLEU值。同时,只引入了很少的参数量,这就不会使训练时间几乎不会增加。

下表是在数据集Multi30K上的结果,这是一个多模态数据集。可以看到,即使在多模态设置下,本文方法依旧能够取得显著结果。

最后,我们来看看每个句子对应的图片集的大小,和手动控制参数的影响。

下图分别是两个因素的影响结果。从图片数量来看,并不是越多的图片数量越好,也不是越少越好,而是在的区间较好。这是因为,过少的图片信息不充分,过多的图片噪声太多。

参数控制的是图片信息融合的程度,可以看到,无论融合多少,效果都比不融合图片信息要好,这说明多模态是有效果的。

而且,手动控制它都没有模型自动学习好,这也说明模型对不同的输入句子,需要的视觉信息也是不同的。

小结

本文提出了一种简单、有效的多模态视觉知识融合方法——首先构建从主题词到图片的查询表,然后对输入句子找到相关的图片,然后使用ResNet提取图片信息融入到机器翻译模型中。

使用这种方法,可以避免对大规模双语-图片数据的依赖。实验结果也表明,这种方法可以一致地提高翻译效果。

思考题讨论

  • 如果要翻译单语-图片数据集中没有的语言,可以怎么做?

    比如没有日语,我们可以用一个日语的image caption模型去自动标注每个图片的描述。

    或者可以用X-日语的机器翻译得到图片翻译后的描述;或者直接用一个现有的词典,把图片的主题词直接翻译成日语。其他方法亦可。

  • 在融合步骤,是否可以有其他的方法进行融合?

    另外一个简单的方法是,把ResNet得到的图片表示和句子一起,送入Encoder,再像往常一样解码。

  • 你认为本文这种方法从逻辑上是否真的有效?为什么?

    见仁见智,笔者倾向于有效,但是作用不大,因为只从模型的角度难以验证图片和文本之间语义的相关性,至于效果的提升,有可能是ResNet和Aggregate的共同结果。

    笔者认为,可以考虑加一个图片预测描述的任务,和翻译一起学习;再将ResNet替换为普通的CNN进行实验。

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

ICLR 2020 | 多模态下使用图片信息显著增强机器翻译效果相关推荐

  1. ICLR 2020 | ReClor: 一个需要逻辑推理的阅读理解数据集

    2020-05-12 20:22:59 语言预训练模型在现有流行的阅读理解数据集上取得了惊人的效果,因此,现在是时候引入更复杂的数据集来推动该领域朝着更复杂推理的方向发展了. 新加坡国立大学冯佳时团队 ...

  2. ICLR 2020| 最新NAS benchmark:0.1秒完成NAS算法搜索

    2020-01-19 16:37 专题:ICLR 2019 导语:ICLR论文解读~ 雷锋网AI科技评论按:本文对悉尼科技大学博士生董宣毅发表于 ICLR 2020 的录用Spotlight论文< ...

  3. ICLR 2020 | 可提速3000倍的全新信息匹配架构(附代码复现)

    ©PaperWeekly 原创 · 作者|周树帆 学校|上海交通大学硕士生 研究方向|自然语言处理 今天聊一篇 FAIR 发表在 ICLR 2020 上的文章:Poly-encoders: Trans ...

  4. ICLR 2020 | “同步平均教学”框架为无监督学习提供更鲁棒的伪标签

    ©PaperWeekly · 作者|葛艺潇 学校|香港中文大学博士生 研究方向|图像检索.图像生成等 本文介绍一篇由港中文发表于 ICLR 2020 的论文 Mutual Mean-Teaching: ...

  5. 在深度学习顶会ICLR 2020上,Transformer模型有什么新进展?

    一只小狐狸带你解锁炼丹术&NLP秘籍 大数据文摘出品 来源:medium 编译:一一.Andy ICLR是机器学习社群最喜爱的会议平台之一.如今,机器学习领域的会议已成为预印本里论文质量的标志 ...

  6. 论文浅尝 | ICLR 2020 - 一文全览知识图谱研究

    本文转载自公众号: AI科技评论 作者 | Michael Galkin 编译 | 贾伟 ICLR 2020 正在进行,但总结笔记却相继出炉.我们曾对 ICLR 2020 上的趋势进行介绍,本文考虑的 ...

  7. 【预训练视觉-语言模型文献阅读】VL-BERT: PRE-TRAINING OF GENERIC VISUAL- LINGUISTIC REPRESENTATIONS(ICLR 2020)

    [预训练视觉-语言模型文献阅读]VL-BERT: PRE-TRAINING OF GENERIC VISUAL- LINGUISTIC REPRESENTATIONS(ICLR 2020) 文章目录 ...

  8. 【论文解读 ICLR 2020 | DropEdge】TOWARDS DEEP GRAPH CONVOLU-TIONAL NETWORKS ON NODE CLASSIFICATION

    论文题目:DROPEDGE: TOWARDS DEEP GRAPH CONVOLU-TIONAL NETWORKS ON NODE CLASSIFICATION 论文来源:ICLR 2020 论文链接 ...

  9. ICLR 2020 | GraphAF: a Flow-based Autoregressive Model for Molecular Graph Generation

    ICLR 2020 | GraphAF: a Flow-based Autoregressive Model for Molecular Graph Generation Paper: https:/ ...

最新文章

  1. mysql have_mysql having用法解析
  2. 怎样调整XenServer下面Linux虚拟机的磁盘大小
  3. 【Java】辨析jvm.dll、java.exe、javaw.exe、javaws.exe
  4. sap sdi mysql_SAP HANA 实时数据模型与导入数据模型之间基于 SDI 的混合
  5. Docker 常用命令,还有谁不会?
  6. MBProgressHud添加自定义动画
  7. Kinect+OpenNI学习笔记之13(Kinect驱动类,OpenCV显示类和手部预分割类的设计)
  8. 捷径|Instagram去水印教程
  9. Halcon基础操作
  10. MT2601智能穿戴芯片处理器参数介绍
  11. 公众号封面图内容数据提取软件
  12. 阿郎恋曲(阿郎的故事)
  13. win10下使用Winsat对系统进行评分
  14. 查看tomcat的版本号
  15. 希尔伯特变换在MATLAB中的应用
  16. 关于iPad程序如何强制横屏
  17. 涨姿势:在线黑科技小工具,方便快捷
  18. 华为机试真题 Java 实现【查找众数及中位数】
  19. 求一个正整数所有正因数的和
  20. Deep Ordinal Regression Network for Monocular Depth Estimation 单目深度估计,论文阅读,DORN;视频笔记

热门文章

  1. thymeleaf取model值_史上最详 Thymeleaf 使用教程
  2. 监督学习和无监督学习_让半监督学习再次伟大!谷歌最新无监督数据增强研究,全面超越现有半监督学习方法...
  3. git 如何同步本地tag与远程tag
  4. solr参数之facet
  5. ansible模块---续
  6. 接口测试工具postman(六)添加变量(参数化)
  7. CentOS 7 换yum源
  8. php要字符串的后四位,php如何截取字符串后四位
  9. List集合存入int类型值1,remove(1)方法按下标还是按对象删除信息
  10. android 许可协议,Android 基本控件的使用二(注册许可协议)(CheckBox)