每天给你送来NLP技术干货!


论文名称:Learning to Rewrite forNon-Autoregressive Neural Machine Translation

论文作者:耿昕伟,冯骁骋,秦兵

原创作者:耿昕伟

论文链接:https://aclanthology.org/2021.emnlp-main.265.pdf

出处:哈工大SCIR

1. 简介

非自回归机器翻译[1]由于其解码过程不依赖于之前翻译结果从而获得很高的推理速度,但是其翻译质量相对较差。近期许多工作将迭代式[2,3]的解码策略引入非自回归机器翻译中,其通过多次优化先前的翻译结果从而提升最终翻译质量。但是,其中一个显著问题是在迭代式解码过程中这些方法并不能显示区分翻译结果中的错误。在本工作中,我们提出一个新的非自回归机器翻译架构RewriteNAT,其可以学习改写翻译结果的错误内容。该架构使用一个定位模块识别翻译中的错误,而后使用另一个改写模块将其改写成正确翻译内容。此外,为了保证训练和迭代式解码过程中输入数据分布的一致性,我们采用迭代式的训练方法进一步提升模型的改写错误能力。在多个广泛使用的翻译数据上的实验结果显示,相比多个传统的迭代式非自回归方法,我们提出方法可以获得更好的翻译性能,同时显著的减少解码时间。

2. 模型结构

我们提出的RewriteNAT主要有三个模块组成,即编码器、错误修改器以及错误定位器。本文使用的编码器与传统的TRANSFORMER[4]编码器类似,将输入的源语言编码成连续的向量表示。而本文的解码器,其主要由错误修改器和错误定位器组成,其主要负责修改和识别生成的翻译结果中的错误信息。本文提出的RewriteNAT的框架如图 1所示。

图 1 基于显式改写机制的非自回归机器翻译框架

2.1 错误修改器

给定错误定位器标注过的翻译结果Y^r,错误修改器主要负责将错误的翻译片段修改其对应的正确形式。具体来说,我们期望错误修改器在给定源语言的向量表示以及翻译中的正确的内容条件下,在翻译中被标注为[MASK]的错误位置上重新生成正确的翻译内容。给定的错误定位器的标注结果,本文使用多个与传统非自回归翻译解码器类似的TRANSFORMER[4]块生成其相应的表示:其中代表由个Transformer块构成错误修改器。此后,翻译中被标注为[MASK]的错误位置对应的表示将被输入到一个分类器从而重新生成目标语言的翻译:其中和是可训练的参数。错误分类器重新生成的翻译结果将替换翻译中被标注为[MASK]的错误翻译内容,从而获得新的翻译结果:

而被输入到错误定位器中。

2.2 错误定位器

给定错误修改器生成的翻译结果,本文使用错误定位器对翻译结果的每个词语正确性进行判断。对于翻译中的每个词语,其可以被分类成两个类别即修改(revise)和保持(keep)。根据定位器的分类结果,本文对输入的翻译结果进行修改而后作为错位修改器的输入修改其中的错误信息。具体来说,本文将翻译中被标注为revise的词语替换成特殊的符号即[MASK],其他的保持不变。给定生成的翻译结果,本文使用多个与传统非自回归翻译解码器类似的TRANSFORMER块将翻译转化成隐含层表示:其中表示由个Transformer块构成错误定位器。而后,错误定位器以其为输入对于翻译的词语进行分类。根据分类的结果,翻译修改成:

其中被作为错误修改器的输入。

3. 实验结果

3.1 翻译结果

本文在四个标注机器翻译数据集上评价本文提出的RewriteNAT的性能,即WMT14英-德(4.5M)和英-法(36M)、WMT16英-罗马尼亚(610K)以及WMT17英-中(20M)。我们使用知识蒸馏构建新的数据集从而缓解多模式的问题,其中对于英-德、英-法以及英-中本文使用TRANSFORMER-BIG[4]模型生层蒸馏数据,而对于英-罗马尼亚使用TRANSFORMER-BASE[4]模型。本文使用BLEU评价翻译的模型的质量。如表 1所示,在WMT14英=>德(27.83 vs. 27.82)、德=>英(31.52 vs. 31.66)以及罗马尼亚=>英(34.09 vs. 34.14)翻译数据上,本文提出的RewriteNAT可以获得和传统的自回归机器翻译模型取得可比翻译性能。

表 1 基于显式改写机制的非自回归机器翻译模型在WMT14英-德和英-法上结果

此外,为了证明提出的模型在大规模数据上的鲁棒性,我们在英=>法和英=>中任务上验证模型的性能。如表 2所示,本文提出的RewriteNAT模型相比高性能CMLM[3]在翻译质量和速度上取得一致的提升。特别地,RewriteNAT在英=>法翻译任务上取得与自回归机器翻译上取得可比的结果,但是平均仅需要较少的迭代次数。

表 2 基于显示改写机制的非自回归机器翻译模型在英=>中和英=>法任务上的结果

3.2 解码速度

相比传统的典型的迭代式的非自回归机器翻译模型,本文提出RewriteNAT可以获得一致的提升,但是需要更少的迭代次数。如图 2所示,本文提出的RewriteNAT获得同样翻译性能,但是拥有更快的解码速度。当最大的迭代次数为2时,RewriteNAT可以获得和CMLM以及基于贪心算法的TRANSFORMER同样的性能,但是其加速比可以达到7.02x。随着最大迭代次数的增加,RewriteNAT性能可以获得进一步的提升,直到最大的迭代次数达到4。特别的,当最大迭代次数为4时,RewriteNAT可以获得与基于柱搜索的自回归机器翻译(27.77 vs. 27.82, 3.86x)达到相同的结果。

图 2 在WMT14英=>德翻译上RewriteNAT相对自回归翻译模型的加速比

4. 实验分析

4.1 词汇重复率

非自回归机器翻译模型由于无法显示的建模上下文依存关系从而导致其无法很好的处理多模式的问题[5]。为了评价提出的模型多模式的问题程度,本文通过计算翻译结果中连续的重复词的比例,从而间接的评价提出模型多模式问题程度。如表 3所示,RewriteNAT模型中的词汇重复率明显小于采用同样迭代次数的CMLM模型。

表 3 WMT14英=>德任务上翻译性能和词汇重复率随着迭代次数变化

4.2 词性分析

除了比较提出的模型相比传统的非自回归模型的性能提升,本文还分析词汇生成需要的迭代次数与其相应的词性的关系。如图 3所示,RewriteNAT倾向于在解码的早期生成标点符号。而后,名词是仅次于标点符号的容易生成词性。而其他主要作为修饰性成分的词性比如形容词、副词以及介词等,经常在标点符号以及名词之后生成。最后,对于提出的RewriteNAT,动词以及助词是最难预测的,经常在解码的后期生成。

图 3 WMT14德=>英翻译任务上不同词性生成所需要的平均迭代比例

5. 结论

本文提出一个新的迭代式机器翻译框架RewriteNAT,其显式学习改写翻译中的错误信息。实验结果证明相比传统的迭代式非自回归机器翻译模型,本文提出的方法可以获得明显的提升但是仅需要很少的迭代次数。实验分析显示RewriteNAT的词语生成顺序符合easy-first策略。

参考文献

[1] Gu J, Bradbury J, Xiong C, et al. Non-autoregressive neural machine translation[J]. arXiv preprint arXiv:1711.02281, 2017.

[2] Lee J, Mansimov E, Cho K. Deterministic non-autoregressive neural sequence modeling by iterative refinement[J]. arXiv preprint arXiv:1802.06901, 2018.

[3] Ghazvininejad M, Levy O, Liu Y, et al. Mask-predict: Parallel decoding of conditional masked language models[J]. arXiv preprint arXiv:1904.09324, 2019.

[4] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.

[5] Wang Y, Tian F, He D, et al. Non-autoregressive machine translation with auxiliary regularization[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2019, 33(01): 5377-5384.

本期责任编辑:赵森栋

本期编辑:钟蔚弘


投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

整理不易,还望给个在看!

EMNLP'21 | 学习改写非自回归机器翻译的翻译结果相关推荐

  1. 今晚直播:非自回归神经机器翻译 | PhD Talk #24

    「PhD Talk」是 PaperWeekly 的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义 ...

  2. 香港大学顾佳涛:非自回归神经机器翻译 | 直播预告

    「PhD Talk」是 PaperWeekly 的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义 ...

  3. 直播实录 | 非自回归神经机器翻译 + ICLR 2018 论文解读

    本文为 3 月 9 日,香港大学博士生--顾佳涛博士在第 24 期 PhD Talk 中的直播分享实录. 在本期 PhD Talk 中,来自香港大学的博士生顾佳涛,向大家介绍了他们在加速神经机器翻译( ...

  4. 【论文阅读】Paraformer工业级非自回归端到端语音识别模型

    Paraformer: Fast and AccurateTransformer for Non-autoregressive End-to-End Speech Recognition 摘要 介绍 ...

  5. 直播 | 浙江大学硕士生任意:非自回归语音合成

    「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和 ...

  6. ​Interspeech 2022 | 探索非自回归跨语言语音合成中的音色解耦问题

    ©PaperWeekly 原创 · 作者 | 音月 研究方向 | 语音合成 引言 语音合成(Text-to-Speech, TTS)是指文字转语音相关技术.随着人工智能技术的发展,TTS 的声学模型和 ...

  7. PyTorch学习笔记(二)——回归

    PyTorch学习笔记(二)--回归 本文主要是用PyTorch来实现一个简单的回归任务. 编辑器:spyder 1.引入相应的包及生成伪数据 import torch import torch.nn ...

  8. 非自回归也能预训练:基于插入的硬约束生成模型预训练方法

    论文标题: POINTER: Constrained Text Generation via Insertion-based Generative Pre-training 论文作者: Yizhe Z ...

  9. “非自回归”也不差:基于MLM的阅读理解问答

    作者丨苏剑林 单位丨追一科技 研究方向丨NLP,神经网络 个人主页丨kexue.fm 前段时间写了万能的Seq2Seq:基于Seq2Seq的阅读理解问答,探索了以最通用的 Seq2Seq 的方式来做阅 ...

  10. 深度学习导论(2)深度学习案例:回归问题

    深度学习导论(2)深度学习案例:回归问题 问题分析 优化方法 代码 采样数据 计算误差 计算梯度 梯度更新 main函数 结果输出 这篇文章将介绍深度学习的小案例:回归问题的问题分析.优化以及实现代码 ...

最新文章

  1. 如何完全安装mysql数据库_数据库经验:如何简单安装MySQL数据库
  2. 广西师范大学计算机调剂难吗,2014年广西师范大学考研调剂过来人给的建议
  3. java判断tcp是否阻塞_connect()调用在TCP堆栈中是非阻塞的(java)是什么意思
  4. [Web Chart系列之五] 1. 实战draw2d 之总体介绍
  5. Windows Server_2008下搭建个人下载服务器(FTP)
  6. CSDN星城大巡礼,长沙“科技之星”年度企业评选正式开启
  7. 手机logging什么意思_手机三轴稳定器的“三轴”是什么意思?
  8. python课题_python课题报告
  9. 基于51单片机的电烤箱微波炉数码管显示proteus仿真
  10. Linux GCC 编译过程分析及常用检错的编译选项
  11. 移动Web:媒体查询及手机端PC端识别
  12. 老大说不要在项目中使用存储过程
  13. initramfs学习
  14. bitset 用法整理
  15. HAL库之SYSTICK时钟频率探究-F407
  16. java并行流 阻塞主线程_记一次使用Java8并行流导致的服务瓶颈问题排查
  17. 44所高校入选!分布式智能计算项目名单公示
  18. 棋牌游戏开发--如何选择棋牌开发商
  19. 微机原理学习笔记——位操作指令
  20. 关于GTD的网站(更新中...)

热门文章

  1. yum命令报错 yum update File /usr/bin/yum, line 30 except KeyboardInterrupt, e: --CentOS7.5
  2. Swagger Annotation 详解(建议收藏)
  3. rem-详细理解笔记
  4. BZOJ4530:[BJOI2014]大融合
  5. iPhone唯一标识符
  6. 海量小文件存储(转)
  7. 简单的Android文件浏览器(附源代码)
  8. 【原生】封装一个判断数据类型的函数的方法,准确判断一个数据的类型
  9. java之重定向与转发
  10. codevs 1388 砍树