「自然语言处理(NLP)」神经机器翻译(NMT)论文整理(一)
来源: AINLPer 微信公众号(每日更新…)
编辑: ShuYini
校稿: ShuYini
时间: 2020-02-27
引言: 下面是作者整理的关于神经机器翻译(NMT)相关的论文文章,下面这10篇文章都顶会ICLR发表的文章,能找到源码的作者也直接贴出来了,如果你对NMT感兴趣或者也在找一些相关的文章,希望能够帮助你~~
关于本次分享得十篇NMT文章,如果你一篇篇的论文下载不方便,你也可以关注 AINLPer 回复:NMT001 进行打包下载
TILE: Multilingual Neural Machine Translation with Knowledge Distillation
Author: Xu Tan, Yi Ren, Di He, Tao Qin, Zhou Zhao, Tie-Yan Liu
Paper:https://openreview.net/pdf?id=S1gUsoR9YX
Code: None
论文简述: 多语言机器翻译以其离线训练和在线服务的效率而备受关注。然而,由于语言多样性和模型容量的限制,传统的多语言翻译通常会产生较低的准确性。在本文提出了一种基于提取的方法来提高多语言机器翻译的准确性。
TILE: Mirror-Generative Neural Machine Translation
Author: Zaixiang Zheng, Hao Zhou, Shujian Huang, Lei Li, Xin-Yu Dai, Jiajun Chen
Paper:https://openreview.net/pdf?id=HkxQRTNYPH
Code: None
论文简述: 本文提出了镜像生成NMT架构 ,这是一个单一的统一架构,同时集成了源到目标翻译模型、目标到源翻译模型和两种语言模型。
TILE: Multi-Agent Dual Learning
Author: Yiren Wang, Yingce Xia, Tianyu He, Fei Tian, Tao Qin, ChengXiang Zhai, Tie-Yan Liu
Paper:https://openreview.net/pdf?id=HyGhN2A5tm
Code: None
论文简述: 现有的二元学习框架形成了一个包含两个主体(一个原始模型和一个二元模型)的系统来利用这种二元性。本文通过引入多个原模型和对偶模型对该框架进行了扩展,提出了多智能体对偶学习框架。在神经机器翻译和图像翻译任务上的实验证明了该框架的有效性。
TILE: Multilingual Neural Machine Translation With Soft Decoupled Encoding
Author: Xinyi Wang, Hieu Pham, Philip Arthur, Graham Neubig.
Paper:https://openreview.net/pdf?id=Skeke3C5Fm
Code: None
论文简述: 神经机器翻译(NMT)系统的多语言训练在低资源语言上带来了令人印象深刻的准确性改进。然而,在数据缺乏的情况下,有效地学习单词表示仍然面临着巨大的挑战。在本文中,我们提出了软解耦编码(SDE),这是一种多语言词汇编码框架,专门设计来智能地共享词汇级别的信息,而不需要预先分割数据等启发式预处理。
TILE: Von Mises-Fisher Loss for Training Sequence to Sequence Models with Continuous Outputs
Author: Sachin Kumar, Yulia Tsvetkov
Paper: https://openreview.net/pdf?id=rJlDnoA5Y7
Code: None
论文简述: Softmax函数用于几乎所有现有的用于语言生成的序列到序列模型的最后一层。然而,它通常是计算最慢的一层,将词汇表大小限制为最频繁类型的子集;它有很大的内存占用。为此本文提出了一种用连续嵌入层替换softmax层的通用技术。
TILE: Unsupervised Machine Translation Using Monolingual Corpora Only
Author: Guillaume Lample, Alexis Conneau, Ludovic Denoyer, Marc’Aurelio Ranzato.
Paper: https://openreview.net/pdf?id=rkYTTf-AZ
Code: None
论文简述: 提出了一种从两种不同语言的单语语料库中提取句子并将其映射到同一潜在空间的模型。通过学习从共享的特征空间中重构两种语言,该模型有效地学习了不使用任何标记数据的翻译。
TILE: Unsupervised Neural Machine Translation.
Author: Mikel Artetxe, Gorka Labaka, Eneko Agirre, Kyunghyun Cho。
Paper:https://openreview.net/pdf?id=Sy2ogebAW
Code: None
论文简述: 针对神经机器翻译(NMT)本文完全消除了并行数据的需要,并提出了一种新的方法,以完全无监督的方式,仅依靠单语语料库来训练一个NMT系统。我们的模型建立在最近关于无监督嵌入映射的工作上,并由一个稍微修改过的注意力编译码器模型组成,该模型可以单独在单语语料库上使用去噪和反向翻译的组合进行训练。
TILE: Towards Neural Phrase-based Machine Translation.
Author: Po-Sen Huang, Chong Wang, Sitao Huang, Dengyong Zhou, Li Deng.
Paper:https://openreview.net/pdf?id=HktJec1RZ
Code: None
论文简述: 本文提出了一种基于神经短语的机器翻译方法。该方法使用最近提出的基于分段的序列建模方法Sleep-WAke Networks (SWAN)对输出序列中的短语结构进行了显式建模。
TILE: Word translation without parallel data
Author: Guillaume Lample, Alexis Conneau, Marc’Aurelio Ranzato, Ludovic Denoyer, Hervé Jégou
Paper:https://openreview.net/pdf?id=H196sainb
Code: https://github.com/facebookresearch/MUSE
论文简述: 学习跨语言单词嵌入的最新方法依赖于双语词典或平行语料库。本文证明,可以在两种语言之间建立一个双语词典,而无需使用任何平行语料库,通过以无监督的方式对齐单语单词嵌入空间。在不使用任何字符信息的情况下,我们的模型甚至在一些语言对的跨语言任务上优于现有的监督方法。
TILE: Non-Autoregressive Neural Machine Translation.
Author: Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher.
Paper: https://openreview.net/pdf?id=B1l8BtlCb
Code: None
论文简述: 现有的神经机器翻译方法将每个输出字置于先前生成的输出之上。本文引入了一个模型,该模型避免了这种自回归特性,而是并行地生成其输出,从而允许在推理期间降低一个数量级的延迟。
Attention
更多自然语言处理相关知识,还请关注 AINLPer公众号,极品干货即刻送达。
「自然语言处理(NLP)」神经机器翻译(NMT)论文整理(一)相关推荐
- 「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文
关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总 ...
- 2019年「自然语言处理NLP」的“高光时刻” --- 28篇标志性论文
点击上方"深度学习技术前沿",选择"星标"公众号 资源干货,第一时间送达 自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结. ...
- 28篇标志性论文见证「自然语言处理NLP」2019-2020年度亮点进展
来源:专知 [导读]自然语言处理专家elvis在medium博客上发表了关于NLP在2019年的亮点总结.对于自然语言处理(NLP)领域而言,2019年是令人印象深刻的一年.在这篇博客文章中,我想重点 ...
- (含源码)「自然语言处理(NLP)」社区问答评估Bert模型优化
来源: AINLPer 微信公众号(每日更新-) 编辑: ShuYini 校稿: ShuYini 时间: 2020-03-21 引言: 本文分享的内容主要包括社区问答质量评估(基于Bert模型微调). ...
- nmt模型源文本词项序列_「自然语言处理(NLP)」阿里团队--文本匹配模型(含源码)...
来源:AINLPer微信公众号 编辑: ShuYini 校稿: ShuYini 时间: 2019-8-14 引言 两篇文章与大家分享,第一篇作者对通用文本匹配模型进行探索,研究了构建一个快速优良的文本 ...
- antd 文本域超长问题_「自然语言处理(NLP)」阿里团队--文本匹配模型(含源码)...
来源:AINLPer微信公众号 编辑: ShuYini 校稿: ShuYini 时间: 2019-8-14 引言 两篇文章与大家分享,第一篇作者对通用文本匹配模型进行探索,研究了构建一个快速优 ...
- 「自然语言处理(NLP)」中文自然语言处理可能用到的数据集
来源: AINLPer 微信公众号(每日更新-) 编辑: ShuYini 校稿: ShuYini 时间: 2020-08-08 引言: 给大家分享一下中文自然语言处理可能用到的数据集,感兴趣的小伙伴可 ...
- 「自然语言处理(NLP)」ACL 阿里(舆论、立场检测) 耶鲁(电子邮件主题生成)
来源:AINLPer微信公众号 编辑: ShuYini 校稿: ShuYini 时间: 2019-8-24 引言 本次为大家推荐两篇文章,第一篇是阿里巴巴团队提出的用于谣言检测和立场分类的多任 ...
- 深度学习与自然语言处理教程(6) - 神经机器翻译、seq2seq与注意力机制(NLP通关指南·完结)
作者:韩信子@ShowMeAI 教程地址:https://www.showmeai.tech/tutorials/36 本文地址:https://www.showmeai.tech/article-d ...
最新文章
- Leetcode 162. 寻找峰值 解题思路及C++实现
- 实证会计理论与因果推断13 线性模型概述
- HUE配置文件hue.ini 的zookeeper模块详解(图文详解)(分HA集群)
- Java小结(二)——打印矩形和九九乘法表
- 多线程c语言,如何用C语言实现多线程
- n分频器 verilog_基于Verilog的分频器实现
- 计算凸多边形面积的算法
- 【转】DICOM开发工具总结
- 201671010439-词频统计软件项目报告
- iOS:using Segue in Popover
- MATLAB安装与解密
- 2022中国边缘计算企业20强
- Bluno 是干什么的?- 云物联戒烟设备的可选原型之一
- PyAlgoTrade框架研究
- 儿童学计算机编程好处,孩子学编程的好处是什么
- blob/text column 'content' used in key specification without a key length
- 淘宝海量数据产品技术架构
- 【应用统计学】几种常见的概率分布
- 易语言 超文本浏览框
- JS 异步编程的解决方案,以及回调地狱的解决方案