点击我爱计算机视觉标星,更快获取CVML新技术


编者按:AAAI 2020 明天将在纽约开幕,然而这次的情况有些许不同,许多国内的小伙伴因疫情影响无法到现场参加会议。各位小伙伴在家中做好日常防护的同时,是时候开启“云参会”模式啦。本届 AAAI 中微软亚洲研究院有29篇论文入选,本文为大家介绍的6篇精选论文涵盖多维数据普适分析、文本风格迁移、句子改写、集成学习、实体链接任务等多个前沿主题,如果你不能去到大会现场,先来看看这些精选论文吧。

自我爱计算机视觉公众号后台回复“MSRA20论文”,,即可下载微软亚洲研究院全部录取论文。

低资源文本风格迁移数据集

A Dataset for Low-Resource Stylized Sequence-to-Sequence Generation

论文链接:https://www.msra.cn/wp-content/uploads/2020/01/A-Dataset-for-Low-Resource-Stylized-Sequence-to-Sequence-Generation.pdf

风格迁移是最近自然语言生成领域一个非常火的主题,随着各项技术的提出,当前风格迁移算法已经可以较好地对文本序列进行“情感极性”和“文本规范性”的迁移。然而,在很多的现实应用中,我们需要同时进行 Sequence2Sequence 和风格迁移两个任务,例如在对话机器人之中,我们要求机器不但可以对用户所输入的对话给出相关的回复,还可以保证回复的规范性。

图1:不同风格对话样例

如图1所示,当用户咨询关于 Windows 的问题时,应该给出的回复是正规而礼貌的,而不是随意而不礼貌的。为了研究当前算法对此类问题的进展,我们提出了两个数据集—— Machine Translation Formality Corpus(MTFC) 和 Twitter Conversation Formality Corpus(TCFC),分别研究机器翻译风格迁移和对话风格迁移。

其中,MTFC 的任务定义为,给定一句中文口语,翻译的结果应该为正规的英文书面语。为了完成这个任务,MTFC 包含从 Opensubtitle 下载并清洗的约1400万中英互译口语语料,以及 GYAFC 数据集中所包含的5万英文非正规文本到正规文本的句对。而 TCFC 的任务定义为,给定一个推特(Twitter)风格的对话上文,给出正规而礼貌的对话回复。TCFC 提供170万的推特对话语料作为训练数据。

为了验证模型在这个任务的表现,MTFC 的验证集和测试集分别包含2865和1412个中文口语到英文书面语的句对(每一句中文口语提供4句英文书面语作为参照)。与之类似,TCFC 的验证集和测试集分别包含980和978个样例(每一个对话上文对应2个风格正规的对话回复)。该论文还验证了 Pivot Model、Teacher Student Model、Back-translation Model 三种基线模型的效果,其中 Back-translation 模型的表现最佳。

图2:三种基线模型的效果

通过预训练生成跨语种自然语言

Cross-Lingual Natural Language Generation via Pre-Training

论文链接: https://arxiv.org/abs/1909.10481

自然语言生成模型的训练需要大规模的训练数据,然而大多数的数据集都是以英语等资源丰富的语言提供的,限制了这些模型在其它语言上的应用。本篇论文提出了一种跨语言预训练方法,使得我们可以将文本生成任务的监督信号在不同语言间迁移,从而实现自然语言生成模型的跨语言的零样本或少样本学习。

在自然语言生成模型的跨域语言迁移中, 通常模型用英语进行训练,然后在其它语言上进行测试. 以文本摘要为例:

图3:文本摘要示例

本篇论文针对该问题的特点提出了预训练模型 XNLG。XNLG 是一个序列到序列的 Transformer 模型,它的预训练包括两个阶段:编码预训练、解码预训练,以及两个维度:单语预训练、跨语言预训练,共计4个预训练任务,如图4所示:

图4:XNLG 的预训练任务

我们在跨语言零样本问题生成/文本摘要任务(用英文训练,在其它语言上测试)上进行了实验,如图5所示。结果表明,XNLG 可以超越基于机器翻译的流水线模型。

图5:跨语言零样本问题生成/文本摘要任务实验结果

此外,我们还实验了在有不同数目的目标语言训练数据的情况下,XNLG 的跨语言迁移效果的变化情况,如图6所示。结果表明,在各种数据量上 XNLG 都能将源语言的知识迁移到目标语言上并且提升目标语言上的效果,尤其是当目标语言训练数据量较少时。

图6:跨语言迁移实验结果

基于事实感知的句子切分改写任务与置换不变训练

Fact-aware Sentence Split and Rephrase with Permutation Invariant Training

论文链接:https://arxiv.org/pdf/2001.11383.pdf

句子切分改写任务是将输入的复杂长句转化为多个语义等价的简单短句,通常采用 seq2seq 模型在平行语料上进行训练,这类方法主要面临以下两种问题:

1. 对于复杂长句,编码器很难准确地捕捉到其中所陈述的事实,因此解码出的简单句经常会丢失信息或者生成一些错误的事实表述(如图7(a)所示);

2. 由于从复杂句中派生出的多个简单句,可以以任何一种顺序方式呈现,这种排列的随机性会困扰 seq2seq 模型应该以怎样的顺序生成多个简单短句(如图7(b)所示)。

图7:seq2seq 模型在句子切分改写任务中面临的问题示例

为了解决上述这些问题,本篇论文引入了基于事实感知的句子编码 FaSE 以及置换无关训练的策略 PIT。整个模型的框架如图8所示,FaSE 借助多任务学习的方式使得编码器编码的特征不仅用于句子切分改写任务,同时还用于判断从当前复杂句中是否可以推断出给定的事实。引入事实判定的辅助任务使得模型能够从复杂长句中更好地捕获事实信息,从而提高句子切分的准确率;PIT 策略被广泛用于解决多谈话者场景下语音分离任务中的标签排序问题。在句子切分改写任务中,我们引入 PIT 策略来寻找具有最小损失的排列顺序作为优化的目标,从而缓解由于排列顺序随机性给 seq2seq 模型学习带来的影响,从而使得整个训练过程更加稳定。

图8:模型框架

我们提出的方法在 WebSplit-v1.0 数据集上取得了较为显著的结果,其中 FaSE 和 PIT 都分别带来了明显提升;我们还将其作为 OpenIE 任务的预处理部分,也显著地提升了 Stanford OpenIE 的结果。

通过建模隐含的实体类型信息来改进实体链接任务

Improving Entity Linking by Modeling Latent Entity Type Information

论文链接:https://arxiv.org/abs/2001.01447

实体链接(Entity Linking)任务旨在研究如何将文本中对实体有歧义的“提及” (mention) 链接到目标知识库所对应的实体上去,其结果可以用来帮助许多与知识相关的任务,如问答、信息抽取等。在研究方法上,实体链接任务经历了从传统的基于特征工程的方法到目前基于神经网络的端到端方法的过渡。

目前一些先进的基于神经网络的实体链接模型容易将“提及”链接到类型不一致的实体上去。如图9所示,本篇论文的基线方法 DeepED(Ganea and Hofmann 2017)错误地将提及 “Milwaukee” 链接到球队类型的实体 Milwaukee_Brewers,尽管介词 “In” 明显地暗示 “Milwaukee” 应该指代地点类型的实体 Milwaukee。

图9:基线方法 DeepED(Ganea and Hofmann 2017)在标准数据集 AIDA-CoNLL 开发集上的类型错误示例

基于这一观察,本篇论文分析了其主要原因有两方面:1)提及的上下文所蕴含的实体类型信息建模不够充分;2)实体的向量表示对实体类型不敏感。基于此,我们提出了一种简单有效的基于预训练语言模型的实体表示方法和一个基于 BERT 的实体相似度特征,以更好地捕捉实体类型信息。

本篇论文在标准数据集上通过领域内和领域间测试证明了模型的有效性。同时通过详细的实验分析,展示出论文所提出的方法真正纠正了大部分基线模型所产生的类型错误。

最后,论文通过在训练中得到的模型所对应的上下文表示空间中检索最邻近上下文,直观地展示出基于 BERT 的上下文表示更好地捕捉了隐含的实体类型信息。

图10:本篇论文和基线方法在上下文表示空间中的最邻近上下文

Table2Analysis: 多维数据普适分析模式的建模与推荐

Table2Analysis: Modeling and Recommendation of Common Analysis Patterns for Multi-Dimensional Data

论文链接:https://www.microsoft.com/en-us/research/publication/table2analysis-modeling-and-recommendation-of-common-analysis-patterns-for-multi-dimensional-data/

图11:多维数据普适分析的一个实例

从科学研究探索到商业智能分析,在知识发现和决策自动化的过程中,我们常面对一个关键问题:对多维数据集(表格)进行分析时,大家通常如何从中提取出信息?譬如图11中的销售数据(有日期、区域、销售代表、销售额四个维度),大多数分析师会进行哪些常见的分析呢?对此,本篇论文提出了 Table2Analysis 框架,从大量 Excel 用户创建的(表格、分析)例子中学习普适的分析模式,并基于此对新的表格推荐语义上常见的数据分析。

Table2Analysis 是一个 table-to-sequence 的框架。首先我们定义了一种分析语言,将数据分析过程编码为一系列的操作符,每个操作符可以是预定义的分析操作(如开始分析的一个部分、选定聚合函数等),也可以是选择数据表格中的一个维度。举例来说,“sum of sales by region”可以被表示成 [ANA][Sales][SEP][Region][Sum]。在分析语言的基础上,推荐常见分析则可被抽象为:给定一个表格,生成由这个表格中的维度组成的操作符序列。

图12:模型框架

要生成分析操作符序列,在 Table2Analysis 框架中我们采取了逐步一个个生成的方式,通过从大量用户创建的(表格、分析)对中学到的语言模型(也即图12中的动作值函数)来作为下一步选择的启发函数。但这种方式存在很多挑战:输入的操作符可能来自任何表格,有无限种可能性;简单 seq2seq 的训练方法在实际推断时的曝光偏差;因为对操作符序列的严格语法要求,无法直接使用传统自然语言处理中的很多模型和训练方法……对此,我们对神经网络的输入层进行了设计,并采用并行搜索采样的方法来减少曝光偏差。

在我们收集的一个大型表格数据集上,Table2Analysis 对数据透视表(PivotTable)推荐的召回率在 top-5 达到了0.78,top-1 也有0.65。这验证了 Table2Analysis 框架的有效性。

用于神经机器翻译的转导集成学习

Transductive Ensemble Learning for Neural Machine Translation

论文链接:https://www.msra.cn/wp-content/uploads/2020/01/Transductive-Ensemble-Learning-for-Neural-Machine-Translation.pdf

集成学习(Ensemble learning)利用多个不同的模型,在测试阶段用投票的方式对样本进行判别。然而,我们观察到,在神经机器翻译(NMT)的任务中,当参加测试的模型的准确率很高时,集成学习将不会对最终结果带来显著提升。类似的现象在相关文献也有所体现。因此,如何将多个强 NMT 模型集成起来得到更好的测试效果,是本篇论文研究的课题。我们提出了传导集成学习模型(Transductive Ensemble Learning,简记为 TEL),能够通过训练的方法,将多个强 NMT 模型集成到一个模型中,得到更好的测试效果。我们在 WMT 英语-德语翻译和英语-芬兰语翻译上验证了我们算法有效性。特别地,我们在 WMT’16-WMT’18 英德翻译任务上取得了当前最佳的效果。

在 TEL 模型中,我们将两个语言空间记成 X 和 Y,将训练集、验证集和测试集记成 D_train={(x_i,y_i)}_(i=1)^(N_tr), D_valid={(x ̅_i,y ̅_i)}_(i=1)^(N_val), D_test={x_j^* }_(j=1)^(N_test)。注意我们可以得到测试集的输入,但没有对应的标签。具体过程如下:

(A) 我们首先要在 D_train 上训练,得到 K 个不同的模型。利用不同的随机种子即可。将得到的模型记做 f_1,f_2,⋯,f_K 。

(B) 将验证集和测试集中的样本利用上述 K 个模型进行翻译:D_v={(x,f_k (x))|x∈D_valid,k∈[K]}, D_t={(x,f_k (x))|x∈D_test,k∈[K]}。

(C)在 D_v∪D_t 上微调: -min∑_((x,y)∈D_v∪D_t) logP(y│x;f_0) 中 f_0 可以从 f_1,f_2,⋯,f_K 中任选一个作为初始化模型。当模型在验证集上取得最佳效果时,训练停止。

首先,我们在有标数据和利用 back-translation 做了数据增强的两组设置下得到了如图13所示的实验结果。结果表明,我们的算法 TEL 在不同的设置下都能够取得一定的提高。

图13: TEL 在 WMT 英语-德语翻译和英语-芬兰语翻译上的实验结果

最后,我们使用了更大规模的无标数据,在 WMT 英德互译上取得了如下结果:

图14:TEL 算法在 WMT 英德互译上的实验结果

通过大量实验,我们发现:(1)TEL 算法可以提升很强的基准 NMT 模型;(2)TEL 算法对 K 值具有鲁棒性;(3)即使只有部分测试集的输入,TEL 算法仍然能够取得一定翻译效果的提高。详细内容请参考论文。

自我爱计算机视觉公众号后台回复“MSRA20论文”,即可下载微软亚洲研究院全部录取论文。


Paper交流群

关注最新最前沿的CV 论文,扫码添加CV君拉你入群,(如已为CV君其他账号好友请直接私信)

(请务必注明:paper)

喜欢在QQ交流的童鞋,可以加52CV官方QQ群:805388940。

(不会时时在线,如果没能及时通过验证还请见谅)


长按关注我爱计算机视觉

AAAI 2020 | 微软亚洲研究院6篇精选论文在家看相关推荐

  1. CVPR 2019 | 微软亚洲研究院 7 篇精选论文解读

    点击我爱计算机视觉标星,更快获取CVML新技术 编者按:计算机视觉顶会CVPR 2019于6月15-21日在加州长滩举行.微软亚洲研究院共有21篇论文入选本届CVPR,覆盖了姿态估计.对象检测.目标跟 ...

  2. NeurlPS 2019丨微软亚洲研究院 5 篇精选论文解读

    点击我爱计算机视觉标星,更快获取CVML新技术 编者按:NeurlPS 2019 正于12月8-14日在加拿大温哥华举行.微软亚洲研究院有11篇论文入选本届 NeurlPS,内容涵盖社交网络影响力最大 ...

  3. NeurIPS 2020 | 微软亚洲研究院论文摘录之强化学习GAN篇

    编者按:12月6日至12日,国际人工智能顶级会议 NeurIPS 2020 在线上举办.相比前几年,NeurIPS2020 无论是论文的投稿数量还是接收率都创下了记录:论文投稿数量创历史最高记录,相比 ...

  4. NeurIPS 2020 | 微软亚洲研究院论文摘录之目标检测篇

    编者按:12月6日至12日,国际人工智能顶级会议 NeurIPS 2020(Conference and Workshop on Neural Information Processing Syste ...

  5. ECCV 2020 | 微软亚洲研究院精选论文摘录

    编者按:ECCV(European Conference on Computer Vision)是计算机视觉领域的三大顶会之一.今年的 ECCV 大会于8月23日至28日在线上举行.微软亚洲研究院在本 ...

  6. AAAI 2020放榜,8800篇提交论文创纪录,接收率20.6%

    机器之心报道 参与:李亚洲.泽南 一觉醒来,朋友圈刷屏的不只有双十一,AAAI 2020 大会也终于放榜了:在今年多达 8800 篇提交论文中,最终录取的数量为 1591 篇,接收率 20.6%,竞争 ...

  7. ICLR 2020丨微软亚洲研究院精选论文解读

    编者按:在全球疫情影响之下,原计划首次在非洲举行的国际 AI 学术会议 ICLR 2020 将成为第一届完全通过网络远程举行的 ICLR 会议.本文为大家介绍的4篇微软亚洲研究院精选论文分别研究了 B ...

  8. CVPR 2020丨微软亚洲研究院精选论文一览

    编者按:本文汇总了部分微软亚洲研究院CVPR2020精选论文,涵盖姿态估计.动作检测与识别.分割与检测.底层视觉等领域. 01 HigherHRNet: 自下而上姿态估计中的多尺度表征学习 Highe ...

  9. 系统调研450篇文献,微软亚洲研究院推出超详尽语音合成综述

    (本文阅读时间:10 分钟) 编者按:语音合成一直以来是语言.语音.深度学习及人工智能等领域的热门研究方向,受到了学术界和工业界广泛的关注.尽管语音合成技术的研究已有几十年的历史,基于神经网络的语音合 ...

最新文章

  1. MySQL SELECT同时UPDATE同一张表
  2. Python程序打包exe文件(pyinstaller)
  3. MyBatis中大于和小于号的转义写法
  4. 试除法判定质数、试除法分解质因数(附例题)
  5. linux手机刷机包制作工具_安卓10刷机包
  6. 堆的实现(大量注释)
  7. 格式工厂高清视频转换参数设置
  8. es修改排序_ElasticSearch自定义排序(转载)
  9. E. Thematic Contests(离散化+排序+二分)Codeforces Round #521 (Div. 3)
  10. GitHub注册教程(图文详解)
  11. 西门子1500和300哪个贵_西门子s71500与s7300的区别
  12. PIC16F877A单片机 (中断与定时器Timer1)
  13. java8实战:使用流收集数据之toList、joining、groupBy(多字段分组)(1)
  14. 【游戏】Pes2021补丁
  15. fluent python 2nd edition_Fluent Python: Slice
  16. 人力资本、人均受教育年限,受高等教育人数比重(1997-2020)
  17. windows 安装包管理器scoop
  18. spring定时器触发时间表达式规则
  19. iview+时间选择器+禁止选择事件
  20. matlab数据处理之批量解方程

热门文章

  1. MyBatis框架 注解
  2. 大工17秋《计算机文化基础》在线测试1,大工18秋《计算机文化基础》在线测试1(满分题).doc...
  3. linux cordova安装教程,mac怎么安装cordova?
  4. 净水器怎么放_今日头条 | 如何清洗净水器的陶瓷滤芯,要不要来学一下!
  5. linux软件卸载不了,linux软件卸载
  6. php 转化js数组字符串,js数组怎么转为字符串
  7. python自动化读取和写入文件_基于Python的接口自动化实战-基础篇之读写配置文件...
  8. 2020蓝天杯论文评比系统_教师写作:专业表达的快乐旅行 2020梅小暑期教师教育论文、教育随笔、读书心得评比结果...
  9. 服务器版Windows7系统,windows7服务器版本
  10. python皮同_皮同 - 雷克·莱尔顿中文维基 - 灰机wiki