在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。如果你也希望让自己的科研成果被更多人看到,欢迎在后台回复「论文推荐」

论文速览

本期论文介绍

何恺明无监督表示学习最新工作

自然语言处理中的强化学习

基于 Transformer 的排名模型

大规模预训练模型新范式

基于对抗学习样本的对比学习

预训练语言模型鲁棒微调

基于 Kornia 的可微数据增广方法

用问答模型解决自然语言理解任务

01

无监督表示学习

论文标题Exploring Simple Siamese Representation Learning

论文作者:Xinlei Chen / Kaiming He

论文链接http://www.paperweekly.site/papers/4652

本文是何恺明关于无监督表示学习的一篇新工作,非常值得一读。本文主要针对应用非常普遍的孪生网络(Siamese Network)进行分析,以目前非常火的对比学习为例,孪生网络使用一个相同的网络处理同一个输入的两个不同表示,通过拉近两个 positive pair 的表示,拉远两个 negative pair 之间的表示,从而学习到输入中的不变性,从而更好地学习到输入的表示。而本文通过实验分析得出在孪生网络中发挥最重要作用的就是孪生网络的结构,其他一些方法的作用并没有那么大。

除此之外,作者还提出了一种“stop-gradient”的算法,该算法主要对模型的 loss 反馈时,通过梯度终止的机制,使得只更新其中一个 encoder,实现了对孪生网络中的崩溃解(collapsing)很好的避免。而且这种简单的结构能够在 ImageNet 和下游任务取得非常好的效果。为了证明这种算法的有效性,作者进行了大量的实验,充分证明该算法的优越性。而且作者还深入讨论了文中提出的算法到底在优化模型的哪些地方。方法简单,效果有效,值得认真读一下的大作。

02

NLP中的强化学习

论文标题:Learning from Human Feedback: Challenges for Real-World Reinforcement Learning in NLP

论文作者:Julia Kreutzer / Stefan Riezler / Carolin Lawrence

论文来源:NeurIPS 2020

论文链接:http://www.paperweekly.site/papers/4626

本文是谷歌和海德堡大学发表于 NeurIPS 2020 的工作。这是一篇探索性的文章,主要是针对 NLP 中的强化学习,分析了使用真实世界的 log 信息来辅助强化学习(sequence to sequence learning)存在的问题。作者认为真实世界的 NLP 系统收集了大量的与用户交互的日志信息,例如在自动翻译中,用户可以反馈翻译的质量,同时使用简单的一些操作提升翻译的质量。但考虑到线上系统的一些要求和限制,在线利用这些反馈来更新强化学习系统存在一定的问题,因此本文关注的主要是 NLP 中针对强化学习的反馈离线利用。

作者整理了几个利用这些人机交互的日志反馈来提升系统性能目前所存在的挑战,最主要有 deterministic logging 和 reliable data 问题。前者主要分析为了不将探索性的较差的结果提供给用户,RL 系统更倾向于提供最可能的结果,限制了 RL 的探索和性能。后者主要关注于数据的可信性以及可用性问题。并不是所有的反馈数据都是有效数据,因此如何决定数据的质量也是一个非常大的挑战。具体细节和特定的挑战内容可以阅读原文。这篇文章可以看作为未来利用真实交互日志进行 RL 提供了一些可能的研究方向。

03

基于Transformer的排名模型

论文标题:Modularized Transfomer-based Ranking Framework

论文作者Luyu Gao / Zhuyun Dai / Jamie Callan

论文来源:EMNLP 2020

论文链接:http://www.paperweekly.site/papers/4662

本文是 CMU 发表于 EMNLP 2020 的工作。基于 Transformer 的排名模型的最新创新推动了信息检索的最新发展。但是,这些 transformer 在计算上很昂贵,并且它们不透明的隐藏状态使其难以理解排名过程。

在这项工作中作者们将 Transformer ranker 模块化为单独的模块,以进行文本表示和交互。作者将展示该设计如何使用离线预计算表示和轻量级在线交互来显着加快排名。模块化设计也更易于解释,并为 Transformer 排名中的排名过程提供了启示。作者在大型监督排名数据集上的实验证明了 MORES 的有效性和效率。它与最先进的 BERT 排名器一样有效,并且排名速度最高可提高 120 倍。

04

大规模预训练模型新范式

论文标题:Train No Evil: Selective Masking for Task-Guided Pre-Training

论文作者:Yuxian Gu / Zhengyan Zhang / Xiaozhi Wang / Zhiyuan Liu / Maosong Sun

论文来源:EMNLP 2020

论文链接:http://www.paperweekly.site/papers/4631

代码链接:https://github.com/thunlp/SelectiveMasking

本文是清华大学刘知远老师组发表于 EMNLP 2020 的工作,这篇文章又一次说明了 Do Not Stop Pre-training 的重要性。以往使用预训练模型都是按照 pre-train+fine-tune 的范式两步走,但是 fine-tune 的时候常常因为标注的数据量不足而无法完全发挥 pre-train 模型的全部性能。

因此本文提出了一种在 pre-train 和 fine-tune 之间加入一个 Selective Masking 的预训练阶段。顾名思义,在这个新的预训练阶段中,模型会去预测那些对于模型来说重要的词。在这个阶段使用的是 in-domain 的数据,可以使预训练模型更好的适应下游任务。在两个句子分析任务上的实验结果表明,本文方法可以在计算量不到 50% 的情况下达到和原模型相当甚至更好的性能,表明本文的方法是有效的。

05

基于对抗学习样本的对比学习

论文标题:Contrastive Learning with Adversarial Examples

论文作者:Chih-Hui Ho / Nuno Vasconcelos

论文来源:NeurIPS 2020

论文链接:http://www.paperweekly.site/papers/4619

本文是 UCSD 发表于 NeurIPS 2020 的工作。该论文是关于对比学习的文章。对比学习(CL)是一种流行的视觉表征自监督学习(SSL)技术。它利用未标记训练样本对的增广来定义一个分类任务。

尽管在增强过程中做了大量的工作,但是之前的工作并没有解决如何选择具有挑战性的负片对,因为采样批中的图像是独立处理的。本文通过引入一系列新的对抗学习样本来解决这一问题,并利用这些实例定义了一种新的 SSL 对抗性训练算法 CLAE。CLAE 与文献中的许多 CL 方法兼容。实验表明,该方法提高了现有的多个 CL 基线在多个数据集上的性能。

06

预训练语言模型

论文标题:InfoBERT: Improving Robustness of Language Models from An Information Theoretic Perspective

论文作者:Boxin Wang / Shuohang Wang / Yu Cheng / Zhe Gan / Ruoxi Jia / Bo Li / Jingjing Liu

论文链接:http://www.paperweekly.site/papers/4644

本文来自 UIUC 和微软。近年来有研究表明,BERT 和 RoBERTa 之类的大规模预训练语言模型容易受到文 word-level 的对抗攻击。本文旨在从信息理论的角度解决这个问题,并提出 InfoBERT 这种全新的学习框架,用于对预训练语言模型进行微调。

InfoBERT 包含两个用于模型训练的基于互信息的正则器:1)信息 Bottleneck 正则器,用于抑制输入和特征表示之间的嘈杂的互信息;2)Anchored 特征调整器,可增加局部稳定特征和全局特征之间的相互信息。大量实验表明,InfoBERT 在自然语言推理(NLI)和问题回答(QA)任务的多个对抗性数据集上均达到了最新的鲁棒性。

07

基于Kornia的可微数据增广

论文标题:Differentiable Data Augmentation with Kornia

论文作者:Jian Shi / Edgar Riba / Dmytro Mishkin / Francesc Moreno / Anguelos Nicolaou

论文来源:NeurIPS 2020

论文链接:http://www.paperweekly.site/papers/4643

本文是香港中文大学发表于 NeurIPS 2020 的工作。该论文引入了基于 Kornia 的可微的数据增广方法并将其整合进了 PyTorch 工作流中。文章重点介绍了如何高效的实现可微的数据增广以及该方法的易用性。

08

自然语言理解

论文标题:Language Model is All You Need: Natural Language Understanding as Question Answering

论文作者:Mahdi Namazifar / Alexandros Papangelis / Gokhan Tur / Dilek Hakkani-Tür

论文链接:http://www.paperweekly.site/papers/4606

本文来自亚马逊 AI,题目起的跟 attention is all you need 类似,很吸引人。具体而言,本文研究的是 transfer learning,提出了自然语言理解的很多任务都可以使用问答模型进行解决。

这个思路有点类似于预训练模型的使用方法。首先在源域训练一个问答模型,这里的源域就是一个问答数据集,然后针对目标域的任务,作者在该文章主要考虑两个任务:第一个是 slot detection,即针对特定属性的一个问答,第二个是 intent detection,通过在句子开头加上 Yes 或者 No 将其转换为一个问答问题,这样 NLU 就转换为了 QA 问题。然后就将训练好的 QA 模型在这个 transfer 之后的目标域进行微调,从而实现效果的提升,另外作者还发现经过微调的模型,在问答上的性能也会有所提高。

除此之外,作者还提出了一个序列化的迁移学习,即不断将目标域的任务 transfer 到源域的问答上,然后一步步微调 QA 模型。

更多阅读

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

本周阅读清单:从NeurIPS 2020到EMNLP 2020相关推荐

  1. 直播 | EMNLP 2020:用语义分割的思路解决不完整话语重写任务

    「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和 ...

  2. 近期有哪些值得读的推荐系统论文?来看看这份私人阅读清单

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考.在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果. 本期「本周值得读」关注的是「推荐系统」领 ...

  3. EMNLP 2020 | 基于Wasserstein距离的正则化序列表示

    ©PaperWeekly 原创 · 作者|金金 单位|阿里巴巴研究实习生 研究方向|推荐系统 论文标题: Wasserstein Distance Regularized Sequence Repre ...

  4. 直播 | EMNLP 2020论文解读:从上下文学习还是从实体名字学习?

    「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和 ...

  5. 文档级关系抽取方法,EMNLP 2020 paper

    向AI转型的程序员都关注了这个号???????????? 人工智能大数据与深度学习  公众号:datayx 目前大多数关系抽取方法抽取单个实体对在某个句子内反映的关系,在实践中受到不可避免的限制:在真 ...

  6. 直播预告: EMNLP 2020 专场四| AI TIME PhD

    ⬆⬆⬆              点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 11月20日晚7:30-9:00 AI TIME特别邀请了3位优秀的讲者跟大家共同开启EMNLP 20 ...

  7. EMNLP 2020论文分析:知识图谱增强语言模型或是未来的发展趋势!

    在EMNLP 2020的论文投递中,知识图谱的研究热度不减,并成为继续推动NLP发展的重要动力之一. 在EMNLP 2020中,知识图谱领域有了哪些最新研究进展呢?作者从中选出了30篇文章,对未来2- ...

  8. @所有人,EMNLP 2020 干货集锦来了!

    ⬆⬆⬆              点击蓝字 关注我们 AI TIME欢迎每一位AI爱好者的加入! 2020年10月30日-12月4日,AI TIME 共邀请了23位海内外优秀讲者,与大家分享了精彩的 ...

  9. 夏季 畅快淋漓_输入以赢得我们2016年夏季阅读清单中的书

    夏季 畅快淋漓 又是夏天的阅读清单时间. 上周,Opensource.com社区的成员分享了他们今年推荐的读物 . 本周,我们将启动年度阅读清单赠品活动-五个幸运的读者将赢得他们所选择的夏季阅读清单书 ...

最新文章

  1. 当深度学习遇上图: 图神经网络的兴起 | 赠书
  2. 人生致命的8个经典问题
  3. python之socketserver实现并发
  4. Spring初学(一)
  5. 解决adb调试显示 Connected Device ************** [null]
  6. Eclipse和Tomcat绑定并且将上传资源到Tomcat上
  7. 美团服务体验平台对接业务数据的最佳实践-海盗中间件
  8. 滑动返回-SwipeBackLayout
  9. C++中this指针的用法
  10. 【三维路径规划】基于matlab无人机三维路径规划【含Matlab源码 1262期】
  11. SPSS 24安装教程详细步骤
  12. Unity2D项目案例及素材
  13. 纠错码与魔术(一)——纠错码与汉明码简介
  14. 新计算机装系统找不到鼠标,新主板装win7系统不能使用usb鼠标键盘的解决方法(完美)...
  15. echarts 地图显示(定位图标)
  16. 插值法(最邻近,双线性,双三次),图像放缩 python实现
  17. java数据结构与算法之顺序表与链表深入分析
  18. 吃青春饭的程序员的成长史
  19. 做shopify收款方式有哪些
  20. 微软最走运/倒霉的十个瞬间

热门文章

  1. 小米真蓝牙耳机说明书_媲美AirPods?小米真无线蓝牙耳机Air 2开箱
  2. 阿卡迪亚大学的计算机科学,阿卡迪亚大学计算机科学
  3. 20211江西高考成绩查询,江西高考成绩查询系统
  4. linux关于界面的API,linux系统基础知识(ABI和API)
  5. jmeter学习笔记(十三)debug调试工具
  6. 2018ICPC南京赛区网络选拔B The writing on the wall (单调栈)
  7. 关于java多态中覆盖的理解
  8. 在写移动端时,a标签或者input标签等 在手机上点击背后会有阴影的解决办法
  9. CLR Via C# 3rd 阅读摘要 -- Chapter 28 – Primitive Thread Synchronization Constructs
  10. pr如何处理音效_学视频剪辑 PR通关教学课程 教程