笔记整理 | 陈卓,浙江大学计算机科学与技术系,博士研究生

研究方向 | 知识图谱,图神经网络,多模态


论文链接:https://www.aclweb.org/anthology/2020.emnlp-main.583.pdf

发表会议:EMNLP 2020

背景提要

抽取式阅读理解,指的是要求机器在阅读一段文本后,来回答一个问题。而回答这个问题的答案来自原文中的一段连续的序列(也就是连续的几个词)。

其中的多跳推理,近年来引起了关注。ACL2019的一篇论文提出用图的方法解该问题,使用动态图网络建模实体之间的联系。

具体思路如下:

其中的共现关系按如下表示:

  • 对与同一个句子中同时出现的实体间建立边的连接。

  • 对于同样的实体在Context中出现多次,则他们直接有边的连接。eg. 如“美利坚合众国”这个实体可能在文章中被多次提及,每次出现则图中会新建一个节点,这些节点直接都是互相连接的。

  • 文章标题中出现的实体与其对应正文中的所有实体都有连接

本文思路

本文的改进主要在于检索和预训练模型两部分:

  • 使用RoBERTa large模型来计算每个问题与候选段落之间的相关性。过滤掉所有得分低于0.1的段落。且每个问题对应的最大检出段落为3

  • Encoding:把query和context拼接,送到另一个RoBERTa,再经过bi-attention

基线模型与DFGN的主要区别在于该模型以Fine-tuning的方式使用了预训练模型,最后发现简单的Fine-tuning可以把模型效果提高到另一个程度。并且在finetune的前提下图结构添加与否没有那么必要(效果提升有限)

所以猜测:图结构可能不是解决多步推理问题所必要的结构

为了进一步理解图结构,作者猜测:自注意力或者Transformer可能更加擅长处理多步推理问答任务,为此做了如下测试,同时提出如下观点:

  • 图结构会限制模型使得其只能基于实体进行推理——忽略实体之外的信息(尽管有时是噪音)

  • 邻接矩阵帮助模型忽视非邻接的节点

  • 即使没有这些先验知识,模型也可能学到这种实体到实体的注意力模式

  • 全连接图时graph-attention可以认为是self-attention的特殊形式

实验

  • 预训练模型使用Feature-based的方法

graph-attentionself-attentionTransformer(Without Graph Structure)

自注意力使用了与图注意力相同的形式,唯一的不同在于自注意力将所有的节点视作全连接的

最后发现哪怕不使用图结构,transformer也可以达到和self-attention,graph-attetion相同的效果。并且随着图的密度增大,这一过程中graph attention也没有显示出和self attention很大的差距

最后作者探讨了,预训练与transformer的方法定位预训练模型中包含基于实体的注意力的头(attention head)的可能性:

最后发现,该方法可以很好地捕捉和识别出相对于特定实体的其他概念注意力(四种情况,而后三种情况是graph方法所做不到的)

总结

  • 适当使用预训练的模型,多跳推理某些情况下可能不需要图结构

  • 图结构在某些情况下也是对于任务的一种制约/限制

  • 邻接矩阵和图结构可以看作是某种与任务相关的先验知识

  • 一些情况下graph attention和graph structure都可以被self-attention所代替

  • 图上的mask可以控制信息在图上传播的路径


OpenKG

开放知识图谱(简称 OpenKG)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 网站。

论文浅尝 - EMNLP2020 | 图结构对于多跳问答而言必要吗?相关推荐

  1. ###好好好#######论文浅尝 | 基于图注意力的常识对话生成

    论文浅尝 | 基于图注意力的常识对话生成 OpenKG 祝各位读者新春快乐,猪年吉祥! 来源:IJCAI 2018. 论文下载地址:https://www.ijcai.org/proceedings/ ...

  2. 论文浅尝 - EMNLP2020 | ConceptBert:视觉问题回答的概念感知表示

    笔记整理 | 陈卓,浙江大学计算机科学与技术系,博士研究生 研究方向 | 知识图谱/图神经网络/多模态 论文链接:https://www.aclweb.org/anthology/2020.findi ...

  3. 论文浅尝 | 基于图卷积网络的跨语言图谱实体对齐

    论文笔记整理:谭亦鸣,东南大学博士生,研究兴趣:知识图谱问答 本文提出了一种基于图卷积网络的跨语言实体对齐方法,通过设计一种属性 embedding 用于 GCN 的训练,发现GCN能同时学习到特征 ...

  4. 论文浅尝 | 具有图卷积网络和顺序注意力机制的应用于目标导向的对话系统

    论文笔记整理:吴涵,天津大学硕士,研究方向:自然语言处理. 来源:2019 Association for Computational Linguistics 论文链接:https://www.mit ...

  5. 论文浅尝 - EMNLP2020 | 基于规则引导的协作 agent 知识图谱推理学习

    论文笔记整理:叶橄强,浙江大学在读硕士,研究方向为知识图谱的表示学习和预训练. 来源:EMNLP 2020 现有的大多数基于行走的模型通过在提供可解释的决策的同时获得良好的性能,在知识图谱推理中显示出 ...

  6. 论文浅尝 - EMNLP2020 | 跨媒体关键词预测: 多模态多头注意力和图像文本的统一框架...

    论文笔记整理:柏超宇,东南大学硕士. 文章链接:https://arxiv.org/pdf/2011.01565.pdf 来源:EMNLP 2020 动机 社交媒体每天都会产生大量的内容.为了帮助用户 ...

  7. 论文浅尝 | 实体图的预览表格生成

    链接:ranger.uta.edu/~cli/pubs/2016/tabview-sigmod16-yan.pdf 动机 对于结构化数据和关系数据,通常使用Schema图为数据库的使用者提供基本信息. ...

  8. 论文浅尝 - EMNLP2020 | 通过词重排序跨语言解析

    笔记整理 | 吴林娟,天津大学硕士 来源:EMNLP2020 链接:https://www.aclweb.org/anthology/2020.findings-emnlp.265.pdf 动机 依赖 ...

  9. 论文浅尝 - EMNLP2020 | 低资源跨语言实体链接中的设计挑战

    论文笔记整理:谭亦鸣,东南大学博士. 来源:EMNLP 2020 链接:https://arxiv.org/pdf/2005.00692.pdf 1.背景介绍 跨语言实体链接(XEL)旨在将任一非英语 ...

最新文章

  1. eclipse设置保护色非原创
  2. Perl文件及目录操作
  3. 类加载机制、双亲委派机制深度解析以及如何自定义类加载器
  4. sca标准值_(整理)B超数据标准值.
  5. winform响应时间最长是多少分钟_东营岩石流变仪多少钱 电液伺服加载系统_朝阳试验仪器东营岩石流变仪多少钱...
  6. Bootstrap简洁、直观、强悍的前端开发框架
  7. layui动态设置checkbox选中状态
  8. 【数学】一元函数微分(宇哥笔记)
  9. Github实用浏览器插件推荐
  10. 树莓派python编程入门与实战_树莓派Python编程入门与实战 PDF 下载
  11. 《数据库原理与应用》复习总结
  12. 一个80后神话的倒掉----郑立
  13. 从狂热的苹果粉丝们来看中国式“杯具”
  14. 与三角有关的级数求和
  15. 神奇的月食画面 超级血月出现天文迷大兴奋
  16. 2020最受欢迎主动降噪蓝牙耳机盘点,五款性能超强蓝牙耳机推荐
  17. html谷歌兼容代码,让网站变灰的css代码(支持IE、Firefox和Chrome)
  18. Google浏览器自动翻译页面怎么设置?
  19. 如何彻底粉碎电脑中的文件 防泄漏
  20. qt for android环境搭建(Linux平台)

热门文章

  1. vs 2008 Ide 设置
  2. esp32 coredump分析
  3. Android 闹钟
  4. HT68F30控制GPG96244QS1 TFT液晶屏
  5. Datawhale组队-pandas(上)基础(自学)
  6. plsql存过声明游标_plsql--游标用法
  7. plt.axis()用法详解
  8. CSS如何实现两个a标签元素的文字一个靠左一个靠右,并且能点击分别不同的链接
  9. JS面向对象——Object.defineProperty
  10. JavaScript高级之ECMASript 7、8 、9 、10 新特性