引言

点击下面卡片关注我呀,每天给你送来AI技术干货!

来自:复旦DISC

目前在各种推理任务中,预训练模型都取得了不错的效果,展现了一定的隐式推理能力,然而大多数工作的推理过程还是不透明的。如何对问题进行显式推理,为每一步推理预测提供可解释性依据越来越受关注。

本次Fudan DISC实验室将分享两篇EMNLP 2020以及一篇ICLR 2021论文,来介绍一些关于可解释性推理的方向和尝试。

文章概览

  • PROVER: 基于规则的可解释性推理的证明生成

PROVER: Proof Generation for Interpretable Reasoning over Rules

论文地址:

https://www.aclweb.org/anthology/2020.emnlp-main.9.pdf

该篇文章针对基于自然语言规则库的推理问题,模拟了形式定理证明器,提出了一个基于Transformer的可解释模型,在回答问题的同时生成相应的证明图。

  • 知识感知问答的可扩展性多跳关系推理模型

Scalable Multi-Hop Relational Reasoning for Knowledge-Aware Question Answering

论文地址:

https://www.aclweb.org/anthology/2020.emnlp-main.99

该篇文章关注于基于知识图谱的问答,提出了一个multi-hop graph relation network(MHGRN)模型,将基于路径的推理方法与图神经网络相结合,同时具有更好的可解释性和可扩展性。

  • RNNLogic: 学习知识图谱推理中的逻辑规则

RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs

论文地址:

https://openreview.net/pdf?id=tGZu6DlbreV

逻辑规则可以为模型预测提供可解释性,该篇文章为学习知识图谱推理中的逻辑规则,提出了RNNLogic模型,将逻辑规则视为潜在变量,同时用逻辑规则训练规则生成器和推理预测器,并基于EM算法优化。

论文细节

1

论文动机

在基于自然语言规则库的推理任务中,Transformer可以充当“软定理证明者”,以高准确率预测出答案。但是一个可靠的自然语言推理模型,还应该同时生成相应的证明,为预测的答案提供可解释性依据。

因此文章提出了PROVER,一个基于transformer的模型,在回答基于自然语言规则库的问题同时还生成对应证明图。

证明表示

一条证明是一个有向图










P=(N,E), 其中






n∈N是节点,






ϵ∈E是边,每个节点可能是一条事实 






f∈F,一条规则






r∈R或者一个特殊节点






NAF(用来表示否定和失败),每条边的方向可能是从事实(或者






NAF)连接规则或者一条规则连接另一条规则。如下图,展示了两个规则库,以及基于规则提出的问题答案和对应的证明图。

模型

PROVER模型基于RoBERTa,包含三个模块,分别是问答(QA)模块、节点(Node)模块和边(Edge)模块,具体结构如下图。

1. QA模块

在QA模块中,为预测问题的二元答案,将context




和question




串联起来输入到RoBERTa中,其中context是由所有的事实和规则构成


















,具体输入公式如下:

基于








的表示加了一个QA分类层,计算得到每个答案类别的概率。

2. Node模块

Node模块用于预测哪些事实和规则是当前证明图的一部分。首先对每个事实或规则节点的所有tokens表示做一个mean pooling操作,得到每个节点的表示,






的表示通过对








表示线性转化得到。对每个节点表示通过一个节点分类器,判断当前节点是否在证明图中。

3. Edge模块

Edge模块用于预测两个节点之间是否存在边以及边的方向。节点

















之间的边表示为,其中


























是方向向量。对每一条边的表示通过一个边分类器,判断当前边是否存在于证明图中。

4. 整数线性规划推导

证明图的生成存在一些全局限制,基于这些限制,我们可以将问题形式化成整数线性规划问题。比如证明图是一个连通图,则从源节点到目标节点存在一个最大流总和为






;只有存在于证明图中的节点之前才可能存在边;边的方向都是从事实节点或者规则节点或者






到规则节点。最终边的预测问题可以被定义成如下优化问题:

其中













表示边






存在于图中的概率(通过Edge模块计算得到),













是我们优化的0/1变量,表示边






是否是证明图的一部分。

实验

模型分别在DU0-DU5, Birds-Electricity, ParaRules数据集上都进行了自动评估,比较了答案准确率,节点准确率,边准确率,证明准确率以及全部准确率。

模型在所有的数据集上都取得了和RuleTaker相当的QA表现,并且同时生成了可解释的证明。其中Birds-Electricity显示了模型的迁移能力能力,并且QA也得到了较大提升,ParaRules显示了模型在较为复杂的人工标注数据上也可以取得不错效果。

文章还对模型在不同推理深度的数据上训练的泛化能力进行了评估,如下图。

可以看出即便在推理深度为0的数据上训练,PROVER也有着较强的泛化能力,能够回答很大一部分推理深度最大为5的问题。

最后文章还评估了不同训练数据的规模对PROVER模型的影响,可以看出,在仅需要40%的训练数据时, PROVER就可以达到几乎完美的QA准确率。

2

论文动机

需要多跳推理的知识图谱问答,通常有有两大类方法:

  • 知识图谱中的关系路径自然地为答案提供证据,可以帮助提高模型的推理能力和可解释性,因此一类方法是直接建模这些关系路径,如KagNet和MH-PGM用序列模型对提取的关系路径进行编码,从而使多跳关系得到显式建模。然而这些模型很难扩展,因为图中可能的路径数是节点数的多项式级别,是路径长度的指数级别。

  • 另一类方法是图神经网络,其消息传递范式具有更好的可伸缩性,但这些模型没有区分不同邻居或关系类型的重要性,因此无法为模型行为解释提供明确的关系路径,缺乏透明度和可解释性。

为结合基于路径模型的解释性与GNN的扩展性,本文提出了多跳图关系网络(MHGRN),保留消息传递范式的同时将结构化的关系注意机制引入到消息传递路径的建模中。具体是在单层内执行多跳消息传递,以允许每个节点直接连接其多跳邻居,从而实现多跳关系推理。

模型

文章采取多选题任务,如下图,给定一个外部知识图和一个问题




,抽取问题相关子图






,分别对文本和图进行编码,从而计算每个答案的合理性得分。

整个多跳图关系网络(MHGRN)框架结构如下:

为了让模型知道节点类型(问题节点、答案节点、其他节点),首先对所有节点表示做一个类型特定线性转换,得到







之后对图做多跳消息传递,直接对最大长度为




的路径建模。




跳关系有效路径定义以及在上面的




-hop消息传递如下。

其中不同路径的注意力权重可以看作一个关系序列的概率,可以通过概率图模型如条件随机场计算。

通过把




-hop分解成单跳关系和两跳关系建模。

可解释性

在推导的阶段,对于模型的预测,可以解码出对应推理路径作为依据:将合理性得分最高的选项作为答案







,然后找到连接答案的分数最高的路径的长度







,最后找到所有长度为







中注意力得分最高的路径,作为答案的推理路径。

实验

本文将ConceptNet作为外部知识图谱,参考KagNet预处理。模型在CommonsenseQA, OpenBookQA数据集上进行了自动评估,都取得了同等参数规模的模型中最优表现。

文章分析了跳数




对模型性能的影响,下图显示当






时,性能开始下降,这可能是由于长关系路径的指数噪音。

文章还进一步分析了模型的可扩展性,可以看出,MHGRN的时间只是RGCN的两倍,是与K相关的线性时间。

最后文章还列举出了两个问题的推理路径,可以看出这些路径很好的为答案预测提供了解释。

3

论文动机

知识图谱推理任务中,通常都会通过学习如下的逻辑规则来提供可解释的依据。

之前的工作大致分为两类:

  • 枚举所有的关系路径作为候选逻辑规则,对每一条学习一个权重,这种方法往往搜索空间太大;

  • 将逻辑规则的学习看作一个序列决策过程,并使用强化学习来生成,这种方法的弊端是reward非常稀疏导致优化无效。

本文中提出RNNLogic,将逻辑规则视为潜在变量,并同时使用逻辑规则训练规则生成器和推理预测器,并基于EM算法优化。

模型

逻辑规则是




个关系的合取形式,将可以解释一个问题的所有逻辑规则集合看作一个隐式变量




,整个任务框架如下图,包含一个规则生成器和一个推理预测器,并通过EM算法优化规则生成器。

规则生成器

在生成逻辑规则是,为了规则在不同实体上的泛化性,只考虑路径中的关系而不考虑实体。通过RNN来生成一条规则(一个关系序列),




个规则的生成概率则可以看作是一个多项式分布。

推理预测器

文章采用一个log-linear模型用来推理,如下图,每个候选答案被推理出来的得分由所有的规则和路径得分得到。这里路径的得分采取两种设置:(1)所有路径得分都为1;(2)按照RotatE的思路,计算路径推导出来的尾实体表示和实际表示之间的相似度作为得分。

最后得

EM算法

RNNLogic是基于EM的算法的。在每次迭代中,都会更新推理预测器以探索一些生成的逻辑规则进行推理。然后在E-step中,通过后验推理从所有生成的规则中选择一组高质量规则。然后在M-step中,使用在E-step中选择的规则更新规则生成器。

实验

模型在FB15k237, WN18RR, Kinship, UMLS数据集上进行了自动评估,对于每一个三元组










, 都构造两个问题:



























,模型在所有数据集上都几乎取得了最优表现,同时可以看出推理预测器中给每条路径根据embedding打分的效果更好。

文章通过比较不同模型学习出来的相同数目逻辑规则,对于答案推理的影响,分析了学习的逻辑规则的质量,RNNLogic在学习相同数目的逻辑规则时表现最好,表明了RNNLogic学习的逻辑规则质量最高。

文章还比较了训练数据规模对模型效果的影响,可以看出RNNLogic对于数据稀疏更鲁棒。

最后,文章还列举出了一些在推理中生成的逻辑规则,都为推理过程提供了较好的可解释性依据。

总结

本次分享的三篇文章都尝试在推理任务中将中间步骤的推理路径显式的学习出来,具体表现为证明、关系路径以及逻辑规则,为推理预测提供一定的可解释性依据,同时也可以为错误预测找到出错的原因。当然在学习可解释性依据的同时,更需要考虑如何使用他们进一步帮助推理预测。

供稿丨王思远编辑丨邹瑞祥责编丨李志伟


供稿人:王思远丨研究生三年级丨研究方向:基于文本的问题生成、知识建模丨邮箱:wangsy18@fudan.edu.cn

说个正事哈

由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方深度学习自然语言处理”,进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心

投稿或交流学习,备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

记得备注呦

点击上面卡片,关注我呀,每天推送AI技术干货~

整理不易,还望给个在看!

EMNLP 2020 可解释性推理相关推荐

  1. 速览EMNLP 2020上录取的知识图谱相关论文

    文 | 泽宇 源 | 知乎 前不久,自然语言处理领域三大顶会之一的 EMNLP 2020 发布了论文录取的结果.在EMNLP 2020论文正式出版之前,泽宇搜集了目前Arxiv上已经发布出来的录取在E ...

  2. 本周阅读清单:从NeurIPS 2020到EMNLP 2020

    在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考.在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果.如果你也希望让自己的科研成果被更多人看到, ...

  3. 文档级关系抽取方法,EMNLP 2020 paper

    向AI转型的程序员都关注了这个号???????????? 人工智能大数据与深度学习  公众号:datayx 目前大多数关系抽取方法抽取单个实体对在某个句子内反映的关系,在实践中受到不可避免的限制:在真 ...

  4. 论文笔记 EMNLP 2020|Event Extraction by Answering (Almost) Natural Questions

    文章目录 1 简介 1.1 动机 1.2 创新 2 方法 3 实验 1 简介 论文题目:Event Extraction by Answering (Almost) Natural Questions ...

  5. EMNLP 2020论文分析:知识图谱增强语言模型或是未来的发展趋势!

    在EMNLP 2020的论文投递中,知识图谱的研究热度不减,并成为继续推动NLP发展的重要动力之一. 在EMNLP 2020中,知识图谱领域有了哪些最新研究进展呢?作者从中选出了30篇文章,对未来2- ...

  6. EMNLP 2020 | Facebook稠密向量召回方案

    0. 背景 机构: Facebook AI.华盛顿大学.普林斯顿大学 作者: Vladimir Karpukhin, Barlas Oğuz, Sewon Min, Patrick Lewis, Le ...

  7. 就算是戴上口罩,AI也知道你在说什么丨EMNLP 2020最佳论文

    萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI 吃饭的时候,想要和对面聊聊天,然而周遭嘈杂的声音,让你根本不知道ta在说什么? 又或者,想与听障人士交流,然而对方听不见你的声音? 现在,检 ...

  8. 拯救“没常识”的GPT-3得靠它了,交大ACM班校友提出“Voken” 无监督学习 | EMNLP 2020...

    晓查 发自 凹非寺  量子位 报道 | 公众号 QbitAI 纵使地表最强语言模型GPT-3学习了30亿个单词的英文维基百科,但是依然会犯低级错误. 如果你问它:太阳有几只眼睛? GPT-3会说&qu ...

  9. EMNLP 2020 | 基于Wasserstein距离的正则化序列表示

    ©PaperWeekly 原创 · 作者|金金 单位|阿里巴巴研究实习生 研究方向|推荐系统 论文标题: Wasserstein Distance Regularized Sequence Repre ...

  10. 直播 | EMNLP 2020:用语义分割的思路解决不完整话语重写任务

    「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果.我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和 ...

最新文章

  1. origin9语言设置中文_英雄联盟手游怎么设置繁体 LOL手游繁中设置方法?_英雄联盟手游...
  2. java中自定义比较器_Java中的比较器:自定义规则!!!
  3. Windows Mobile Incoming Call View Custom
  4. synchronized的一些记录
  5. 第八十一期:Java性能优化:35个小细节,提升你的Java代码运行效率
  6. 新建一个同名域能不能替换原域_能不能挣钱,从你最早设计猪场就已经决定了!...
  7. 【转载】中国小吃(英文表达)
  8. 【技术解读】大赛TOP团队方案技巧大揭秘!
  9. 2019年三峡大学计算机考研名单,三峡大学2019硕士研究生复试录取方案
  10. 在Winform开发框架中实现对数据库的加密支持(转)
  11. idea导入java项目步骤_idea导入javaweb项目
  12. 【优雅解决】:换源后 sudo apt-get update 出现 N: Updating from such a repository can't be done securely……
  13. 解决加载libqxcb.so失败以及Linux库搜索顺序
  14. 深入理解Linux电源管理(0.2)
  15. 计算机论文的字体要求,关于计算机硕士论文格式要求 论文字体格式
  16. ‘在路上’问卷调查结果与分析
  17. OpenCV4探索学习:OpenCV-4.1.0 Samples官方示例说明
  18. 百度对site语法的几种情况
  19. 导致堆栈溢出的原因什么?
  20. VC++ 文件读写总结

热门文章

  1. java设计模式-工厂系列
  2. HtmlCleaner CleanerProperties 参数配置(转自macken博客,链接:http://macken.iteye.com/blog/1579809)...
  3. python urllib编码
  4. 用 Javascript 验证表单(form)中多选框(checkbox)值
  5. 20190906 On Java8 第十八章 字符串
  6. HTML网页随笔笔记
  7. C++模板类之pair
  8. IOS之Objective-C学习 工厂模式
  9. ios中怎么样调节占位文字与字体大小在同一高度
  10. android多媒体学习笔记三___图像合成