Improved Neural Relation Detection for Knowledge Base Question Answering
Improved Neural Relation Detection for Knowledge Base Question Answering
2017 ACL SQ78.7 WebQSP63.9
(a)一个single-relation问题,可以被一个<head-entity,relation,tail-entity>知识库元组回答。
(b)对于复杂的情况,约束需要被问题当中的多个实体处理。
知识问答系统需要解决这两个关键任务:
1)实体链接:把问题当中的n元语法,连接到知识库当中的实体
2)关系选择:确定一个问题指向知识库当中关系
KBQA Relation Prediction VS general relation dectection
1)一般的关系检测任务,目标分类通常限制在不超过100,二KBQA大于6000
2)KBQA关系检测是一种zero-shot learing task,
3)像WebQuestions这种KBQA任务,我们预测的不仅仅是一个单一的关系而是一个关系序列
方案
1)解决unseen relations问题,我们把关系名字分解成单词序列
2)注意到原始的关系名字有时候能够帮助匹配长问题内容,我们提出建立relation-level和word-level的关系表示
3)建立BiLSTMs去学习不同级别的问题表示
4)对于序列匹配,提出了一个残差学习的方法,这使模型训练更简单,结果更深的抽象表示
为了反应,提升关系决策对KBQA系统的提升,我们提出了一个简单KBQA系统的实现,由two-step的关系决策构成。
给定一个输入问题和基于问题的实体链接抽取出的候选集,我们提出的实体决策模型在KBQA处理过程当中起关键角色。
1)重新排列候选实体对象,根据关系决策模型原始问题文本是否关联到实体关系的自信程度。
这一步对于处理模糊的实体链接结果。
2)从重新排列的候选实体对象当中,对于每个topic entity selection选择一个 core relation chain。
当问题不是single relation问题的时候,这一步后面接着一个 约束决策步骤。
topic entity refers to the root of the (directed) query tree; and core-chain is the
directed path of relation from root to the answer node.
关系提取
关系提取是信息提取一个重要的子领域,在这个领域的通常工作在一个小的预先定义的关系序列,这个关系序列包含一个文本短语和两个目标实体,目标是判断这段文本是否能够表明实体间的任意一种关系。作为结果,RE通常表现为分类任务。
传统的RE方法依赖于大量手工标注的特征。最近的研究利用深度学习的优势受益很多。从word embedings 到 CNNs,LSTMs,Attention models。
KBQA系统当中的关系决策
KBQA系统当中的关系决策也从深度学习和注意力机制开始。
不同的KBQA数据集在开放域上回答问题由不同级别的需求。
例如,大多数黄金测试关系在WebQuestions中可以观察到训练过程中出现的问题,因此之前的一些工作就采用了这个任务闭域假设与一般的再研究相似。而对于简单问题这样的数据集和ParaLex,支持大关系的能力集合和看不见的关系变得更加必要。
主要有两种解决方案:(1)使用预先训练的关系嵌入(例如来自TransE)(Bordes et al., 2013)), like (Dai et al., 2016);(2)将关系名称分解为序列,并将关系检测表示为序列匹配和排序任务。这样的分解工作因为关系名称通常包含有意义的词序列。
KBQA当中的关系决策与不同的关系提取另一个区别是,普通的关系提取假设两个参数实体都是可用的。这通常能够从特征或者基于实体信息的注意力机制上获得益处。
对于KBQA上的关系决策,这种信息丢失了
1)一个问题通常包含一个单一的参数或者topic entity
2)一个知识库实体会有多个属性边
不同粒度的属性关系
以往的研究将知识库关系检测问题定义为一个序列匹配问题。然而,虽然问题是自然的单词序列,如何将关系表示为序列仍然是一个具有挑战性的问题。在这里,我们对其中两个进行概述在以前的工作中常用的关系序列表示的类型。
1)将关系名字作为一个单一的单词(relation-level)
“episodes_written”,"starring_roles"虽然含义相同,但是单词不一样
2)关系作为词序列(word-level)
该方法具有较好的泛化能力,但缺乏原始关系名的全局信息。
当只进行单词级匹配时,很难将目标关系“starring roles”与不正确的关系“plays produced”进行比较。这是因为错误的关系包含单词“play”,这与问题更相似
word-level更加关注与局部信息,relation-level更加关注于全局信息
提升知识库的关系决策
本节描述了我们的层次序列匹配与残差学习方法的关系检测。为了将问题匹配到关系的不同方面(具有不同的抽象级别),我们处理了以下三个关于学习问题/关系表示的问题。
1)通过不同的粒度表示关系
提出一个模型从word-level和relation-level来表示关系
2)问题的不同抽象表示
我们可以看到关系的不同部分可以匹配不同的题型语境。通常关系名可以匹配问题中的长短语,关系词可以匹配短短语。然而,不同的单词可能会匹配不同长度的短语。
采用双层LSTMs,每层LSTM都能获取一边问题的抽象表示。
3)关系和问题的层次匹配
entity linking sometimes becomes a bottleneck in KBQA systems
本文提出了一个HR-BiLSTM模型,用来比较Question与Relation的相似度
通过实体识别,获取候选Entity
1)Entity Re-Ranking
通过HR-BiLSTM查找与问题最相关的L个关系
候选实体e本身相关联的关系
重新评估Entity选取前个
通过关系相似度,删减候选实体
2)Relation Detection
对于候选实体e的相关的每个关系r,通过HR-BiLSTM,选取评分最高的
3)Query Generate
综合第一步和第二步的得分,产生查询
4)Constraint Detection
Sub-graph generation
Entity-linking on sub-graph nodes
Improved Neural Relation Detection for Knowledge Base Question Answering相关推荐
- 论文翻译:《Improved Neural Relation Detection for Knowledge Base Question Answering》
该论文于2017年发表在ACL,主要讲了智能问答在sq和wq两个数据集上的性能提升,本人研究生方向为这个,故翻译此论文,希望对大家有用. 论文地址:Improved Neural Relation D ...
- 论文解读:Improved Neural Relation Detection for Knowledge Base Question Answering
论文解读:Improved Neural Relation Detection for Knowledge Base Question Answering 本文解决KBQA中的子问题--Relat ...
- 论文浅尝 | Improved Neural Relation Detection for KBQA
Yu M, Yin W, Hasan K S, etal. Improved Neural Relation Detection for Knowledge Base QuestionAnswerin ...
- 论文总结之对话生成《Improving Knowledge-aware Dialogue Generation via Knowledge Base Question Answering》
11.Improving Knowledge-aware Dialogue Generation via Knowledge Base Question Answering 本篇论文是ACL最新的20 ...
- 论文笔记Improving Multi-hop Knowledge Base Question Answering by Learning Intermediate Supervision Signa
Improving Multi-hop Knowledge Base Question Answering by Learning Intermediate Supervision Signals 引 ...
- 【KBQA综述-0】Complex Knowledge Base Question Answering: A Survey
Complex Knowledge Base Question Answering: A Survey(2021年10月) 前言 这是一篇对于复杂问题KBQA领域的详细综述,其工作主要集中在以下方面: ...
- 《Knowledge Base Question Answering via Encoding of Complex Query Graphs》论文笔记
Knowledge Base Question Answering via Encoding of Complex Query Graphs 这篇文章是上交和阿里于2018年发表在ACL上,主题依然是 ...
- Knowledge Base Question Answering via Encodin of Complex Query Graphs
Knowledge Base Question Answering via Encodin of Complex Query Graphs ACL 2018 CompQ 42.84 WebQ 52.6 ...
- 论文阅读笔记:BB-KBQA: BERT-Based Knowledge Base Question Answering
论文来自 Chinese Computational Linguistics 以下笔记只记录部分内容 abstract 大多数现有的方法都是基于模板的,或者是在特定任务的数据集上进行训练的.然而,手工 ...
最新文章
- VB中DateDiff 函数解释
- VT-x,VT-d简介
- python打印小猪佩琪_极度舒适的 Python 入门教程,小猪佩奇也能学会~
- 前端学习(2970):div的scoped
- spring 自动扫包代码放置的位置问题
- 在Unity中为模型使用表情
- Python 文件(文件夹)匹配(glob模块)(转载)
- 用O(lgn)时间求出两个已排序数组的中位数
- 爆火GitHub 的十大最火 Python 项目,三天收藏突破10w+
- PQ分区魔术师调整硬盘分区大小
- python自动上传百度网盘_树莓派使用百度云盘自动上传存储监控照片
- git版本管理软件——git储藏
- 高通WLAN框架学习(17)-- NIO和PNO
- 新浪微博2020界校招笔试-算法工程师
- Linux之LVM篇
- Element UI Table表格样式调整
- 1044: 顺序栈基本操作的实现
- 如何补丁1个文件(linux diff patch)
- C++及数据结构复习笔记(十二)(列表)
- 为什么叫Windows 7?
热门文章
- 5月20-21日 | 全球C++及系统软件技术大会,30+演讲专题抢先看
- 福娃“总动员”吹响奥运“集结号”
- 5-10 公路村村通 (30分)
- JS获取字符串中某字符出现n次的下标,递归解决
- pandas 用某一列的值替换另一列的空缺值
- 表格动态增加行(JS)
- 实习日记——Day1
- 3.13 工作表行与列的转换 [原创Excel教程]
- 跟杨春娟学Spring笔记:集合装配
- iPhone8\/新iPad大量曝光,设计奇特