论文解读:Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction
论文解读:Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction (2019ACL)
在文本上进行QA也别称为机器阅读理解。本文关注的是可解释的多跳QA,其需要系统能够同时返回答案以及相关依据句子。本文提出QFE模型用于对evidence进行抽取,并采用多任务学习进行训练。相比现有的方法,我们并不是独立地抽取evidence sentence,而是使用RNN和注意力机制进行抽取,这使得QFE可以考虑到不同的evidence sentence之间的关系以及与question重要相关的信息。
一、动机
多跳QA(Multi-hop QA)有两个挑战,分别是难以推理、以及可解释性差。
- 难以推理:需要从多个离散的文本中寻找证据并进行推理非常困难;
- 可解释性:用于推理的证据不一定位于答案附近,因此用户很难验证答案。
另外很难抽取到evidence,因为一般question本身可能没有用提供相关线索。另外evidence之间可能存在依赖。例如evidence2是依赖于evidence1才发现的。
二、贡献
本文提出Query-Focused Extractor (QFE)模型。QFE考虑到不同evidence sentence之间的相关性,采用RNN+attention完成evidence extraction。
另外采用多任务学习进行训练,QA模块用于answer selection,QFE模块用于evidence extraction。模型架构如下所示:
Embedding Layer
模型输入context(包含多个text,长度若超过2000则truncate)和query。同时使用预训练的word embedding以及CNN表征的character embedding并拼接起来;
context layer
使用双向RNN分别对context和query进行表征;
matching layer
使用一层双向attention捕捉context与query之间的interaction信息;最后使用残差;
evidence layer
将上一层的输出先过一层双向RNN,然后喂入QFE模块中。其中X表示context vector,Y=Q表示query vector,输出得到第i个句子是evidence的概率。将evidence layer 经过双向RNN编码后的向量与输入的向量拼接,喂入下一层;
answer layer
该层用于预测三个输出,分别是answer type、answer string以及evidence。分别堆叠三层RNN和softmax。
三、任务定义
四、QFE模块
该模块输入的是context( X X X)和query( Y Y Y)的sentence-level vectors 。
在第t时刻,对于X的每一个sentence X i X_{i} Xi,喂入到RNN中,然后计算该sentence属于evidence的概率:
在当前第 t t t 时刻,将概率最大的句子抽取出作为evidence,其下标记做:
然后喂入RNN中更新:
RNN更新若干轮后得到evidence集合 E t = { e 1 , . . . , e t } E^t = \{e^1, ..., e^t\} Et={e1,...,et}。
损失函数包括两个部分: L = L A + L B L = L_A + L_B L=LA+LB, 前者为交叉信息熵,用于answer prediction;后者为QFE的损失,记做:
论文解读:Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction相关推荐
- 【论文阅读】Answering while Summarizing Multi-task Learning for Multi-hop QA with Evidence Extraction
Answering while Summarizing: Multi-task Learning for Multi-hop QA with Evidence Extraction 论文:https: ...
- Multi task learning多任务学习背景简介
2020-06-16 23:22:33 本篇文章将介绍在机器学习中效果比较好的一种模式,多任务学习(Multi task Learning,MTL).已经有一篇机器之心翻译的很好的博文介绍多任务学习了 ...
- 论文解读:Factual Probing Is [MASK]: Learning vs. Learning to Recall
论文解读:Factual Probing Is [MASK]: Learning vs. Learning to Recall 先前一系列Prompt方法基于搜索策略获得Prompt的templa ...
- Multi Task Learning在工业界如何更胜一筹
摘要: 本文主要介绍多任务学习和单任务学习的对比优势以及在工业界的一些使用.如何从单任务学习转变为多任务学习?怎样使AUC和预估的准确率达到最佳?如何对实时性要求较高的在线应用更加友好?本文将以淘宝实 ...
- 【论文解读】Attributed Network Embedding for Learning in a Dynamic Environment
Attributed Network Embedding for Learning in a Dynamic Environment 在2017年发表于CIKM 提出了DANE,一种将网络拓扑与节点特 ...
- 论文解读9——TabNet: Attentive Interpretable Tabular Learning
目录 1.文章贡献 2.决策流型 3.TabNet模型结构 好久没有更读论文的总结了,中途有几篇读了还没来得及记录,开学杂事一多竟然已经过了一个多月了--好吧其实就是自己懒,时间挤挤还是有的. 下面就 ...
- 【论文解读】DLDL: Deep Label Distribution Learning With Label Ambiguity(年龄估计)
1. 介绍 论文地址:https://arxiv.org/pdf/1611.01731v2.pdf 代码:https://github.com/gaobb/DLDL 针对问题:年龄估计 (1)缺乏精确 ...
- 论文解读--Raw High-Definition Radar for Multi-Task Learning
图1.我们的RADIal数据集的概述.RADIal包括3个传感器(相机.激光扫描仪.高清雷达),配备GPS和车辆CAN跟踪:25k同步样本为原始格式.(a)摄像头图像,红色投影激光点云,靛蓝色标注雷达 ...
- 阿里AAAI2018论文解读:轻量网络训练框架、GAN中文命名实体识别、英俄翻译等...
1. 火箭发射:一种有效的轻量网络训练框架<Rocket Launching: A Universal and Efficient Framework for Training Well-per ...
最新文章
- elasticsearch 安装
- response 流和写能一起吗_2133和2400能一起用吗
- C# 集合类(四):Hashtable
- Redis随笔Jedis、jedisCluster的使用
- 书评:Mockito Essentials
- 高计能计算要实现软着陆
- VS Code 自动保存 码格式化
- html支持的脚本语言,能不能让日志内容在支持html语言的同时支持一下脚本语言,拜托!拜托!...
- 自定义的网页加密与解密
- ubuntu16.04使用sudo apt-get autoremove导致系统崩溃的解决办法
- OPPO Reno7/Reno7 Pro今天开售:首发IMX709超感光猫眼镜头
- Redis 在 MySql 中的优化历程
- cesium 计算两点之间的距离
- S3E:用于协作SLAM的大规模多模态数据集
- 麻省理工大学计算机中心,Massachusetts Institute of Technology 麻省理工大学
- 每天过得很焦虑怎么办?尤其是职场焦虑。
- ACP知识域四---团队绩效
- win10彻底关闭windows defender,解决无故占用大量CPU问题
- 使用C#快速创建KML文件或读取其功能
- 单片机控制秒表C语言程序,89C51单片机秒表的设计(全文完整版)