论文来源:2017 KDD
论文链接

    • ABSTRACT
  • INTRODUCTION
    • 背景
    • 现存模型的限制
    • 解决方案
    • 贡献
  • RELATED WORK
  • GATED RECURRENT UNIT NETWORKS
  • CONTEXT-AWARE ATTENTION NETWORK
    • Framework

ABSTRACT

  • 背景:编码器 - 解码器框架中的基于神经网络的序列到序列模型已经成功地应用于求解回答(QA)问题,预测来自陈述和问题的答案。

  • 不足:几乎所有以前的模型都没有考虑详细的上下文信息和未知状态,在这些状态下,系统没有足够的信息来回答给定的问题。在交互式答复(IQA)的选择中,包含不完整或模糊信息的情景是非常普遍的。

  • Main idea:我们开发了一个新颖的模型,采用了依赖于上下文的单词级别来更精确的语句表示和问题引导的句子级别。我们还生成独特的IQA数据集来测试我们的模型。使用这些机制,我们的模型能够准确地理解何时可以输出答案,或者何时需要根据不同的上下文为附加输入生成补充问题。在可用时,用户的反馈被编码并直接应用以更新句子级别来推断答案。

  • 实验:对QA和IQA数据集进行的大量实验定量地证明了我们的模型的有效性,与先进的传统QA模型相比显着改进。

INTRODUCTION

背景

随着大规模QA数据集,高容量机器学习/数据挖掘模型和强大的计算设备的可用性,对QA的研究已经变得活跃而富有成效。诸如谷歌助理,苹果Siri,亚马逊Alexa,Facebook M,Microso Cortana,小冰中文,日文Rinna和MedWhat等商用QA产品在过去几年已经发布。

质量保证研究的最终目标是构建能够自然与人交流的智能系统,这对自然语言处理和机器学习提出了重大挑战。

研究人员已经将编码器 - 解码器框架的序列模型的变体应用于显式存储器和QA任务,旨在移动一步进一步从机器学习到机器推理。同样,所有这些模型都使用编码器来将语句和问题映射到固定长度的特征向量,并使用解码器来生成输出。通过记忆和设置的强化,他们在几个具有挑战性的公共数据集,包括最近广受好评的Facebook bAbI数据集,取得了显着的成功。

现存模型的限制

以前的模型有以下重要限制:
- 首先,他们不能模拟语言的依赖语境的含义。不同的语言在不同的语境中可能有不同的含义,这就增加了在不同的段落中提取每个句子的基本语义逻辑流的困难。
- 其次,许多现有的模型只能在理想的QA设置中工作,并且无法解决模型需要额外的用户输入来收集完整信息以回答给定问题的不确定情况。信息不完全的情景自然会出现在人类的对话中,因此有效地处理它们是智能QA模型的关键能力。

解决方案

为了解决上面提出的挑战,我们提出了一个上下文感知网络(Context- aware A ention Network,CAN)来学习输入句子的细粒度表示,并且建立一个与用户交互的机制来全面理解一个给定的问题。

具体而言,我们使用两级应用在单词级和句子级来计算所有输入句子的表示。从输入故事中提取的上下文信息被允许影响每个单词的意义,并且控制对语句表示有贡献的单词语义。另外,当模型认为没有足够的信息来回答给定的问题时,就会创建一个交互机制来为用户生成一个补充问题。然后对用户对补充问题的反馈进行编码并利用所有输入句子结束以推断答案。我们提出的CAN模型可以被看作是一种编码器 - 解码器方法,它增强了两层结构和交互机制,使得我们的模型具有自适应性,如图1所示。

贡献

我们在本文中的贡献总结如下:

  • 我们开发了一种新的编码器 - 解码器模型,称为CAN,用于QA,具有两级结构。
  • 我们用交互机制来增强QA的编码器 - 解码器框架,以便处理用户的反馈,从而立即改变句子级别,从而在没有额外的模型训练的情况下推断最终答案。以便为IQA提供不完整或模糊信息的未知状态进行明确建模,并首先提出IQA概念来提高QA的准确性。
  • 我们基于Facebook bAbI数据集生成一个新的数据集,即ibAbI,涵盖几个具有代表性的IQA任务。
  • 我们进行了大量的实验,证明我们的方法在QA和IQA数据集上均优于最先进的模型。

RELATED WORK

最近在QA方面的工作在很大程度上取决于在编码器 - 解码器框架中对各种神经网络模型的研究和/或存储。

  • MemN2N将每个输入句子映射到一个输入表示空间,这个输入表示空间被视为一个内存组件。 输出表示是通过汇总不同输入表示的权重来计算的。单层存储器通过推理和多跳问题来扩展到多层存储器。

  • 动态内存网络(DMN)不是简单地堆叠内存层,而是通过修改的GRU来更新内存向量,其中门控权重以受监督的方式训练。

  • DMN + 在没有监督的情况下使用双向GRU对输入语句进行编码,然后利用基于语法的GRU来汇总这些输入语句。
  • 神经图灵机(NTM)是一种基于内容和基于位置的内存寻址机制的模型,近来也被用于QA任务。

    MemN2N和DMN +都不模拟上下文感知词的注意,而是使用多跳内存。且MemN2N和DMN +产生的QA​​性能对跳数非常敏感。

相反,我们提出的模型是情境感知和自适应的。它避免了多重跳转,并知道何时输出一个答案,以及何时向用户请求额外的信息。

另外,我们的IQA模型在传统的文本陈述 - 问答三联体上工作,有效地解决了传统的QA问题,不完整或模糊的信息。

GATED RECURRENT UNIT NETWORKS

门控重复单元(Gated Recurrent Unit ,GRU)是我们IQA模型的基本构建块。 GRU通过去除单元组件,并通过使用复位和更新门,在不同的时间步长内自适应地捕获依赖关系,从而提高了长时间内存(Long Short-term Memory,LSTM)的计算效率。

对于输入为xtx^t和前一个隐藏状态为ht−1h^{t-1}的每个时间步tt,我们计算更新的隐藏状态ht=GRU(ht−1,xt)h^{t}=GRU(h^{t-1},x^t):

CONTEXT-AWARE ATTENTION NETWORK

Framework

  • Question模块:问题模块将目标问题编码为向量表示。
  • Input模块:输入模块将输入的句子转换成矢量表示形式。
  • Answer模块:该基于问题和输入模块的输出生成一个答案。 与传统的QA模型不同,它有两种选择,可以立即输出答案或与用户交互以获取更多信息。 因此,如果模型缺乏基于已有知识的答案预测的充分证据,则启用了交互机制。 具体来说,模型会产生一个补充问题,用户需要提供一个反馈,用来估计一个答案。

A Context-aware Attention Network for Interactive Question Answering--阅读笔记相关推荐

  1. 【论文分享】Relation-Aware Graph Attention Network for Visual Question Answering

    分享一篇nlp领域运用注意力机制设计视觉问答系统的文章,只是对文章进行翻译以及简单的归纳. 目录 二.动机 三.方法 1.问题定义 2.模型结构 2.1 图的构建 2.2 关系编码器 2.3 多模融合 ...

  2. 论文阅读—Relation-Aware Graph Attention Network for Visual Question Answering

    论文阅读-Relation-Aware Graph Attention Network for Visual Question Answering 一.标题 用于视觉问答的关系感知图注意力网络 二.引 ...

  3. Hierarchical Graph Network for Multi-hop Question Answering 论文笔记

    Hierarchical Graph Network for Multi-hop Question Answering 论文笔记 2020 EMNLP,Microsoft 365, 这篇文章所提出的层 ...

  4. Multimodal Dual Attention Memory for Video Story Question Answering阅读笔记

    本文提出了一种视频故事问答(QA)体系结构MDAM,关键的思想是使用双重注意机制与后期融合.MDAM首先使用self - attention来学习场景帧和字幕中的潜在概念.然后根据给出的问题,使用第二 ...

  5. Coarse-Grain Fine-Grain Coattention Network for Multi-Evidence Question Answering

    ICLR 2019 Coarse-Grain Fine-Grain Coattention Network for Multi-Evidence Question Answering 背景 本篇文章所 ...

  6. 《Stacked Attention Networks for Image Question Answering》论文解读与实验

    这是去年10月份,自己看的第一篇关于VQA的论文,由于课程内容需要,对论文内容理解得还算深入,并在github上找了一些代码来实验.下面直接开始~ 1. 实验目的 完成一项视觉问答(VQA)的任务,即 ...

  7. Stacked Attention Networks for Image Question Answering(用于图像问答的堆叠注意力网络)

    Stacked Attention Networks for Image Question Answering Abstract 1.introduction 2. 相关工作 略 3.堆叠注意力网络( ...

  8. 2.阅读笔记Stacked Attention Networks for Image Question Answering(堆叠式注意力网络)

    Stacked Attention Networks for Image Question Answering(堆叠式注意力网络) 一,介绍 这篇论文提出了一种用于图像问答任务的堆叠式注意力网络SAN ...

  9. Holistic Multi-modal Memory Network for Movie Question Answering心得体会

    根据多模态情景回答问题是一个具有挑战性的问题,因为它需要对不同的数据源进行深度集成.现有的方法只在一个关注跳中使用数据源之间的部分交互.本文提出了一个完整的多模态记忆网络(HMMN)框架,该框架充分考 ...

最新文章

  1. MaskFlownet:基于可学习遮挡掩模的非对称特征匹配丨CVPR 2020
  2. 每天首次登陆记录设备信息
  3. DWR取session,request,response
  4. Python爬虫,通过特定的函数来筛选标签
  5. ASP.NET MVC 传值方法ViewData与ViewBag的区别
  6. LLBLGen 关于类型转换
  7. 矩形键盘 linux,基于ARM的矩阵键盘设计及其linux驱动实现
  8. My97DatePickerBeta日期控件乱码问题解决方案
  9. SCPPO(十二):SQL误操作如何恢复?
  10. 全国DNS服务器IP地址大全、公共DNS大全
  11. 团队管理经典书籍推荐:《团队管理必读12篇》
  12. word公式居中 编号右对齐(制表位) - 公式自动编号(题注)- 公式交叉引用 - word无法粘贴
  13. Spark 小文件合并优化实践
  14. 时光里,我一个人的碎碎念。
  15. 微擎跳过云平台_2018年10月微擎安装之阿里云懒人教程篇
  16. 球球大佬们帮忙分析win10蓝屏dmp!!
  17. 火焰焰心matlab,火焰的形貌-中性焰、碳化焰、氧化焰
  18. Self-Attention与Transformer
  19. Python代码制作24点小游戏
  20. Win10系统文件备份方法汇总

热门文章

  1. 阿里云服务器ECS Linux系统分析nginx或apache当天访问最多的IP
  2. 程序员该有的职业素养
  3. 惠普企业第三财季净利润23亿美元 同比增长914%
  4. ubuntu14.04上安装python3.6
  5. nginx基于域名的日志切割脚本
  6. 清除administrator密码 方法
  7. 想写点什么留下点念想
  8. mysql5.6怎么配置_MySQL 5.6和5.7怎么进行最优配置的方法
  9. [转]java.lang.instrument 学习(一)
  10. java连接Excel数据库读取,写入,操纵Excel表格