本篇是reading comprehension系列的第三篇,文章于2016年6月9号submit在arxiv上,比之前介绍的Gated-Attention Readers for Text Comprehension更晚地出现,但尴尬的是本文的模型结果不如GA Reader。6月7号submit的一篇Iterative Alternating Neural Attention for Machine Reading,用了和GA非常类似的方法,得到了稍微差一点的结果。确实最近在arxiv上常常可以刷出reading comprehension的paper,可以看得出这个领域当前多么地火热。同时火热的还有dialogue generation任务,今天凌晨的wwdc2016大会中,苹果宣布打造更加智能的siri,几大科技巨头纷纷表示要将聊天机器人作为智能的未来,由此可见与其相关的研究将会越来越热。本文的作者是来自斯坦福大学的博士生Danqi Chen,本科毕业于清华的姚班。

虽然本文并没有比GA模型有更好的效果,但作为了解整个Reading Comprehension研究的发展以及模型的思路还是很有意义的。本文最大的贡献在于提出了一种基于人工特征的分类器模型和一个改进版的端到端模型(这里是基于Teaching Machines to Read and Comprehend的Attentive Reader模型)。

第一个模型,是典型的人工特征模型,通过提取了八个特征构建特征空间,通过使得正确答案entity比其他entity获得更高的得分来训练得到模型参数。包含的特征有:该entity是否出现在原文中,该entity是否出现在问题中,出现过几次,第一次出现的位置等等八个特征。

第二个模型,基本思路与Attentive Reader接近。看下图:

这里只介绍不同的地方:

1、在计算query和document的注意力权重时,没有采用非线性的tanh,而是采用了bilinear。

2、得到注意力权重之后,计算context的输出,然后直接用输出进行分类预测,而Attentive Reader是用输出与query又做了一次非线性处理之后才预测的。

3、词汇表中只包括entity,而不是所有的单词。

模型上的改进只有第一点算是吧,后两点只是做了一些简单的优化。

虽然模型简单了,但效果却比Attentive Reader好很多,提升了约5%的效果,我们不管其模型有没有什么亮点,这些简化处理反而得到非常好的效果,这一点很引人深思。

结果这部分,作者分析了八个特征分别对模型结果的影响,其中影响最大的是n-gram match(entity和placeholder是否有相似的上下文),其次是entity出现的频率,具体见下表:

端到端模型比Attentive Reader效果好很多,但和最近的GA来比还是差了很多。看过本文之后,只有一个疑问,简化后的模型为什么比稍微复杂一点的模型好那么多呢?

最后作者总结了下Reading Comprehension任务中常用的数据集:

1、CNN/Daily Mail

2、MCTest

3、Children Book Test(CBT)

4、bAbI

本周末计划将本周看过的几篇reading comprehension写成一篇综述,好好做一次系统地对比和总结。敬请期待。

来源:paperweekly

原文链接

A Thorough Examination of CNN/Daily Mail Reading Comprehension相关推荐

  1. A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task

    关键词 Examination, Analysis 来源 arXiv 2016.06.09 问题 针对 CNN/Daily Mail 语料中不能使用外部知识,可能存在的指代消解错误等问题,探究一下几个 ...

  2. 论文A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task.源码运行

    win10环境运行遇到的错误: 1.Anaconda安装theano 参考教程:https://www.cnblogs.com/Sinte-Beuve/p/8597429.html 2.报错:Impo ...

  3. Reading Comprehension必读paper汇总

    文章目录 Must-read papers on Machine Reading Comprehension. Model Architecture Utilizing Extenal Knolwed ...

  4. 《NEURAL READING COMPREHENSION AND BEYOND》解读(陈丹琦博士论文)

    之前在听standford的cs224n自然语言处理课程的时候,就有一段是请陈丹琦来这边讲她最近的一些工作,我记得还是在embedding上的进展.听的时候,就觉得像是一个中国小姐姐,后面在这篇爆款博 ...

  5. 初识机器阅读理解(Machine Reading Comprehension)

    机器阅读理解任务理解与文献查阅 参考博客: https://www.jiqizhixin.com/articles/2018-11-26-10 https://hanxiao.github.io/20 ...

  6. NLP-阅读理解:“阅读理解”综述(Machine Reading Comprehension, MRC)【完形填空、多项选择、抽取式(答案片段抽取)、生成式(自由作答)】《机器阅读理解数据集》

    <原始论文:Neural Machine Reading Comprehension: Methods and Trends> 一.阅读理解概述 所谓的机器阅读理解(Machine Rea ...

  7. Machine Reading Comprehension: The Role of Contextualized Language Models and Beyond

    机器阅读理解(MRC)旨在教机器阅读和理解人类语言,这是自然语言处理(NLP)的长期目标.随着深度神经网络的爆发和上下文语言模型(contextualized language models-CLM) ...

  8. 【论文总结】《Neural Reading Comprehension and Beyond(2018,第一部分)》(阅读理解任务综述)

    写在前面:Danqi Chen的这篇论文很好地概括了从1977年以来的阅读理解领域发展,通读一遍对初学者(我)也是受益匪浅,文章以"数据集和模型的相互促进"为脉络,穿插讲解了各种数 ...

  9. NEURAL READING COMPREHENSION AND BEYOND

    文章目录 Abstract Chapter1: Introduction 1.1 Motivation 1.2 Thesis Outline 1.3 Contributions Chapter 2: ...

最新文章

  1. KVM精简教程(一):安装KVM
  2. java ftp connect_java实现ftp的几种方式(第3方包)
  3. sql server 中将datetime类型转换为date,或者time
  4. 为什么我不建议你买保险?
  5. 说一说,求一个正整数的二进制中0的个数
  6. python如何实现支持中文
  7. 提高篇 第五部分 动态规划 第4章 状态压缩类动态规划
  8. 数据结构知识点大汇总(二)
  9. GA遗传算法入门到掌握
  10. [Swift]LeetCode1023. 驼峰式匹配 | Camelcase Matching
  11. nacos 服务日志_如何屏蔽Nacos日志输出?
  12. 20145209 2016-2017-2 《Java程序设计》第4周学习总结
  13. GAN for Image-to-image translation 2019年文章综述
  14. 学生管理系统IPO图_一篇文章带你走进数据流图的世界
  15. LCD模块加载启动分析
  16. 基于FPGA的MPPT系统开发
  17. 苹果ipa安装包分发下载教程
  18. 时间转cron表达式
  19. 2022-2027年中国西洋乐器制造行业发展监测及投资战略研究报告
  20. 分享4个优秀的博客导航站

热门文章

  1. 飞康加入OpenStack进一步提升FreeStor的灵活性
  2. kafka文档(2)----kafka API(java版本)
  3. java定义geinfo_Java ResourceInfo類代碼示例
  4. 生信人一口气搞定SCI作图与数据处理的技巧,就靠这个免费在线工具了!
  5. Dreamweaver2021下载安装
  6. 牛逼!用Python为她设计专属签名软件!
  7. php中sin90,sin90度等于多少
  8. 5款免费强大的数据恢复软件
  9. [115网盘]School Days全音乐集[OP+ED+OST+原声][全320K+全BK]
  10. win10系统还原卡在“你好..”和无法打开这个应用无法使用内置管理员的解决办法