论文摘要

当前最先进的语义角色标记(SRL)使用深度神经网络,但没有明确的语言特征。之前的工作表明,抽象语法树可以显著改善SRL,从而提高模型准确性。在这项研究中,我们提出了语言学的自我关注(LISA):该神经网络模型将 multi-head self-attention 与多任务学习相结合,包括依赖解析、词性标注、谓词检测和语义角色标记。与先前需要大量预处理来准备语言特征的模型不同,LISA 可以仅使用原始的 token 对序列进行一次编码,来同时执行多个预测任务。此外,如果已经有高质量的语法分析,则可以在测试时加入,而无需重新训练我们的SRL模型。在CoNLL-2005 SRL的实验中,LISA使用预测谓词和标准字嵌入帮助模型实现了最新的最先进性能。LISA还通过上下文编码(ELMo)词表示超出了最新技术水平。

总结

来自UMass Amherst信息与计算机科学学院和Google AI语言的研究人员介绍了基于语言学的自我注意(LISA),这是一种结合了深度学习和语言形式主义的神经网络模型,因此它能够更有效地利用句法解析来获得语义。实验表明,LISA不仅在新闻领域应用表现优秀,它还在分析写作风格方面取得了最先进的表现,而且还可以很好地概括在不同领域的写作风格,如新闻和小说写作。

论文的核心思想是什么?

·       基于Transformer编码器的语言学自我关注(LISA)模型。

·       网络的输入可以是一系列标准的预训练GloVe字嵌入,但是通过预先训练的ELMo表示与任务特定的学习参数相结合,可以实现更好的性能。

·       为了将语言知识传递到后面的层次,研究人员建议训练自我关注机制以处理与句子的句法结构相对应的特定标记。此外,可以在测试时执行辅助解析信息的注入,而无需重新训练模型。

·       遵循多任务学习方法,共享语义角色标记(SRL)模型中较低层的参数以预测词性和谓词。

取得了什么关键成就?

·       开发一种将语法集成到神经网络模型中的新技术。

·       在语义角色标记中实现最新的最先进性能:

1、使用GloVe嵌入:在新闻领域上获得+2.5 F1积分,在域外文本上获得+ 3.5F1分数;

2、使用ELMo嵌入:在新闻上获得+1.0 F1点,在域外文本上获得+2.0F1分数。

AI社区对其评价是什么?

1.该论文被EMNLP 2018评为最佳长篇论文奖,EMNLP 2018是自然语言处理领域的领先会议。

未来的研究领域是什么?

·       提高模型的解析精度。

·       开发更好的训练技巧。

·       适应更多任务。

什么是可能的商业应用?

1、语义角色标记对许多下游NLP任务很重要,包括:

§  信息提取;

§  问题回答;

§  自动摘要;

§  机器翻译。

你在哪里可以得到实现代码?

1.本研究论文的实施可从这里获得。

9.一种用于学习语义任务嵌入的分层多任务方法,作者:VICTOR SANH,THOMAS WOLF和SEBASTIAN RUDER

论文摘要

我们已经投入了大量精力来评估是否可以利用多任务学习在各种自然语言处理的应用中使用丰富表示。然而,我们真正缺乏的是对多任务学习具有显著影响的设置的理解。在这篇论文中,我们介绍了在一个精心挑选在多任务学习设置中训练的分层模型。该模型以分层方式进行训练,通过监督模型底层的一组低级任务和模型顶层的更复杂任务来归纳偏差。该模型在许多任务上实现了最优秀的结果,例如命名实体识别。分层训练监督在模型的较低层引入一组共享语义表示,我们已经证实,当我们从模型的底层移动到顶层时,层的隐藏状态往往代表更复杂的语义信息。

总结

研究人员为一组相互关联的NLP任务引入了一种多任务学习方法:命名实体识别,实体指代识别,共指消解和关系提取。他们证实,以分层方式训练的单一模型可以解决上述的四项任务。此外,与单任务模型相比,多任务学习框架显着加快了训练过程。

本文的核心思想是什么?

·       多任务学习方法可以有效地用于一组相互依赖的NLP任务。

·       四个基本语义NLP任务:命名实体识别,实体指代识别,共指消解和关系提取相互受益,因此可以组合在单个模型中。

·       该模型假定所选语义任务之间存在层次结构:某些任务更简单,需要对输入进行较少的修改,因此可以在神经网络的较低层进行监督学习,而其他任务则更加困难,需要更复杂的处理输入,因此,应该在神经网络的更高层监督学习。

什么是关键成就?

·       分层多任务学习模型(HMTL)在4个任务中的挑战了其中三个最先进的结果,即命名实体识别,关系提取和实体指代检测任务。

·       与单任务模型相比,多任务学习框架大大加快了训练速度。

AI社区对其的看法是什么?

1.该论文将在2019年1月的AAAI会议上发表。

未来的研究领域方向是什么?

·       将多任务学习模型与预训练的BERT编码器相结合。

·       搜索多任务学习的其他设置。

什么是可能的商业应用?

1、企业可以利用这种多任务学习方法的优势,即高性能和高训练速度,来增强:

§  聊天机器人和语音助理的表现;

§  在文件中查找相关信息;

§  分析客户评论等;

你在哪里可以得到实现代码?

1.你可以在GitHub上的获得这篇研究论文的代码。

10. 了解你不知道的事情:SRANAD的无法回答的问题,作者:PRANAV RAJPURKAR,ROBIN JIA和PERCY LIANG

论文摘要

提取阅读理解系统通常可以在上下文文档中找到问题的正确答案,但是它们也倾向于对在上下文中没有陈述正确答案的问题做出不可靠的猜测。现有数据集太专注于可回答的问题,为了解决这些弱点,我们提供了SQuAD 2.0,这是斯坦福问答数据集(SQuAD)的最新版本。SQuAD 2.0将现有的SQuAD数据与众包工作者写的50000多个无法回答的问题结合起来,看起来类似于可回答的问题。为了在SQuAD 2.0上做得好,系统不仅要在可能的情况下回答问题,还要确定段落何时不支持答案并且不回答问题。

总结

斯坦福大学的一个研究小组扩展了著名的斯坦福问答数据集(SQUAD),增加了超过5万个个无法回答的问题。这些问题的答案无法在段落中找到,但问题与可回答的问题非常相似。更重要的是,段落包含对这些问题的合理(但不正确)答案。这使得新的SQuAD 2.0对现有的最先进模型极具挑战性:在引入无法回答的问题之后,一个强大的神经系统在之前版本的SQuAD上达到86%的准确率,而现在只有66%。

本文的核心思想是什么?

·       当前的自然语言理解(NLU)系统远非真正的语言理解,其中一个根本原因是现有的Q&A数据集关注的是在上下文文档中保证正确答案存在的问题。

·       要真正具有挑战性,应该创建无法回答的问题,其中:

§  它们与支持段落相关;

§  该段包含一个似是而非的答案,其中包含与问题要求相同类型的信息,但不正确。

什么是关键成就?

·       通过53777个新的无法回答的问题扩展SQuAD,从而构建具有挑战性的大规模数据集,迫使NLU系统学习何时无法根据上下文回答问题。

·       通过显示现有模型66%的准确性,为NLU系统创造新的挑战。

·       显示合理的答案确实可以作为NLU系统的有效干扰者。

AI社区对其的看法是什么?

·       该论文被2018年计算语言学协会(ACL)公布为最佳短篇论文。

·       新的数据集增加了NLU领域的复杂性,实际上可以为该研究领域带来巨大的绩效训练。

未来的研究领域是什么?

1.开发“知道他们不知道的东西”的新模型,从而更好地理解自然语言。

可能的商业应用是什么?

1.在这个新数据集上训练阅读理解模型应该可以提高他们在现实情况下的表现,而这些情景往往无法直接获得答案。

原文链接
本文为云栖社区原创内容,未经允许不得转载。

可应用于实际的14个NLP突破性研究成果(三)相关推荐

  1. 可应用于实际的14个NLP突破性研究成果(四)

    可应用于实际的14个NLP突破性研究成果(一) 可应用于实际的14个NLP突破性研究成果(二) 可应用于实际的14个NLP突破性研究成果(三) 11.对序列建模的通用卷积和递归网络的实证评估作者:SH ...

  2. 可应用于实际的14个NLP突破性研究成果(一)

    语言理解对计算机来说是一个巨大的挑战.幼儿可以理解的微妙的细微差别仍然会使最强大的机器混淆.尽管深度学习等技术可以检测和复制复杂的语言模式,但机器学习模型仍然缺乏对我们的语言真正含义的基本概念性理解. ...

  3. 可应用于实际的14个NLP突破性研究成果(二)

    论文摘要 尽管最近在训练高质量的句子嵌入上做出了很多的努力,但是大家仍然对它们所捕捉的内容缺乏了解.基于句子分类的'Downstream'tasks通常用于评估句子表示的质量.然而任务的复杂性使得它很 ...

  4. 计算机研究与发展 介绍,我院NLP团队研究成果论文被《计算机研究与发展》期刊录用...

    2020年6月15日,华南师范大学软件学院"自然语言处理与智能软件技术"研究团队(简称:NLP团队),在团队负责人曾碧卿教授带领下,在EI期刊<计算机研究与发展>上,录 ...

  5. 搜狗开源最新NLP研究成果,打造业内最全机器阅读理解工具包SMRC

    晓查 发自 凹非寺 量子位 出品 | 公众号 QbitAI 上周,搜狗在GitHub低调发布了机器阅读理解工具包SMRC(Sogou Machine Reading Comprehension). 这 ...

  6. NLP突破性成果 BERT 模型详细解读 bert参数微调

    https://zhuanlan.zhihu.com/p/46997268 NLP突破性成果 BERT 模型详细解读 章鱼小丸子 不懂算法的产品经理不是好的程序员 ​关注她 82 人赞了该文章 Goo ...

  7. NLP分析技术的三个层面

    NLP分析技术的三个层面 NLP分析技术大致分为三个层面:词法分析.句法分析和语义分析. 1)词法分析 词法分析包括分词.词性标注.命名实体识别和词义消歧.     分词和词性标注好理解.     命 ...

  8. 2021年14项世界互联网领先科技成果发布

    来源:桐乡发布 9月26日下午,由国家互联网信息办公室.浙江省人民政府主办的2021年"世界互联网领先科技成果发布活动"在乌镇互联网国际会展中心乌镇厅举行.华为鸿蒙操作系统.北斗卫 ...

  9. 人工智能 | 自然语言处理(NLP)研究团队

    博主github:https://github.com/MichaelBeechan 博主CSDN:https://blog.csdn.net/u011344545 Natural Language ...

最新文章

  1. 站长们 技术不是你生存的全部
  2. 如何配置Windows Live Writer
  3. error C1853: “Debug\BigBuffer.pch”预编译头文件来自编译器的早期版本,或者预编译头为 C++ 而在 C 中使用它(或相反)...
  4. 爬虫-请求类对象的创建-Request类
  5. ur3 aubo movit机械臂运动
  6. java-成员变量的属性与成员函数的覆盖
  7. 查询系统是使用 MBR 还是 GPT 分区 (Windows 和 Linux)
  8. IT运维的五大基础知识
  9. 智能车制作pdf 王盼宝_智能车制作——从元器件、机电系统、控制算法到完整的智能车设计(Word+PDF+ePub+PPT)...
  10. 为什么手机里的小爱音响app里搜不到家里的小爱音箱_小爱触屏音箱体验:小爱同学有了屏幕增加功能,是不是你的菜?...
  11. Python import无法导入包问题
  12. vue3 内置组件keep-alive用法的全面介绍
  13. C++从txt文本中输入和读取字符串
  14. 爱奇艺自主研发的动态化框架!
  15. 日有所思(4)——磁密,磁场强度,磁通量傻傻分不清
  16. 在线项目管理软件的重要性
  17. 构建数字经济新生态,和数区块链结合隐私计算可发挥作用
  18. 常用笔记软件对于视频网站嵌入播放支持
  19. 高中学习方面的一点经验
  20. 调用office web 365接口实现在线预览word文档,PDF,PPT

热门文章

  1. python获取坐标颜色,python – 根据一组坐标的数据着色地图
  2. pythonui自动化测试平台_django+appium实现UI自动化测试平台(开源部分,可定制开发)...
  3. python函数定义和调用_函数定义和调用
  4. linux内存管理_浅谈Linux内存管理
  5. xpath获取标签的属性值_论xpath与css定位方式
  6. 操作系统中的死锁问题
  7. 小程序动态class_会后剧透!百度智能小程序的最新动态都在这儿了!
  8. python函数定义中参数列表里的参数是_python函数定义中的参数说明
  9. php class类 教程,PHP类(Class)入门教程第2/2页
  10. udp 使用connect优点_一文搞懂TCP和UDP的区别