作者:Carrie

  • EMNLP2019: A Boundary-aware Neural Model for Nested Named Entity Recognition

  • 论文链接: https://www.aclweb.org/anthology/D19-1034.pdf

  • 论文代码: https://github.com/thecharm/boundary-aware-nested-ner

简介

Motivation

在 NER 任务中,有一类特殊的 nested entity, 即两个不同的实体相互嵌套,如Figure1中的 protein 实体 和 RNA 实体。在这种情况下,同一个 token (例如图中的 "1" ), 就会具备不同的实体标签。

传统方法会通过人工提供特征来解决这里问题,但却受限于特征工程的繁重工作。在今年的方法中,有两类方法解决nested NER问题:

  • Layered Sequence Labeling model: 通过层级的序列标注,先识别内层的实体,然后基于此通过下一层的序列标注来识别外层的实体;然而这一方法的受限于错误传递

  • Region Classification Model: 发现序列中所有可能的实体位置区间(span/boundary), 将他们输入分类层来发现具体的实体;然而这一方法的缺点是由于缺乏精确的边界信息,会抽取出很多并非 target entity 的 entity mention.

基于以上两种方法的优缺点,本文考虑将他们结合起来: 用序列标注模型来发现实体的位置,用 region classification model 对序列标注发现的 entity span candidate 进行实体类型的分类;同时,由于 实体标签预测 和 边界发现 是在同一区间范围内的,因此引入多任务学习对它们进行优化

Contributions

  • 本文设计了边界感知的神经网络模型来预测实体的类别信息,它可以首先定位出实体的位置(span), 然后在对应的位置区间内进行实体类型的预测;

  • 引入多任务学习来捕实体边界与事件标签之间的依赖关系;

  • 在公开的 nested NER 数据集上,本文模型取得了超越 SOTA 的效果,并在inference取得了更快的速度。

相关工作

在相关工作中,作者指出了如下几点:

  • 在现有的 NER 相关工作中,对 nested NER 进行研究的工作相对较少;

  • 现有的 nested NER 工作提出的方案,可能是考虑了太多冗余的 span/region 信息, 或是 将边界预测和标签分类两个字任务太过于隔离,没有很好地利用现有的上下文信息。

  • 本文提出的模型,则是用 更少、更精确的实体边界信息,来提高实体分类的性能

模型

本文模型具体包括以下部分:

Token Representaiton

对于包含




个tokens的句子























, 通过如下三个步骤得到初始的表示:

  • 通过 lookup table 获取







    的 word embedding:





















  • 若一个token







    包含若干个 characters








    , 则先通过
















    得到其对应的词向量,然后通过 BiLSTM 得到每个字符的表示:






























  • 最后将 token 和 对应字符的表示进行拼接:
























Shared Feature Extractor

在得到








的表示后,通过 BiLSTM 再次进行特征抽取:

Entity Boundary Detection

在边界检测阶段,对于句子























, 我们将其包含的 entity 表示为









, 表示



























构成一个实体。具体地,将















标注为 BE, 区间内的token标注为 I, 非实体的token标注为 O

对于每个token, 通过如下计算预测其对应的边界标签:并通过下式定义 boundary detection 的 loss:

Entity Categorical Label Prediction

基于 boundary detection 得到 R(i,j) 的基础上,首先计算得到 R(i,j) 部分对应的表示:

然后对 R(i,j) 进行实体类别的分类,并定义loss:

Multitask Training

多任务的 loss 如下定义, 其中




是控制各子任务重要性的超参

实验

实验部分主要介绍了所用的数据集、Baseline、参数设置 和 评价函数。

结果与讨论

  • 分析总体实验结果。结果显示,本文模型的实验结果超越了现有的SOTA模型,且作者认为由于本文方法能更准确地发现entity边界以及 end2end 多任务抽取模式带来的提升,并在下文进行了分析。

  • 分析Boundary Detection上的实验结果。从文中表5,6 看出本文在Boundary Detection 上就取得了比其他模型更好的效果,作者将这归因于multiLoss 同时考虑了 实体边界与实体类型间依赖;同时,正是因为Boundary Detection 上更好的实验效果,整个 nested NER 任务才取得了更好的效果

  • 分析本文模型与现有模型在 Inference Time 上的区别。本文模型取得了更高的效率,作者将这归因于 本文发现的 entity boundary 是更精确的,较之前人工作,non-entity boundary 更少。

  • 分析多任务学习的影响。作者将本文的 Boundary Detection 与 EntityLabel Prediction 用 Pipiline 的方式进行了运行,发现仍旧是ene2end取得了较好的结果。作者将这归因于,Multi-task Learning 能够捕捉到 实体边界和实体类型标签间隐含的依赖信息

  • 分析本文模型在 Flat NER  任务上的结果。作者用本文模型在 JNLPBA DataSet 进行了 Falt NER 的实验,仍旧取得了较好的效果。

  • 实例分析。作者通过一则实例对不同方法的特点进行分析,例句中 human TATA binding factor 是内嵌于 transcriptionally active human TATA binding factor的实体,Layered model 都只检出了 outer entity, 这说明相比之下本文模型能更加准确地发现 entity 的区间范围;而本文方法的 PipiLine 模式只检测出了 inner entity, 这说明 Multitask 的方法能够在边界检测模块和实体类型预测模块间进行信息共享,这有助于结果的提升。

了解更多深度学习相关知识与信息,请关注公众号深度学习的知识小屋

交流学习,进群备注:昵称-学校(公司)-方向,进入DL&NLP交流群。

方向有很多:机器学习、深度学习,python,情感分析、意见挖掘、句法分析、机器翻译、人机对话、知识图谱、语音识别等。

广告商、博主勿入!

【论文解读】基于边界感知神经网络进行嵌套命名实体识别相关推荐

  1. 【项目调研+论文阅读】Lattice LSTM神经网络医学文本命名实体识别 | day7

    <Lattice LSTM神经网络法中文医学文本命名实体识别模型研究>2019 文章目录 一.模型步骤 1.Lattiice-LSTM分词+表征词汇 2.LSTM-CRF  经证实,英文N ...

  2. 为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别...

    ©PaperWeekly 原创 · 作者|张玮玮 学校|东北大学硕士生 研究方向|情绪识别 引言论文动机 现有的基于脑电图的情绪识别方法大多不能很好地解决以下三个方面的问题:1. 脑电图信号的拓扑结构 ...

  3. 论文解读 | 基于正则化图神经网络的脑电情绪识别

    ©PaperWeekly 原创 · 作者|张玮玮 学校|东北大学硕士生 研究方向|情绪识别 引言 论文动机  现有的基于脑电图的情绪识别方法大多不能很好地解决以下三个方面的问题: 1. 脑电图信号的拓 ...

  4. 嵌套命名实体识别任务简介

    来自:哈工大讯飞联合实验室 本期导读:嵌套命名实体是一种特殊形式的命名实体,由于其复杂的层次化结构,传统的基于序列标注的命名实体模型不能很好地解决嵌套命名实体识别的任务.因此,自然语言处理领域的研究者 ...

  5. ACL 2020 | 基于机器阅读理解框架的命名实体识别方法

    论文标题: A Unified MRC Framework for Named Entity Recognition 论文作者: Xiaoya Li, Jingrong Feng, Jiwei Li ...

  6. 基于预训练模型的军事领域命名实体识别研究

    摘要 [目的]为了解决开源非结构化军事领域数据的命名实体识别问题.[方法]本文提出基于预训练模型(Bidirectional Encoder Representations from Transfor ...

  7. 论文浅尝 | 基于微量资源的神经网络跨语言命名实体识别

    论文笔记整理:谭亦鸣,东南大学博士生,研究方向为跨语言知识图谱问答. 来源:EMNLP 2018 链接:https://www.aclweb.org/anthology/D18-1034 问题背景与动 ...

  8. 【论文泛读164】MECT:基于多元数据嵌入的中文命名实体识别交叉变换器

    贴一下汇总贴:论文阅读记录 论文链接:<MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Enti ...

  9. 论文浅尝 | 用于嵌套命名实体识别的二部平面图网络(BiFlaG)

    笔记整理 | 栾岱洋,东南大学 来源:ACL 2020 链接:https://www.aclweb.org/anthology/2020.acl-main.571.pdf 本文提出了一种可以实现重叠主 ...

  10. 浅谈嵌套命名实体识别(Nested NER)

    ©PaperWeekly 原创 · 作者|张成蹊 单位|北京大学硕士生 研究方向|自然语言处理 序 命名实体识别(Named Entity Recognition, 下称 NER)任务,主要目的是从一 ...

最新文章

  1. 让Jexus支持高并发请求的优化技巧
  2. Swift标准库源码阅读笔记 - Array和ContiguousArray
  3. 推荐一个在线查看.cer文件的网站
  4. leetcode验证冒泡排序效率
  5. Android逆向基础笔记—初识逆向
  6. 【渝粤教育】国家开放大学2018年秋季 0195-22T机械设计基础 参考试题
  7. Output path is shared between the same module error
  8. struts2通配符的问题的解决
  9. Aria2 YAAW 使用说明
  10. API文档自动生成工具
  11. 帧中继网配置实例学习记录
  12. linux误删分区表,恢复被误删的Linux分区表
  13. 抖音小姐姐太好看了,我用Python把视频全部爬取下来
  14. quarz定时任务 spring整合quartz
  15. 融金所-孙明达:中国普惠金融覆盖率已属较高水平
  16. (19年最新,操作极简)linux下使用xmind zen破解版
  17. 西南民族大学第十届校赛(同步赛) 个人笔记 题解
  18. 【微信开发第二章】SpringBoot实现微信公众号普通消息和模板消息回复
  19. 使用itext创建PDF模板
  20. 波形发生器的工作原理

热门文章

  1. hdu 1520 Anniversary party(第一道树形dp)
  2. 【Linux命令】Linux下的tar压缩解压缩命令详解(转)
  3. NHibernate 基础
  4. Centos如何安装163yum源
  5. [luogu1373]小a和uim之大逃离_动态规划
  6. Feature selection using SelectFromModel
  7. 80 行代码爬取豆瓣 Top250 电影信息并导出到 CSV 及数据库
  8. npm 模块安装机制简介
  9. SSM整合(二)(mybatis逆向工程)
  10. Codeforces Round #365 Div.2