文章目录

  • 实体关系抽取简介
    • 关系抽取任务
    • 关系抽取使用的主要方法
  • 基于深度学习的有监督方法
    • 流水线模型
      • (1)基于RNN的流水线模型
      • (2)基于CNN的流水线模型
      • (3)基于LSTM的流水线模型
    • 联合模型
      • 共享参数的联合模型
      • 基于序列标注的联合模型
  • 基于深度学习的远程监督方法

实体关系抽取简介

实体关系抽取作为文本挖掘和信息抽取的核心任务,其主要通过对文本信息建模,自动抽取出实体对之间的语义关系,提取出有效的语义知识。其研究成果主要应用在文本摘要、自动问答、机器翻译、语义网标注、知识图谱等。随着近年来对信息抽取的兴起,实体关系抽取问题进一步得到广泛关注和深入研究。

关系抽取任务

实体关系抽取作为信息抽取的重要任务,是指在实体识别的基础上,从非结构化文本中抽取出预先定义的实体关系。实体对的关系可被形式化描述为关系三元组〈e1,r,e2〉,其中,e1 和 e2 是实体,r 属于目标关系集 R{r1,r2, r3,…,ri}。关系抽取的任务是从自然语言文本中抽取出关系三元组〈e1,r,e2〉,从而提取文本信息。

关系抽取使用的主要方法

经典的实体关系抽取方法主要分为有监督、半监督、弱监督和无监督这 4 类,使用机器学习方法来进行关系抽取。经典方法存在特征提取误差传播问题,极大影响实体关系抽取效果。随着近些年深度学习的崛起,关系抽取任务研究的重点转向了使用深度学习方法。基于深度学习的实体关系抽取方法与经典抽取方法相比,其主要优势在于深度学习的神经网络模型可以自动学习句子特征,无需复杂的特征工程。本文重点围绕深度学习来深入探讨实体关系抽取方法。

基于深度学习实体关系抽取主要分为有监督和远程监督两类。在有监督中,解决实体关系抽取的方法可以分为流水线学习和联合学习两种:流水线学习方法是指在实体识别已经完成的基础上直接进行实体之间关系的抽取;联合学习方法主要是基于神经网络的端到端模型,同时完成实体的识别和实体间关系的抽取。与有监督实体关系抽取相比,远程监督方法缺少人工标注数据集,因此,远程监督方法比有监督多一步远程对齐知识库给无标签数据打标的过程,而构建关系抽取模型的部分,与有监督领域的流水线方法差别不大。

基于深度学习的有监督方法

流水线模型

基于流水线的方法进行关系抽取的主要流程可以描述为:针对已经标注好目标实体对的句子进行关系抽取,最后把存在实体关系的三元组作为预测结果输出。一些基于流水线方法的关系抽取模型被陆续提出,这些模型主要是基于 RNN,CNN,LSTM 及其改进模型的网络结构。

(1)基于RNN的流水线模型

在深度学习刚兴起的一段时间有学者使用RNN尝试来进行关系抽取,但由于RNN模型自身存在诸多问题,例如容易出现梯度消失、梯度爆炸;内部结构复杂,网络训练周期较长。所以使用RNN的论文非常少,很快便被CNN和LSTM模型取代。

(2)基于CNN的流水线模型

CNN在关系抽取中的使用比较广泛

Relation classification via convolutional deep neural network[1]

该论文使用CNN来提取词汇级特征(lexcial level features)和句子级特征(sentence level features)。同时还提出了位置特征(PF,position features),来编码当前词与目标词对的相对距离,该论文中的实验证明位置特征是比较有效的特征。之后的很多论文都沿用了该论文提出的位置特征。
论文提出的模型整体架构如下:


包括三层结构:Word Representation、Feature Extraction、Output。不需要复杂的语法和语义的处理,系统输入就是有两个标记名词的句子。首先,第一层是词表示层,词标记通过word embedding转化成词向量。接着,第二层是特征提取层,将词特征和词到实体的距离特征拼接作为输入,然后进行卷积,得到句子级特征。第三层是输出层,将特征通过一层softmax分类器,得到各种关系的置信度,置信度高的就是两个标记名词的关系。

Semantic Relation Classification via Convolutional Neural Networks with Simple Negative Sampling[2]


该论文的工作主要是在[1]的基础上提出了基于依存分析树的卷积神经网络的实体关系抽取模型,将输入文本经过了依存分析树。同时提出了一种负采样策略:首先,利用依存路径来学习关系的方向性;然后,使用负采样方法来学习主体和对象的位置分配,采用从对象到主体的最短依存路径作为负样本,并将负样本送到模型中学习,以解决实体对距离较远时,依存分析树引入的无关信息问题。

Relation Classification via Multi-Level Attention CNNs[3]


本文的主要创新点有三个,第一,将attention机制应用在输入序列中,用于学习输入语句中各部分对两个实体的注意力;第二,将attention机制应用在池化层上,用于学习目标类别的注意力;第三,提出了一种新的目标函数,使模型在关系提取上表现出更好的效果。
模型的输入使用和[1]相同的,将词向量和位置向量拼接。
输入级attention机制的实现方式是设计两个关于实体对上下文相关的对角矩阵,Aj,j=1,2;该矩阵中各元素反映该词语与给定实体间联系的强弱,也就是分配在该词上对于实体的注意力,比如Aji,i=f(ej,wi)就是反映的wi和ej之间的联系强弱程度。
池化级attention机制的实现方式是构建一个相关性矩阵,来捕获卷积层输出R∗,与实体关系WL之间的联系。
最后通过一个距离目标函数来预测关系。

(3)基于LSTM的流水线模型

Classifying Relations via Long Short Term Memory Networks along Shortest Dependency Paths[4]

论文提出了一种SDP-LSTM模型用于实体关系分类。论文的主要工作就是证明了SDP在关系分类中的作用,SDP(the shortest dependency path)是指在句法依存树中,两实体到公共祖先节点的最短路径。在实体关系分类中,SDP富含多种信息,可以让模型更专注相关信息,忽略无关信息。一个最短依赖路径的例子如下(红色路径):
SDP-LSTM模型的结构如下图所示:

左边是模型整体结构,以SDP为基础,构建了一个有四个LSTM通道的编码层,编码层结果进行拼接后输入Softmax进行关系分类。
右边是对编码层的详细展示,图中是一个LSTM通道的结构。LSTM通道的构建方法是,使用NLP工具得到句子的SDP结构,然后通过SDP分别构造两个节点到公共祖先的路径。在编码时,两条路径分别作为一个LSTM序列,将LSTM向前传播得到的隐藏层进行一次池化操作,得到单条路径的输出。最后连接两条路径上的输出,得到一个LSTM通道的输出。
整个模型有四个通道,分别使用词本身,词性信息,依存句法关系,WordNet上位词作为输入,充分捕捉了各种特征。

前面过程中提到了路径节点表示成向量,论文中分别利用词的四种特性,将节点表示成向量,包括词本身,词性信息,依存句法关系,WordNet上位词。所以会有四个通道LSTM。

A Bi-LSTM-RNN model for relation classification using low-cost sequence features[5]

[4]中提出的SDP-LSTM模型虽然有不错的效果,但是有一个问题是使用NLP工具提取附加特征带来了错误传播问题,于是本文提出一种基于低成本序列特征的Bi-LSTM-RNN模型,利用实体对并将它们周围的上下文分段表示来获取更丰富的语义信息,无需词性标注、依存句法树等额外特征。将文本经过 LSTM 网络获得隐藏向量表示后依照两个实体分成五段式的方式输入池化层获得向量表示,再输入分类器进行关系分类,解决了基于句法或依赖性特征等高成本结构特征问题,并证明当不使用依赖解析时,两个目标实体之间的上下文可以用作最短依赖路径的近似替换。

联合模型

虽然流水线模型在关系抽取中取得了不错的效果,但是存在诸多问题限制了流水线模型的性能:主要有三点,第一,错误传播,实体识别模块的错误会影响到接下来的关系分类性能;第二,忽视了两个子任务之间存在的关系,第三,产生冗余信息,由于对识别出来的实体进行两两配对,然后再进行关系分类,那些没有关系的实体对就会带来多余信息,提升错误率。
相比于流水线方法,联合模型能够利用实体和关系间紧密的交互信息,同时抽取实体并分类实体对的关系,很好地解决了流水线方法所存在的问题。因在联合学习方法中建模的对象不同,联合学习方法又可以分为参数共享方法和序列标注方法。参数共享方法分别对实体和关系进行建模,而序列标注方法则是直接对实体—关系三元组进行建模。

共享参数的联合模型

End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures[6]

本文提出了一种联合实体关系检测参数共享的关系抽取模型,模型中有两个双向的LSTM-RNN,一个基于word sequence,主要用于实体检测;一个基于Tree Structures ,主要用于关系抽取;后者堆在前者上,前者的输出和隐含层作为后者输入的一部分。下图为整个模型的结构图:
在该模型中,实体识别子任务和关系分类子任务共享LSTM编码层的输出。该方法将实体识别任务当作序列标注任务,使用双向序列 LSTM 输出具有依赖关系的实体标签。之后通过在双向序列LSTM单元上堆叠双向树结构LSTM的方法,使关系分类子任务和实体识别子任务共享编码层的LSTM单元序列表示。关系分类子任务中捕获词性标签等依赖特征和实体识别子任务中输出的实体序列,根据SDP构建依存树,对关系进行分类从而得到实体关系三元组。
但该模型中的关系分类子任务和实体识别子任务仅共享了编码层的LSTM,关系分类子任务中的Tree-LSTM则只在关系分类中使用,从严格意义上来说不是真正的联合模型。但是该模型的提出,为之后真正意义上联合学习模型的提出奠定了基础,是基于深度学习方法做联合学习模型的启发者。

基于序列标注的联合模型

基于参数共享的实体关系抽取方法虽然改善了传统流水线方法中存在的错误累积传播问题和忽视两个子任务间关系依赖的问题。但因其在训练时命名实体识别子任务和关系分类子任务并没有完全的共享参数,所以仍然会产生没有关系的实体这种冗余信息。为了解决这个问题,基于新序列标注方法的实体—关系联合抽取方法被提出来。

Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme[7]

该论文的主要工作是设计了一种特别的标签类型,将实体识别和关系分类转化为序列标注问题;然后提出了一个端到端模型,对实体和关系进行联合抽取。
该论文提出的标记方法如下图所示,在该方法中,共包含 3 种标注信息: (1) 实体中词的位置信息 { B,I,E,S,O } 分别表示{实体开始,实体内部,实体结束,单个实体,无关词};(2) 实体关系类型信息,需根据关系类型进行标记,分为多个类别,如 { CF,CP,… } ;(3) 实体角色信息 { 1,2 } 分别表示 { 实体 1,实体 2 }

该论文提出的端到端的神经网络模型如下图所示,对输入的句子,首先,编码层使用Bi-LSTM来进行编码;之后,解码层再使用 LSTMd( 作者提出的一种基于LSTM的改进型 ) 进行解码;最终,输出模型标注好的实体—关系三元组

基于深度学习的远程监督方法

面临大量无标签数据时,有监督的关系抽取消耗大量人力,显得力不从心。因此,远程监督实体关系抽取应运而生。远程监督通过数据自动对齐远程知识库在开放域中给大量无标签数据进行自动标注。
远程监督标注数据时主要有两个问题:噪声和特征提取误差传播。噪声问题是由于远程监督的强假设条件,引入了大量的噪声数据。给定一个实体对和其对应的关系,传统的方法在无标签的语料集中提取所有包含该实体对的句子,并认为这样的句子中实体也存在同样的关系。显而易见地,这种方法会因为一些噪音语料而影响训练效果;而特征提取中的误差传播问题是由于传统的特征提取主要是利用 NLP 工具进行数据集的特征提取,因此会引入大量的传播误差。

Neural Relation Extraction with Selective Attention over Instances[8]

该论文是在PCNN模型的基础上,增加了对示例语句的注意力机制,而得到的新方法。PCNN是在CNN的基础上,改进了模型的输入部分,将一个句子按照两个实体分成三份,分别进行卷积池化等操作再拼接,从而得到更多和实体相关的上下文信息。

针对强假设条件引入的噪声数据问题,该论文给出了解决方案,通过注意力机制,给包中不同的句子分配不同的权重,充分利用包内的信息,进一步减弱错误打标的示例语句产生的噪声。

该论文PCNN+Att的方法,能够给标签中正确分类的示例语句分配较高权重,标签错误分类的示例语句分配较低权重,从而提高分类的准确率。

PCNN+Att模型首先要通过CNN或PCNN对句子进行编码得到句子级特征向量。将句子词语和实体转化为稠密实数向量,然后利用卷积、池化和非线性转换等操作构建起对应的句向量。句向量编码过程下图所示:

得到句子级特征之后,在通过注意力机制,给不同的示例句子赋予不同的权重α1、α2、α3、…、αn,隐式地摒弃一些噪音语料,以此提升分类器的性能。

Distant Supervision for Relation Extraction with Sentence-level Attention and Entity Descriptions[9]

本文提出的模型是在 PCNN + Attention 的基础上添加了实体的描述信息来辅助学习实体的表示,从而提高准确率。
实体信息是从 Freebase 和 Wikipedia 页面中提取的实体描述,用来补充实体关系提取的背景知识,用一个传统的 CNN 模型(一个卷积层和一个最大池化层)从实体描述中提取特征。背景知识不仅为预测关系提供了更多信息,而且为注意力机制模块带来了更好的实体表示。

关系抽取综述及相关顶会论文介绍相关推荐

  1. 紧耦合LIO综述 | 6篇顶会论文看透紧耦合LIO玩儿法(LIOM/LIO-SAM)

    作者 | 无疆WGH  编辑 | 汽车人 原文链接:https://zhuanlan.zhihu.com/p/567254168 点击下方卡片,关注"自动驾驶之心"公众号 ADAS ...

  2. Relation Extraction 关系抽取综述

    文章目录 往期文章链接目录 Information Extraction v.s. Relation Extraction Existing Works of RE Pattern-based Met ...

  3. EMNLP 2019中和BERT相关的一些论文介绍

    点击上方"AI公园",关注公众号,选择加"星标"或"置顶" 作者:Pavel Gladkov 编译:ronghuaiyang 导读 EMNL ...

  4. 深度学习实体关系抽取研究综述笔记

    鄂海红,张文静,肖思琪,程瑞,胡莺夕,周筱松,牛佩晴.深度学习实体关系抽取研究综述.软件学报,2019,30(6): 1793−1818. http://www.jos.org.cn/1000-982 ...

  5. 7篇顶会论文带你梳理多任务学习建模方法

    如果觉得我的算法分享对你有帮助,欢迎关注我的微信公众号"圆圆的算法笔记",更多算法笔记和世间万物的学习记录- 公众号后台回复"多任务",即可获取相关论文资料集合 ...

  6. 关系抽取概述及研究进展Relation Extraction Progress

    关系抽取的概述及研究进展 关系抽取任务概述 关系抽取的定义 关系抽取的公开的主流评测数据集 ACE 2005 SemiEval 2010 Task8 Dataset: NYT(New York Tim ...

  7. ICML2020 | 基于贝叶斯元学习在关系图上进行小样本关系抽取

    今天给大家介绍来自加拿大蒙特利尔大学Mila人工智能研究所唐建教授课题组在ICML2020上发表的一篇关于关系抽取的文章.作者利用全局关系图来研究不同句子之间的新关系,并提出了一种新的贝叶斯元学习方法 ...

  8. “刘知远实验室”的关系抽取实验复现

    最近在做文本的关系抽取,看了一篇论文(NRE论文总结:Attention-Based Bidirectional Long Short-Term Memory Networks for Relatio ...

  9. 基于Bert的实体关系抽取模型

    关注微信公众号:NLP分享汇.[喜欢的扫波关注,每天都在更新自己之前的积累] 文章链接:https://mp.weixin.qq.com/s/OebxnvwjQiVbBZZFL2Un3A 前言 信息抽 ...

  10. 中文电子病历实体关系抽取研究

    摘要 本文首先对电子病历去隐私,制定了隐私信息标注规范,使用条件随机场完成了隐私信息识别模型的构建.  使用992份经去隐私的已标注中文电子病历,首先实现了基于特征的关系抽取方法,通过抽取一些基本特征 ...

最新文章

  1. Jackson 通过自定义注解来控制json key的格式
  2. GetLastError 函数返回值大全
  3. 我说分布式事务之消息最终一致性事务(二):RocketMQ的实现
  4. 2020 操作系统第三天复习(习题总结)
  5. 华为交换机配置Telnet步骤
  6. FB面经Prepare: Dot Product
  7. BSD配置SSH服务
  8. python分布式事务_分布式事务的管理--atomikos
  9. iptables基本知识
  10. labimage 怎样旋转图片_隔断墙见多了,头次见能180旋转任意移动,还多出一面墙来储物...
  11. 08.存储Cinder→5.场景学习→08.Backup Volume→2.实操
  12. 苹果cms播放器html,苹果cms 全局播放器dplayer带后台Dplayer播放器苹果CMSV10插件
  13. 小学生C++编程启蒙
  14. Kde桌面程序启动器程序图标无法显示
  15. windows系统统不支持mysql_Windows系统下MySQL无法启动的万能解决方法
  16. mbit职业测试软件,MBTI职业性格测试(高考专业填报版)(手机版)
  17. vue2和vue3 的 keep-alive的用法
  18. vue基础:ElementUI的表单
  19. matlab示波器导出csv数据,示波器CSV波形数据导入Matlab进行FFT分析
  20. 三相异步电机,直流电机工作原理

热门文章

  1. 如何使用python提高办公效率-提升Python程序运行效率的6个方法
  2. threejs加载模型挤压变形_浙大《Nature》子刊新思路:晶界调控金属纳米结构循环变形行为!...
  3. 查询数据去除后面无用的0_OTM数据库清理超时无效连接--SQLNET.EXPIRE_TIME=10
  4. 正则表达式:JS在一段HTML文字中找出所有img标签的src属性
  5. java课题设计实验报告,JAVA简单记事本程序设计实验报告
  6. java扫码盒_[腾讯 TMQ] JAVA 代码覆盖率工具 JaCoCo-实践篇
  7. OpenCV_cv::Mat的深拷贝 浅拷贝问题
  8. 贝叶斯公式的共轭分布
  9. May the Sunshine be with you!
  10. errors collectiions