文档级关系抽取方法总结
文章目录
- 1 文档级关系抽取
- 1.1 将关系抽取由句子级扩展到文档级的原因
- 1.2 文档级关系抽取数据集DocRED
- 2 图神经网络
- 2.1 图网络结构的分类
- 2.2 GCN
- 3 文档级关系抽取论文总结
- GP-GNN
- GraphRel
- GCNN
- EoG
- LSR
- DyGIE/DyGIE++
1 文档级关系抽取
1.1 将关系抽取由句子级扩展到文档级的原因
目前大多数关系抽取方法抽取单个实体对在某个句子内反映的关系,在实践中受到不可避免的限制:在真实场景中,大量的关系事实是以多个句子表达的。文档中的多个实体之间,往往存在复杂的相互关系。
以下图为例,就包括了文章中的两个关系事实(这是从文档标注的19个关系事实中采样得到的),其中涉及这些关系事实的命名实体用蓝色着色,其它命名实体用下划线标出。为了识别关系事实(Riddarhuset,country,Sweden),必须首先从句子4中抽取Riddarhuset位于Stockholm的关系事实,然后从句子1确定Stockholm是Sweden的首都,以及Sweden是一个国家,最后从这些事实推断出Riddarhuset的主权国家是瑞典。
该过程需要对文档中的多个句子进行阅读和推理,这显然超出了句子级关系抽取方法的能力范围。根据从维基百科采样的人工标注数据的统计表明,至少40%的实体关系事实只能从多个句子联合获取。因此,有必要将关系抽取从句子级别推进到文档级别。
1.2 文档级关系抽取数据集DocRED
19年的ACL上提出了一个关系抽取数据集DocRED,为文档级关系抽取的研究提供了一个非常好的标注数据集,今年的ACL上,就有论文使用DocRED作为语料,提出了文档级关系抽取的模型。
DocRED包含对超过5000篇Wikipedia文章的标注,包括96种关系类型、143,375个实体和56,354个关系事实。这在规模上超越了以往的同类精标注数据集。与传统的基于单句的关系抽取数据集相比,不同之处在于,DocRED中超过40%的关系事实只能从多个句子中联合抽取,因此需要模型具备较强的获取和综合文章中信息的能力,尤其是抽取跨句关系的能力。
2 图神经网络
相比较传统的CNN和RNN,图神经网络能够更好地在文档层面上建立实体之间的联系,从而实现文档级的关系推理。因此在解决文档级实体关系抽取任务中,图神经网络的主流的方法。
2.1 图网络结构的分类
在使用图神经网络时,图的构造是关键的一个环节,根据是否需要区分图中边的类型,可以将图分为异质图和同质图。
- 异质网络图
这种图定义了不同类型的边,边的表示方式因类型不同而有所区别,主要的代表工作是GCNN、EOG。 - 同质网络图 (latent structure)
把所有的边当作同质关系进行处理,利用attention或者其他的方式自动进行区分,主要的代表是LSR。
2.2 GCN
图卷积神经网络是一个很好地在图结构上进行特征抽取的神经网络模型,在图网络上进行卷积,简单的说就是是用=邻接节点的特征,更新节点自己的向量表达,达到特征传递的目的。使用GCN时,首先构建一个无向图,然后计算图的邻接矩阵AijA_{ij}Aij,下面是GCN的一般形式:
这里需要注意的是GCN只能在同质网络图上使用,即不区分边的类型,所有的边在进行特征传递时进行相同的处理。而且上面的GCN一般形式只能在无向图中使用,如果是有向图,则需要针对问题进行调整。
GCN每次卷积过程中,节点通过跟自己相连接的节点的向量表示更新自己的向量表达。下图展示了GCN的卷积过程,第一次卷积操作过后节点使用一阶邻接节点的特征更新自己的状态
第二次卷积操作过后节点使用到了二阶邻接节点的特征
3 文档级关系抽取论文总结
GP-GNN
论文:Graph Neural Networks with Generated Parameters for Relation Extraction
GP-GNN主要解决的是句子级的长距离关系推理。GP-GNN首先用文本序列中的实体构造一个全连接的同质网络图,不区分边的类型,通过编码的方式让模型自动学习边的参数(这也是为什么模型叫做生成参数的GNN的原因)。图构建完成之后使用三个模块来处理关系推理:
编码模块:
该模块的输入是E(xti,j)=[xt;pti,j]E(x^{i,j}_t) = [x_t;p^{i,j}_t]E(xti,j)=[xt;pti,j],其中xtx_txt是单词t的词向量,pti,jp^{i,j}_tpti,j表示单词t与一个实体对的相对位置向量,单词t相对于实体对1,2的位置向量为pt1,2p^{1,2}_tpt1,2。编码模块最终得到一个向量 Ai,j(n)A^{(n)}_{i,j}Ai,j(n) 作为图中边的参数:
Ai,j(n)=[MLPn(BiLSTMn((E(x0i,j),E(x1i,j),...,E(xli,j−1))]A^{(n)}_{i,j}=[MLP_n(BiLSTM_n((E(x^{i,j}_0),E(x^{i,j}_1),...,E(x^{i,j}_l-1))]Ai,j(n)=[MLPn(BiLSTMn((E(x0i,j),E(x1i,j),...,E(xli,j−1))]
传播模块:
使用GCN,在各个节点之间传播关系信息,其中N(vi)N(v_i)N(vi)表示图G中节点viv_ivi的邻接节点。
分类模块:
首先构建两个节点之间的关系表示rvi,vjr_{{v_i},{v_j}}rvi,vj,其中K表示传播模块的层数。
rvi,vj=[[hvi(1)]⊙[hvj(1)];[hvi(2)]⊙[hvj(2)];...;[hvi(K)]⊙[hvj(K)];]r_{{v_i},{v_j}}=[[h^{(1)}_{v_i}]⊙[h^{(1)}_{v_j}];[h^{(2)}_{v_i}]⊙[h^{(2)}_{v_j}];...;[h^{(K)}_{v_i}]⊙[h^{(K)}_{v_j}];]rvi,vj=[[hvi(1)]⊙[hvj(1)];[hvi(2)]⊙[hvj(2)];...;[hvi(K)]⊙[hvj(K)];]
然后使用rvi,vjr_{{v_i},{v_j}}rvi,vj进行关系分类
P(rvi,vj∣h,t,s)=softmax(MLP(rvi,vj))P(r_{{v_i},{v_j}}|h,t,s) = softmax(MLP(r_{{v_i},{v_j}}))P(rvi,vj∣h,t,s)=softmax(MLP(rvi,vj))
GraphRel
论文:GraphRel: Modeling Text as Relational Graphs for Joint Entity and Relation Extraction
GraphRel是一个实体关系抽取联合模型,总体架构图下图所示,包含2个阶段。
第1阶段,首先使用Bi-LSTM对文本输入进行编码,然后构建句子的依存关系树,以Bi-LSTM的编码结果作为输入使用Bi-GCN捕捉依存关系信息。之后利用Bi-GCN的结果,进行第一次实体和关系预测,得到第一阶段的entity loss和relation loss,计算实体间关系的公式如下,其中Wr1,Wr2,Wr3W_r^1,W_r^2,W_r^3Wr1,Wr2,Wr3是可训练的参数,hw1,hw2h_{w1},h_{w2}hw1,hw2是两实体的向量,计算每一对实体的关系得分SSS
第2阶段,为第一阶段结束后,得到了初步的实体和实体间关系,第二阶段以第一阶段预测的实体作为节点,为每种关系建立一个全连接关系图,使用GCN使实体信息充分的交互,然后利用GCN处理过的全连接关系图预测实体之间该关系的概率。这一阶段也得到一个entity loss和relation loss,与第一阶段的entity loss和relation loss相加作为总的loss进行训练
如下图所示,经过第一阶段的预测得到三个实体,一种有三种关系类型,分别是form、alias、non-relation。为三种关系类型构建三个全连接图,以预测每对实体之间的关系。
GCNN
论文:Inter-sentence Relation Extraction with Document-level Graph Convolutional Neural Network
文档的句子之间存在不同的关联,比如共指关系,语义依存关系等。GCNN为不同的关联类型,建立不同的图单独进行图卷积操作,然后将各图的结果相加,达到同时使用多种关联特征的效果。
GCNN一共使用到了5种类型的关联,不同的关联类型构造不同的边,所以GCNN构建的图一共有5种边。由于边的类型不同,所以GCNN构建的图属于异质网络图 。
- Syntactic dependency edge 使用句子内的依存语法树,每种依存关系作为一种类型的边
- Coreference edge 共指边,代表两个指称描述同一个实体
- Adjacent sentence edge 将相邻句子的依存语法树根节点连接构成一种类型的边
- Adjacent word edge 指向相邻单词的边
- Self-node edge 自反边,指向自己的边
GCNN使用的GCN和普通的GCN有一些不同,它只交互一阶相邻节点的信息,并且有K个块,每个块针对一种边进行卷积操作,最后将各个块的结果累加。
GCNN的整个处理过程其实可以看作是用5种关联类型构建了5个图,分别进行图卷积操作,然后将5个图的结果累加。这样做的原因是不同的关联类型代表的含义是不同的,必须加以区分。GCNN最大的亮点就在这里,通过分层巧妙的使用了多种关联关系。
得到节点的表示后使用多示例学习,将上一步得到的结果映射为两个值,这一步的操作和下一步紧密相关,两个值分别用于计算节点是头实体和尾实体时节点间的关系概率。这里多示例学习的原理类似Transformer中的多头注意力,为了捕捉更多样的特征。以关系分类的角度这样做也很合理,因为关系三元组是有向的,节点作为主体和客体时使用的特征也应该不同。
最后将两个通过多示例学习得到的值作为输入,计算两节点间的关系类型
EoG
论文:Connecting the Dots: Document-level Neural Relation Extraction with Edge-oriented Graphs
现有的方法使用基于图神经网络的模型,以实体作为节点,边代表实体之间的关系。这些模型是基于节点的,也就是说,它们仅根据两个目标节点来确定实体间的关系。然而,实体间的边在图神经网络的信息过程中也非常重要,EoG在不同种类节点之间,建立不同类型的边来决定信息流入节点的多少,可以更好的拟合文档之间异构的交互关系。
EoG中的节点分为三类:
- 提及节点M:实体提及(Entity mention),表示输入文档中实体的不同提及,包括实体的简称,指代词等等。提及节点的编码采用实体提及词向量的hidden。
- 实体节点E:实体节点代表独特的实体概念。实体节点的编码采用实体的所有提及向量的平均值。
- 句子节点S:句子节点对应句子。句子节点表示为句子中所有单词表示的平均值。
EoG中有三种类型的节点,所以不同节点间相连接就有6种不同类型的边(不考虑边的指向),分别是MM、ME、MS、ES、SS、EE。其中ME、MS、ES三种边的表达采用两节点向量的拼接,MM边则融入了距离信息和上下文信息,SS边也融入了句子间的距离向量。
ME:如果提及M与实体E关联,则将提及节点连接到实体节点。ME边的表示为 xME=[nm;ne]x_{ME}=[n_m;n_e]xME=[nm;ne]
MS:当提及M位于句子S中时,将提及节点连接到句子节点。MS边的表示为 xMS=[nm;ns]x_{MS}=[n_m;n_s]xMS=[nm;ns]
ES:当实体E位于句子S中时,将实体节点连接到句子节点。ES边的表示为 xES=[ne;ns]x_{ES}=[n_e;n_s]xES=[ne;ns]
MM:提及节点到提及节点之间的边构建要稍微复杂一点,EoG只连接同一个句子中的两个有关联的mention,不同句子中有关联的mention通过句子节点连接。每个提及对mim_imi和mjm_jmj之间的MM边的表示,由三种向量拼接而成:分别是两节点的表示nmin_{mi}nmi和nmjn_{mj}nmj、上下文特征信息cmi、mjc_{mi、mj}cmi、mj以及两个提及之间的距离嵌入dmi、mjd_{mi、mj}dmi、mj,即xMM=[nmi;nmj;cmi,mj;dmi,mj]x_{MM}=[n_{mi};n_{mj};c_{mi,mj};d_{mi,mj}]xMM=[nmi;nmj;cmi,mj;dmi,mj]。其中上下文特征信息cmi、mjc_{mi、mj}cmi、mj使用了一个简单的注意力机制:
k={1,2}k=\{1,2\}k={1,2}表示两个提及,wiw_iwi表示两个提及所在的句子中的word。SS:每个句子节点都和其他的句子节点两两相连,SS边的表示由两节点的表示nsin_{si}nsi和nsjn_{sj}nsj和距离向量dsi、sjd_{si、sj}dsi、sj拼接而成,xSS=[nsi;nsj;dsi,sj]x_{SS}=[n_{si};n_{sj};d_{si,sj}]xSS=[nsi;nsj;dsi,sj]。其中距离向量 dsi、sj∈[SSdirect,SSindirect]d_{si、sj}∈[SS_{direct},SS_{indirect}]dsi、sj∈[SSdirect,SSindirect],当两个句子为相邻句时,dsi、sj=SSdirectd_{si、sj} = SS_{direct}dsi、sj=SSdirect(距离等于1),当两个句子不相邻时,dsi、sj=SSindirectd_{si、sj} = SS_{indirect}dsi、sj=SSindirect(距离>1)。
建立不同种类的边表示节点间的关系,最终的目的还是寻找实体EE之间是否存在关系,所以需要将异构的不同类型的边进行转换以能够进行计算。
ez(1)=Wzxze^{(1)}_z =W_zx_zez(1)=Wzxz
ez(1)e^{(1)}_zez(1)表示一个经过转换后的长度为1的边,Wz∈Rdz×dW_z∈R^{dz×d}Wz∈Rdz×d对应一个参数矩阵,z∈[MM,MS,ME,SS,ES]z∈[MM,MS,ME,SS,ES]z∈[MM,MS,ME,SS,ES]。
EoG在构建图时,不会将两个实体连接,这意味着没有直接的实体到实体(EE)的边。EoG通过节点之间的路径来生成实体到实体之间的联系,通过两步推理机制对图中节点和边之间的交互进行编码,从而对EE关联进行建模。
第一步,利用中间节点kkk在两个节点iii和jjj之间生成一条路径,然后计算:
其中σ是sigmoid非线性函数,Wz∈Rdz×dW_z∈R^{dz×d}Wz∈Rdz×d是一个参数矩阵,lll是边的长度,eike_{ik}eik对应于节点iii和kkk之间的边的表示。
第二步,用上一步得到的原始(短)边表示和新的(长)边表示进行聚合,如下所示:
其中β∈[0,1]β∈[0,1]β∈[0,1]是一个对远近关系进行控制的超参数,βββ越大表示对直接连接(近距离关系)的注意程度越高。
这两个步骤重复N次,迭代次数与边缘表示的最终长度相关。经过N次迭代,边的长度将达到2N。
经过上一步的推理过程之后,图中的信息经过不断循环流动,实体之间的信息充分交互,最后使用softmax分类器进行关系分类:
LSR
论文:Reasoning with Latent Structure Refinement for Document-Level Relation Extraction
本文提出的模型将图结构视为一个潜在变量,并以端到端的方式对其进行归纳。模型建立在结构化注意力的基础上。使用矩阵树定理的变体,能够生成任务特定的依赖结构,以捕捉实体之间的非局部交互。作者还提出了一种迭代策略,使模型能够基于上一次迭代动态地构建潜在结构,从而使模型能够不断地通过迭代捕获复杂的交互信息,改进整个文档中的信息聚合,从而更好地进行多跳推理。
简单的说就是,LSR构建了一个同质网络,不区分边的类型,通过节点信息的传播来更新边的表示,通过动态更新自动的学习到哪些边更重要,从而增强对远程关系的推理能力。
LSR模型由三个部分组成:节点构造函数、动态推理器和分类器。节点构造函数首先对输入文档的每个句子进行编码并输出上下文表示。句子中最短依赖路径上的token和提及相对应的表示被提取为节点,实体节点根据提及节点生成。然后应用动态推理器根据提取的节点归纳出文档级结构。基于潜在结构上的信息传播来更新节点的表示,并对其进行迭代优化。分类器使用节点的最终表示来计算分类分数。
LSR中节点的构造:
- MDP元依赖节点:MDP表示一个句子中所有提及的最短依赖路径集,在MDP元依赖路径中,引用和单词的表示分别被提取为提及节点和MDP节点。
- mention提及节点:mention内部单词平均池化得到。
- entity实体节点:与entity相关联的所有mention的平均值。
LSR中节点的构造与EoG有一点不同。LSR和EoG都有实体节点和提及节点且构建方式是一样的,但LSR中没有句子节点,而是用MDP元依赖节点代替,这样的优点是可以有效地利用相关信息而忽略无关信息。
节点的编码方式,可以使用bert或者LSRM,以BiLSTM为例:
使用两个方向的隐藏层向量的拼接作为token的向量,是很常规的做法。
动态推理器有两个模块,结构归纳模块和多跳推理模块。结构归纳模块用于学习文档级图的潜在结构。多跳推理模块用于对潜在结构进行推理,根据图中节点的信息聚合更新每个节点的表示。
LSR对于不同的节点之间采用相同的方式来计算概率,作为边的表示:
这个公式的含义可以理解为利用attention的方式计算两个节点之间的关联度,其中Wp∈Rd×dW_p∈R^{d×d}Wp∈Rd×d和Wc∈Rd×dW_c∈R{d×d}Wc∈Rd×d是两个前馈神经网络的权值,ddd是节点表示的维度,tanh作为激活函数。Wb∈Rd×dW_b∈R^{d×d}Wb∈Rd×d是双线性变换的权值。
第i个节点被选为结构根节点的非规范化概率sirs_i^rsir:
其中Wr∈R1×dW_r∈R^{1×d}Wr∈R1×d是线性变换的权重。
接下来计算文档级图的每个依赖边的表示。对于有n个节点的图G,我们首先给图的边赋非负权P∈Rn×nP∈R^{n×n}P∈Rn×n:
其中PijP_{ij}Pij是第i个节点和第j个节点之间的边的权重。然后定义G的拉普拉斯矩阵L∈Rn×nL∈R_{n×n}L∈Rn×n,和它的变量L∗∈Rn×nL^*∈R_{n×n}L∗∈Rn×n:
最终计算出AijA_{ij}Aij作为文档级实体图的加权邻接矩阵,然后使用AijA_{ij}Aij构建GCN网络,在多跳推理模块中更新潜在结构中节点的表示。
LSR基于图卷积网络GCN来进行推理。用由前一个结构归纳模块导出的n×n邻接矩阵AijA_{ij}Aij,第l层节点i的卷积计算(以前一层的表示uil−1u^{l-1}_iuil−1作为输入并输出更新的表示uilu^l_iuil)可以定义为:
其中,WlW^lWl和blb^lbl分别是第l层的权重矩阵和偏移向量。σ是ReLU激活函数。ui0∈Rdu_i^0∈R^dui0∈Rd是由节点构造函数构造的第i个节点的初始上下文表示。
LSR还使用了多层图网络密集连接,以便在大型文档级图上捕获更多的结构信息。在密集连接的帮助下,能够训练一个更深层次的模型,捕捉更丰富的局部和非局部信息,以学习更好的图形表示。这个密集连接的图网络和多头注意力机制的原理相似,而联想到图中边是根据两个节点经过注意力计算得到的,可以推测密集连接和多头注意力的效果相似,可以捕获图中不同的特征信息。
为了能够推断出超出简单父子关系的更丰富的结构信息,使用N个动态推理块来多次归纳文档级结构。通过与更丰富的非本地信息的交互,结构变得更加细化,归纳模块能够生成更合理的结构。
经过上述动态推理器的信息传递后,结果被输入进一个分类器对图中的实体节点对进行关系分类。
其中,We∈Rd×k×dW_e∈R^{d×k×d}We∈Rd×k×d和be∈Rkb_e∈R^kbe∈Rk是可训练的权值和偏差,k是关系类型的数量,σ是sigmoid激活函数,方程右边的下标r是关系类型。
DyGIE/DyGIE++
论文:A General Framework for Information Extraction using Dynamic Span Graphs
DyGIE/DyGIE++构建了一个动态图,动态图与静态图的不同在于静态图构建时其节点是确定的,进行关系传播的过程中节点不会变化,而动态图节点不确定,关系传播的过程中节点会变化。
DyGIE使用片段分类的方法,首先列举出所有可能的片段,然后从候选span中选取一些比较有可能是实体的span片段,然后用这些片段作为图中的节点,并使用权重为置信度的关系类型以及共指关系连接这些节点。通过共指关系和关系类型构建的边进行信息传播,迭代地更新span的表示。
模型的输入采用字符表示、GLoVe词嵌入和ELMo嵌入的拼接,编码层采用Bi-LSTM。
得到字符的编码后,用枚举的方式列举出所有可能的span,对于每个span sis_isi,使用字符特征和宽度特征的拼接作为其向量表达,用gi0g_i^0gi0表示。
得到初始的span向量表示后,接下来先进行共指传播。首先定义一个beam BCB_CBC,由最可能出现在共指链中的bcb_cbc个span组成。共指关系图的边是单向的,当前的节点sis_isi和其在共指beam中潜在的父节点sjs_jsj有一条边连接。sis_isi和sjs_jsj间边的权重由在当前迭代中的共指可信度得分PCt(i,j)P_C^t(i,j)PCt(i,j)决定,PCtP_C^tPCt大小为bc×Kb_c×Kbc×K,其中K为候选父节点数量的最大值。通过聚合邻居span的表示gjtg_j^tgjt,以共指分数PCt(i,j)P_C^t(i,j)PCt(i,j)作为权重,计算更新向量uCt(i)∈Rdu_C^t(i)∈R^duCt(i)∈Rd
其中BC(i)B_C(i)BC(i)是当前的节点sis_isi的KKK个父节点span组成的集合。
共指可信度得分PCt(i,j)P_C^t(i,j)PCt(i,j)的计算方式如下:
其中VCt(i,j)V_C^t(i,j)VCt(i,j)是通过拼接span的表示[git,gjt,git⊙gjt][g_i^t,g_j^t,g_i^t⊙g_j^t][git,gjt,git⊙gjt]计算得到的标量分值,其中⊙⊙⊙表示元素级别的相乘。将拼接后的向量输入到FFNN中,得到标量分值VCt(i,j)V_C^t(i,j)VCt(i,j),通过VCt(i,j)V_C^t(i,j)VCt(i,j)计算PCt(i,j)P_C^t(i,j)PCt(i,j)。
共指传播后,再进行关系传播,关系传播的方式和共指传播类似。对于每个句子,定义一个beam BRB_RBR,由brb_rbr个最有可能有关联的实体spans组成。和共指关系图不同,此处关系图中边的权重捕获了不同关系类型的信息。因此,在第t次迭代中,使用一个张量VRt∈RbR×bR×LRV^t_R∈R^{b_R×b_R×L_R}VRt∈RbR×bR×LR来捕获每种关系类型LRL_RLR的分值。也就是说,关系图中的边连接了关系beam BRB_RBR中两个实体span sis_isi和sjs_jsj。通过聚合关系图中的相邻span的表示,得到关系更新向量uRt(i)∈Rdu^t_R(i)∈R^duRt(i)∈Rd:
VRt(i,j)V_R^t(i,j)VRt(i,j)是通过将[git,gjt][g^t_i,g^t_j][git,gjt]作为输入,通过一个FFNN得到的长为LRL_RLR的关系分值向量。
为了计算下一次迭代t∈1,...,N+Mt∈1,...,N+Mt∈{1,...,N+M}t∈{1,...,N+M}t∈1,...,N+Mt∈1,...,N+M的span的表示,作者定义了一个门向量fxt(i)∈Rd,x∈C,Rf_x^t(i)∈R^d,x∈{C,R}fxt(i)∈Rd,x∈C,R,来权衡对先前span表示gitg_i^tgit的保留以及对共指链接/关系的更新向量uxt(i)u_x^t(i)uxt(i)新信息的引入。计算公式如下:
文档级关系抽取方法总结相关推荐
- 论文小综 | 文档级关系抽取方法(下)
本文作者: 陈想,浙江大学在读博士,研究方向为自然语言处理 张宁豫,浙江大学助理研究员,研究方向为自然语言处理.知识表示与推理 这篇推文是文档级关系抽取方法的第二部分,前面的部分请移步推文" ...
- 论文小综 | 文档级关系抽取方法(上)
本文作者: 陈想,浙江大学在读博士,研究方向为自然语言处理 张宁豫,浙江大学助理研究员,研究方向为自然语言处理.知识表示与推理 1. 前言 关系抽取(Relation Extraction, RE)是 ...
- 文档级关系抽取方法,EMNLP 2020 paper
向AI转型的程序员都关注了这个号???????????? 人工智能大数据与深度学习 公众号:datayx 目前大多数关系抽取方法抽取单个实体对在某个句子内反映的关系,在实践中受到不可避免的限制:在真 ...
- 文档级关系抽取:QIUXP:DORE: Document Ordered Relation Extraction based on Generative Framework
DORE: Document Ordered Relation Extraction based on Generative Framework 文档级关系抽取是从整篇文档中抽取出三元组.更难,但也很 ...
- 达摩院文档级关系抽取新SOTA和零样本关系抽取新任务
©作者 | 邴立东.谭清宇.谢耀赓 单位 | Alibaba DAMO, NUS, SUTD 引言 关系抽取(RE)是 NLP 的核心任务之一,是构建知识库.事件抽取等下游应用的关键技术.多年来受到研 ...
- 文档级关系抽取:A Densely Connected Criss-Cross Attention Network for Document-level Relation Extraction
提示:文档级关系抽取相关论文 A Densely Connected Criss-Cross Attention Network for Document-level Relation Extract ...
- 达摩院文档级关系抽取新数据集和五元组抽取新任务
©PaperWeekly 原创 · 作者 | 邴立东.谭清宇等 单位 | Alibaba DAMO, NUS, SUTD 关系抽取(RE)是 NLP 的核心任务之一,是构建知识库.事件抽取等下游应用的 ...
- 入门文档级关系抽取_数据集DocRED、CDR、GDA
作为学习文档级关系抽取的短暂总结与记录.主要是相关数据集问题,如果能帮助到其他人,我也是很开心的. 文档级关系抽取论文 网上有很多文档级关系抽取的综述,他们会告诉你有哪些经典文献需要阅读,我就不再搬运 ...
- 谈谈我对NLP文档级关系抽取中Ign_F1指标的理解(Ign_F1与F1的关系)
因为Ign_F1这个参数网上所解释的内容都是一致的,并且不太好理解 于是我就特地请教了YX师兄 这里特地感谢1107实验室YX师兄 F1分数 F1为精确率和召回率的调和平均数(为下部分做准备) 对于查 ...
- nlp中的实体关系抽取方法总结
点击上方,选择星标或置顶,每天给你送干货! 阅读大概需要35分钟 跟随小博主,每天进步一丢丢 来自:知乎 地址:https://zhuanlan.zhihu.com/p/77868938 作者:Jay ...
最新文章
- VC小技巧(三)视图
- java is start_PHP IntlChar::isJavaIDStart()用法及代码示例
- 程序员项目_您如何让程序员加入您的项目?
- 华为鸿蒙重磅更新,华为重磅官宣!鸿蒙系统升级机型遭曝光:多达55款产品支持升级...
- 苹果电脑 默认安装jdk位置_CH01_JDK安装和配置(含macOS)
- 屏幕方向调节---LANDSCAPE与PORTRAIT
- 3-unit4 postfix+mysql
- neural-style风格迁移模型实战
- P2627 [USACO11OPEN]Mowing the Lawn G (单调队列优化dp)
- http301重定向IIS 301重定向域名转向新旧域名更替
- 计算机组成原理<四>——数据的表示和运算(下)
- 国内云建设普遍缺失的一环:云管理平台
- 全局函数声明和静态函数声明
- CentOS8 编译安装tsar nagios + nagios-plugins + nsca
- 入门级蓝牙遥控小车制作教程
- python绘制缓和曲线_在cad中画缓和曲线的绘制方法
- 详细讲解Html语言的书,HTML语言基础讲解.ppt
- 陈力:传智播客古代 珍宝币 泡泡龙游戏开发第37讲:HTTP协议请求(响应)
- JavaScript实战之简单的抽签器
- Android解析xml的方法,Android中解析XML格式数据的方法
热门文章
- 计算机启动与故障修复工具,Windows7异常启动的故障修复
- TypeScript实战:下棋游戏
- sweetalert2使用教程
- 2020中国年度AI评选结果揭晓!领航企业、商业人物、创新产品……AI落地最佳参考就在这里
- 论文翻译 | ORB-SLAM3:一个用于视觉、视觉惯性和多地图SLAM系统
- SLAM:无人系统和增强现实overview
- (CVPR2019)图像语义分割(17)-DFANet:用于实时语义分割的深层特征聚合网络
- python数据分析之(3)pandas
- 深度学习三种分割定义
- 《算法竞赛进阶指南》0.1位运算