笔记整理 | 黄一凡,东南大学本科生


来源:AAAI2020

链接:https://arxiv.org/pdf/2001.01447v1.pdf

一、简介

作者意识到在利用预训练模型进行实体链接时,往往会将类别信息忽略,因此会导致模型将指称链接到拥有错误类别的错误实体。为了验证这一发现,作者对DeepED(Ganea and Hofmann 2017)在AIDA-CoNLL的验证集上的结果进行分析,发现超过一半的错误中,类别信息都不匹配。原因有二:一是词袋模型忽视了位置信息;二是DeepED采取的预训练模型编码方式对实体的类别信息不敏感。

为了解决上述问题,本文提出将待链接指称的前后相邻词建模,从而考虑潜在的类别信息。另外,本文还将一个基于BERT的实体相似度特征纳入原始模型,使其可以更好地注意类别信息。

二、贡献

a)指出当前基于注意力机制的模型常常会将某一指称链接到不属于同一类别的实体并分析其可能成因。

b)提出一个全新的基于BERT的实体表示方法,可以更好地注意到潜在类别信息。

c)将基于BERT的实体相似度特征纳入DeepED。

d)在标准benchmark数据集上验证了该模型的有效性,并有显著提高。此外,该模型可以更正大部分类别错误。

三、模型

该模型包含两个阶段:1)基于BERT构造实体表示 2)在模型中加入实体相似度特征

3.1、基于BERT的实体表示

3.1.1、上下文表示

一个指称的相邻文本可以代表其类别信息。因此,我们通过提取预训练BERT模型的最顶层表示来表示上下文:

3.1.2、实体表示

对于每一个实体,随机从维基百科采样N个上下文信息,接着用平均池化表示该实体:

3.2、基于BERT的实体相似度

使用上下文表示和实体表示间的cosine相似度定义实体相似度:

最终,采用两个拥有100个隐藏单元和ReLU激活函数的全连接层将计算得到的实体相似度与原模型结合:

四、实验

4.1、数据集

为了全面的评估该模型的效果,作者分别测试了该模型的in-domain和out-domain效果。

对于in-domain,使用AIDA-CoNLL数据集进行训练、验证以及测试;对于out-domain,使用AIDA-CoNLL训练集上训练的模型,在五个流行的数据集上进行测试:MSNBC,AQUAINT,ACE 2004,WNED-CWEB,WNED-WIKI。

4.2、设置

为了与DeepED模型进行对比,候选指称生成采用了与其相同的方法,同时只考虑在知识库中存在的指称。

4.3、结果

该表展示了在in-domain设置下本文提出的模型与其他SOTA模型在AIDA-B数据集上的F1得分对比。可以发现,不论是在local模型还是global模型,该模型均取得了显著的提高。

另外,在out-domain中,平均来看,本文提出的模型相对原有模型也有着一定的模型。由此可见,该模型的鲁棒性较好。

4.4、分析

a)为了验证该模型可以更好地获取类别信息,作者进行了一个基于该模型的类别预测实验。实验从维基百科中随机采样了10万个实体,并预测它们的类别。最终结果验证了作者的猜想。

b)该模型可以大大减少类别错误。作者还更进一步分析了依然存在的类别错误,并将其成因分为三类:先验知识、全局信息和上下文信息,并会在今后根据此进一步对模型进行改进。

c)经过实验进一步发现,如果使用表现更好的全局模型,该模型的效果还会进一步提高。

五、总结

本文提出提取潜在的类别信息来提高实体链接的表现,实验表明该模型无论在in-domain还是out-domain都可以提高表现。在未来,作者还将进一步研究全局模型处理方法来进一步提高实体链接的准确率。


OpenKG

开放知识图谱(简称 OpenKG)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 网站。

论文浅尝 | 基于潜在类别信息的实体链接相关推荐

  1. 论文浅尝 | 基于多模态特征的视觉实体链接

    转载公众号 | 数据智能英文刊 文章题目:Visual Entity Linking via Multi-modal Learning 作者:郑秋硕,闻浩,王萌,漆桂林 引用:Zheng, Q.S., ...

  2. 论文浅尝 - EMNLP2020 | 低资源跨语言实体链接中的设计挑战

    论文笔记整理:谭亦鸣,东南大学博士. 来源:EMNLP 2020 链接:https://arxiv.org/pdf/2005.00692.pdf 1.背景介绍 跨语言实体链接(XEL)旨在将任一非英语 ...

  3. ###好好好#######论文浅尝 | 基于图注意力的常识对话生成

    论文浅尝 | 基于图注意力的常识对话生成 OpenKG 祝各位读者新春快乐,猪年吉祥! 来源:IJCAI 2018. 论文下载地址:https://www.ijcai.org/proceedings/ ...

  4. 论文浅尝 | 基于知识库的自然语言理解 04#

    本文转载自公众号:知识工场. 罗康琦,上海交通大学计算机系2019届博士,研究方向为自然语义理解和知识图谱.2012年获得华中科技大学软件工程学士学位,现就职于京东数据科学实验室(Data Scien ...

  5. 论文浅尝 | 基于知识库的自然语言理解 03#

    本文转载自公众号: 知识工场. 罗康琦,上海交通大学计算机系2019届博士,研究方向为自然语义理解和知识图谱.2012年获得华中科技大学软件工程学士学位,现就职于京东数据科学实验室(Data Scie ...

  6. 论文浅尝 | 基于知识库的自然语言理解 01#

    本文转载自公众号:知识工场. 罗康琦,上海交通大学计算机系2019届博士,研究方向为自然语义理解和知识图谱.2012年获得华中科技大学软件工程学士学位,现就职于京东数据科学实验室(Data Scien ...

  7. 论文浅尝 | 基于知识库的自然语言理解 02#

    本文转载自公众号:知识工场. 罗康琦,上海交通大学计算机系2019届博士,研究方向为自然语义理解和知识图谱.2012年获得华中科技大学软件工程学士学位,现就职于京东数据科学实验室(Data Scien ...

  8. 论文浅尝 | 基于多模态关联数据嵌入的知识库补全

    链接:https://arxiv.org/pdf/1809.01341.pdf 动机(摘要) 当前的知识库补全的方法主要是将实体和关系嵌入到一个低维的向量空间,但是却只利用了知识库中的三元组结构 (& ...

  9. 论文浅尝 | 基于神经网络的实体识别和关系抽取联合学习

    本文转载自公众号:PaperWeekly. 作者丨罗凌 学校丨大连理工大学博士生 研究方向丨深度学习,文本分类,实体识别 联合学习(Joint learning)一词并不是一个最近才出现的术语,在自然 ...

最新文章

  1. 面试时写不出排序算法?看这篇就够了
  2. 风之语.甲骨文裁员之我见
  3. - 运算符(C# 参考)
  4. 大厂都想做的乙女游戏,真就迎来爆发期了?
  5. spring总结_Spring综合课程总结
  6. Leetcode--448. 找到所有数组中消失的数字
  7. 钉钉电脑版怎么创建共享文件 钉钉文件共享的方法
  8. 数学发展史中最重要的4个阶段
  9. 20191026(补):(leetcode习题)最长的斐波那契子序列的长度
  10. python结束线程类_Python线程指南(转)
  11. bzoj 3262: 陌上花开(cdq分治)
  12. VScode环境配置C/C++
  13. Ajax调用服务器端C#方法
  14. 【MATLAB】图像分割
  15. 个性签名html,经典个性签名-2021最新QQ经典-QQ经典个性签名-腾牛个性网
  16. 常用计算机病毒防治办法,计算机病毒防治方法
  17. python程序只能在安装了python环境的计算机上_Python程序只能在安装了Python环境的计算机上以源代码形式运行。...
  18. Axure 高保真 日期选择器实现 可选任意年/月/日
  19. 【品牌专场】跨越 X 突破,音视频聚力新机遇
  20. 分享一些C++软件开发后台开发复习必备电子书单

热门文章

  1. Google Maps API 简易教程(四)
  2. POJ 3694 Network
  3. extern关键字讲解
  4. 有意思的select~
  5. Python3——多线程之threading模块
  6. 西门子s7-200解密软件下载_西门子S7-200/300/400通讯方式汇总,超级全面
  7. 【Pytorch神经网络理论篇】 14 过拟合问题的优化技巧(一):基本概念+正则化+数据增大
  8. 智慧交通day02-车流量检测实现09:SORT/deepSORT
  9. Express接口综合案例(创建项目、配置常用中间件、路由设计、提取控制器模块、配置错误统一处理中间件、用户注册的数据验证,密码加密)
  10. MongoDB 的高级查询 aggregate 聚合管道