Do Pre-trained Models Benefit Knowledge Graph Completion? A Reliable Evaluation and a Reasonable Approach.(Finding of ACL 2022)

论文开源代码-github

提出背景

预训练模型被证明可以从文本中获得真实的知识,这促使着基于PLM的知识图谱补全(Knowledge graph completion, KGC)模型的提出,然而这些模型在性能上远远落后于KGC任务的SOTA

比KGE的Hits@10中的SOTA模型低约20.8%

作者认为主要有以下两个原因:

1.封闭世界假设(Closed World Assumption, CWA)的设置会限制基于PLM的KGC模型,预训练模型引入了很多的外部知识。

2.大多数基于PLM的KGC模型只是简单拼接实体和关系的标签作为输入,导致句子不连贯,没有充分利用PLM中的隐性知识。

封闭世界假设 (Closed-world assumption, CWA)认为, 在给定的知识图谱中没有出现的三元组是错误的。我们可以很容易在 CWA 下评估没有标注的模型的性能。然而,CWA 本质上是一种近似,不能保证评估结果的准确性。

开放世界假设 (Open-world assumption, OWA)认为知识图谱中包含的三元组是不完备的。因此,开放世界假设下的评估更准确、更接近真实场景,但需要额外的人工标注,仔细验证知识图谱中不存在的完整三元组是否正确。

对于一个三元查询(England, contains, ?),基于PLM的KGC模型给出了许多正确的尾实体,但在CWA下只有Pontefract 被认为是正确的,因为它存在于KGs中。

模型介绍

基于PLMKGC模型PKGC,可以更好的诱导隐藏在PLM参数中的隐性知识和KGs中的结构化知识。

给定一个三元组,我们将它的信息填入到三元组模板(triple prompts)和支持模板(support prompts)中。

最终模板T = [CLS] P^T P^S[SEP],[CLS]的输出用来预测给定三元组的类别(label)。

另一方面我们将正/负例的三元组输入到我们的模型中进行三元组分类。

三元组模板 P^T  :对于每个关系,手动为其设计了一个hard模板,以关联三元组的语义。例如体育关系成员的hard模板为“[X] plays for [Y]”,将[X]和[Y]替换成头实体和尾实体,同时在其中添加一些soft提示。

支持模板P^S:除了知识图谱本身的三元组信息,我们还为模板中添加如定义和属性的支持信息。为了避免模型过于复杂,为实体随机选择一个属性。模型并不要求所有支持信息都要呈现。如果不存在,就不要添加相应的信息。

模型下三元组分类任务示意图

soft prompt 嵌入位置示意

支持模板的设计

数据集构建及实现细节

在实验中,本文使用了两个主要的数据集,分别来自 Wikidata Freebase

Wiki27K构建的详细步骤:

(1)从四个方面对实体进行评分:实体出现频率实体是否有英文维基百科链接实体是否有非英文维基百科链接实体是否有 Freebase链接,从得分排名前3万个实体中随机选取27122个实体形成我们的实体集 E。

(2)将关系按频率由高到低选出前 200 个关系,与CoDEx和LAMA中的数据集中的关系并在一起组成关系集合R。

(3)在wikidata里选择在存在于E和R中的句子中提取三元组。

(4)随机洗牌它们,并以8:1:1的比例组成训练集/验证集/测试集。

(5)R中如果存在对称关系(即如果(h, r, t)成立,那么(t, r, h)也成立),如果(h, r, t)存在于训练集,(t, r, h)存在于验证集或测试集,模型就能够轻松做出预测。为了避免这种信息泄露,对于每个对称关系 r,如果(t, r, h)在 验证集或测试集,我们从训练集中删除(h, r, t)。

FB15K-237和FB15K237-N构建的详细步骤:

(1)Freebase中存在许多CVT节点(CVT可以被认为是一个不需要展示名称的主题),这些节点会不恰当地提高模型的准确性。文中通过去除FB15K-237中的CVT节点获得数据集FB15K237-N。

(2)为了增加三分类的难度,我们在FB15K-237-N的基础上增加负例三元组构建数据集FB15K237-NH。该数据集仅用于三元分类。具体来说,对于验证集和测试集中的每一个正例三元组(h, r, t),我们使用TransE做链接预测,并使用概率最高的非答案实体替换缺失实体,做负例。

召回和重排序框架

链接预测需要大量的计算,基于PLM的模型的运行效率远远低于KGE模型。为了缓解这一问题,对于三元组查询(h, r,  ?),我们首先使用KGE模型(实验中使用TuckER)来获得头尾部实体的排序。之后,我们选择排名前X的实体,并使用基于PLM的KGC模型重新计算得分。基于这些分数,我们可以对排名前X的实体重新排序。

最终数据集示意

训练任务及评价方法

知识图谱补全认为旨在为知识图谱补全缺失的三元组,评估这一任务主要有两种方法链接预测三元组分类,前者主要为三元查询(h, r, ?)或(?, r, t),后者旨在判断给定的三元组(h, r, t)是否正确。

模型在包含正例/负例的三元组数据集上进行任务。

负例三元组由两种类别的数据组成:(1)随机替换原三元组中的头实体或尾实体。(2)通过将头实体或尾实体替换为KGE模型认为概率高的另一个实体。

用一个超参数α来控制两种负例的比例,同时用一个超参数K来控制正例和负例的比例。

链接预测任务:给出每个实体为缺失实体的概率的降序排列,使用MRRHits@NCR@1(新的基于开放世界假设的评估方法)作为评价指标。

三元组分类任务:本质上是一个二元分类任务,使用准确率和 F1 作为评价指标。

链接预测结果对比

三元组分类结果对比

分析与展望

Q1PLMs 在海量的文本中看到了很多事实。是不是因为它们记住了这些事实,才帮助我们的模型取得了更好的结果

A:有一定的原因

设计一个基于远程监督的实验,具体的来说,对于一个三元组(h, r, t),如果h和t出现在Wikipedia的一个句子中,我们认为这句话暗示了(h, r, t)的事实。

使用BERT-large作为模型的基座模型,因为它主要是在Wikipedia上预训练。

将测试集分成几个不相交的部分,并测试PKCGConvETuckER在测试集上的性能。PLMs见过更多的三元组所以表现更好。

Q2:引入的PLMs能使我们的模型对训练数据量不那么敏感吗

A:是的

本文的模型是基于PLMs。因此我们推测基于PLMs的模型对训练数据量不敏感。为了验证这一点,我们使用不同比例的训练集训练模型,并测试其性能。

PKCG只是随着用于训练的数据量的减少而略有下降,具有用于稀疏知识图谱补全的潜力。作为对比, KGE 模型ConvETuckER的性能都显著下降。

Q3:近年来出现了一些包含知识的PLMs。使用它们能给我们的模型带来更好的结果吗

A:有一定作用的

我们通过改变基座模型在 FB15K-237-N和 Wiki27K上进行实验。

BERT 主要在维基百科语料库上训练,包含更多的事实知识。

KEPLER:结合掩蔽语言建模和知识表示学习这两个训练目标,基座模型Roberta。

LUKE:大量实体注释语料,提出实体感知自注意力机制,基座模型Roberta。

Q1和Q2的实验结果图

Q3的对比实验

论文阅读《Do Pre-trained Models Benefit Knowledge Graph Completion?A Reliable Evaluation and a Reasonab》相关推荐

  1. 《基于卷积神经网络的深度迁移学习,用于燃气轮机燃烧室的故障检测》论文阅读

    目录 突出 抽象 引言 1.1动机 1.2文献综述获得的结论 1.3贡献 1.4组织 2方法 2.1燃汽轮机组故障知识共享 2.2迁移学习 2.3 基于卷积神经网络的深度迁移学习 2.4用于燃气轮机燃 ...

  2. 基于卷积神经网络和投票机制的三维模型分类与检索 2019 论文笔记

    作者:白静 计算机辅助设计与图形学学报 1.解决的问题 由于三维模型投影得到的视图是由不同视点得到,具有相对独立性,这种像素级的融合运算并没有直接的物理或者几何意义,更有可能造成图像有益信息淹没和混淆 ...

  3. TextCNN——基于卷积神经网络的文本分类学习

    1.CNN基础内容 CNN的全称是Convolutional Neural Network,是一种前馈神经网络.由一个或多个卷积层.池化层以及顶部的全连接层组成,在图像处理领域表现出色. 本文主要学习 ...

  4. 读懂深度迁移学习,看这文就够了 | 赠书

    百度前首席科学家.斯坦福大学副教授吴恩达(Andrew Ng)曾经说过:迁移学习将是继监督学习之后的下一个促使机器学习成功商业化的驱动力. 本文选自<深度学习500问:AI工程师面试宝典> ...

  5. 一种基于卷积神经网络的图像去雾研究-含matlab代码

    目录 一.绪论 二.去雾卷积网络 2.1 特征提取 2.2 多尺度映射 2.3 局部均值 2.4 非线性回归 三.实验与分析 四.Matlab代码获取 一.绪论 雾是一种常见的大气现象,空气中悬浮的水 ...

  6. 机械臂论文笔记(一)【基于卷积神经网络的二指机械手 抓取姿态生成研究 】

    基于卷积神经网络的二指机械手 抓取姿态生成研究 论文下载 摘要 第1章 绪论 1.1 抓取生成国内外研究现状 1.1.1已知物体抓取生成 1.1.2相似物体抓取生成 1.1.3 未知物体抓取生成 1. ...

  7. 毕业设计 - 基于卷积神经网络的乳腺癌分类 深度学习 医学图像

    文章目录 1 前言 2 前言 3 数据集 3.1 良性样本 3.2 病变样本 4 开发环境 5 代码实现 5.1 实现流程 5.2 部分代码实现 5.2.1 导入库 5.2.2 图像加载 5.2.3 ...

  8. 基于卷积神经网络与迁移学习的油茶病害图像识别

    基于卷积神经网络与迁移学习的油茶病害图像识别 1.研究思路 利用深度卷积神经网络强大的特征学习和特征表达能力来自动学习油茶病害特征,并借助迁移学习方法将AlexNet模型在ImageNet图像数据集上 ...

  9. Python深度学习实例--基于卷积神经网络的小型数据处理(猫狗分类)

    Python深度学习实例--基于卷积神经网络的小型数据处理(猫狗分类) 1.卷积神经网络 1.1卷积神经网络简介 1.2卷积运算 1.3 深度学习与小数据问题的相关性 2.下载数据 2.1下载原始数据 ...

  10. 基于卷积神经网络实现图片风格的迁移 1

    卷积神经网络详解 一.实验介绍 1.1 实验内容 Prisma 是最近很火的一款APP,它能够将一张普通的图像转换成各种艺术风格的图像.本课程基于卷积神经网络,使用Caffe框架,探讨图片风格迁移背后 ...

最新文章

  1. dropdownlist绑定的二种方法
  2. 3年完成2款云端AI芯片研发量产,百度造芯为什么这么快?
  3. js push(),pop(),unshift(),shift()的用法小结
  4. ASP.Net TextBox控件只允许输入数字
  5. dapr微服务.net sdk入门
  6. angularjs 服务
  7. Shell脚本IF条件判断和判断条件总结
  8. galera mysql cluster
  9. python入门经典代码-【python】编程语言入门经典100例--11
  10. 细谈 vue 核心- vdom 篇
  11. CodeProject上的一些摘抄
  12. 遇到一个奇怪的问题——关于VS2013、VS2015中字符集(多字节字符集和Unicode字符集)的选择
  13. hprose for java 教程_Hprose for Java怎么使用?Hprose for Java使用教程
  14. wiley 期刊Stix字体问题
  15. Wincc常用C脚本
  16. 2020抖音最新上热门技巧你知道多少?
  17. 【专业学位、学术学位硕士研究生】区别是?如何报考
  18. 三维数组matlab怎么画图,三维数组画图遇到问题
  19. C++基础:模板,函数模板和类模板
  20. [原创]中国大陆民谣盘点系列(1) 沈庆《这么多年以来》

热门文章

  1. 寒门再难出贵子(很现实,很残酷,慎入)
  2. Win10无法拖动最大化窗口
  3. 斗圣传说找不到服务器,斗圣传说三界幻境攻略_斗圣传说三界幻境怎么玩_游戏堡...
  4. 戴尔 成铭3980台式计算机,戴尔成铭3980商用台式机评测 高颜值高性能
  5. 关于联想昭阳k20-80触摸屏关闭
  6. cad指定服务器名称,天正打开后CAD显示服务器名称为空? CAD 服务器名称为空
  7. Oracle 20c 不再支持特性:传统审计不支持 统一审计(Unified Auditing)成主流
  8. idea中Hierarchy出现在页面右侧
  9. 已知字符串str1 = tomorrow is sunny day,下列表达式能正确查找到子字符串is的是()(选两项)
  10. 亚信大数据平台产品经理 杨晋:大数据是怎么应用于技术方面的