发表于TKDE 2017。

knowledge graph embedding:a survey of approaches and applications

  • abstract
  • 1. introduction
  • 2. notations
  • 3. KG embedding with facts alone
    • 3.1 translational distance models
      • 3.1.1 TransE and Its Extensions
      • 3.1.2 gaussian embeddings
      • 3.1.3 other distance models
    • 3.2 semantic matching models
      • 3.2.1 RESCAL and its extensions
      • 3.2.2 matching with neural networks
    • 3.3 model training
      • 3.3.1 training under open world assumption
      • 3.3.2 training under closed world assumption
    • 3.4 model comparison
  • 4. incorporating additional information
    • 4.1 entity types
    • 4.2 relation paths
    • 4.3 textual descriptions
    • 4.4 logical rules
    • 4.5 other information
  • 5. applications in downstream tasks
    • 5.1 In-KG applications
      • 5.5.1 link prediction
      • 5.1.2 triple classification
      • 5.1.3 entity classification
      • 5.1.4 entity resolution
    • 5.2 out-of-KG applications

abstract

knowledge graph (KG) embedding是对KG中的实体和关系进行嵌入到连续空间中,在保持KG内部结构的情况下简化操作的计算。本文中的review 基于在embedding任务中用到的信息的种类。

1. introduction

KG是节点和关系构成的多关系图。每个边都具有三元组的形式:(headentity,relation,tailentity)(head entity, relation, tail entity)(headentity,relation,tailentity),也被称为是一个factfactfact。虽然这种三元组的表达形式能够有效表示结构数据,但是也造成了操作的困难性。于是KG embedding被提出,并获得了很大的关注度,可以被应用于:KG补充,关系挖掘、实体分类、实体解析等。

现在最多的KG embedding方法都只是单单基于observed facts。给定一个KG,将实体和关系变换到连续向量空间,定义一个scoring函数来在每个facts上评价它的合理性。实体和关系embeddings就可以通过观察到的facts的最大合理性来得到。但是这种基于individual fact的方式,可能对于下游任务不够准确,于是越来越多的方法通过使用其他种类的信息来进行研究以获得更加准确的embeddings,e.g. :实体种类,关系路径,文本描述,甚至逻辑规则等。

2. notations

不作介绍

3. KG embedding with facts alone

KG被保存于一些三元组的集合中D+={(h,r,t)}.\mathbb{D}^+ = \{(h,r,t)\}.D+={(h,r,t)}.一个典型的KG embedding technique包括三步:(1)表示实体和关系 (2)定义一个scoring function (3)学习实体和关系表征。第一步往往定义了实体和关系在连续向量空间中的形式。实体通常被定义为一个向量,如:向量空间中的确定点,最近也有工作考虑了实体的不确定性,通过多维高斯模型进行建模。关系通常被当作向量空间中的操作,也可以被表示为向量、矩阵、张量、多维高斯分布,甚至混合高斯等。之后,一个scoring function fr(h,t)f_r(h,t)fr(h,t) 被定义在每一个facts (h,r,t)(h,r,t)(h,r,t)上来对合理性进行度量。步骤三则解决了最大化observed facts(facts包含在D+\mathbb{D}^+D+上的)上的总合理性优化任务。这些embedding techniques可以被大体分为两类:translational distance models、semantic matching models。前者使用了基于距离的scoring函数,后者则使用了基于相似度的。

3.1 translational distance models

3.1.1 TransE and Its Extensions

TransE是最具代表性的translational distance model。

3.1.2 gaussian embeddings

3.1.3 other distance models

3.2 semantic matching models

3.2.1 RESCAL and its extensions

3.2.2 matching with neural networks

ps:从下面这张图的SME开始,前面两种方法是上一小节的。


3.3 model training

包括两种广泛使用的假设:the open world assumption,closed world assumption。

3.3.1 training under open world assumption

the open world assumption (OWA)是指KGs只包括true facts,未观察到的facts可能是错的或者只是missing。在这种情况下,D+\mathbb{D}^+D+只包括了positive examples。negative examples可以通过启发式方法生成,例如:the local closed world assumption。根据positive set D+\mathbb{D}^+D+以及相应生成的negative set D−\mathbb{D}^-D,我们可以通过最小化logistic loss(更适用于semantic matching models),pairwise ranking loss(更适用于translational distance models)来学习实体和关系的表征Θ\ThetaΘ
生成负训练样本:通过随机替换true facts中的h or t来实现。但是这种方法可能会导致引入false-negative training examples,于是可以通过以不同的概率来替换h or t缓解这一情况。有实验表明:生成更多的negative examples可以得到更好的实验结果,每个positive example搭配50个negative examples可以获得最好的性价比(因为训练时间也会相应增加)。

3.3.2 training under closed world assumption

the closed world assumption (CWA)是指凡是未在D+\mathbb{D}^+D+中的facts都是错误的。可以通过最小化如squared loss的损失函数来学习实体和关系的representation,使得observed facts具有接近1的分数,non-observed scores接近于0。
这种CWA的world assumption具有很多的缺点:会把缺失的facts强行视作是false,现实中的大多数KG都是incomplete的,CWA-based models常常比OWA-based models表现差;CWA 假设将会引入大量的负样本,可能会在训练过程中导致可扩展性的问题。

3.4 model comparison


根据以上模型的比较,我们有以下结论:1⃣️利用向量来表示实体和关系的模型往往更加efficient。2⃣️将关系建模为矩阵或张量的方法往往具有更高的时空复杂度。3⃣️基于神经网络的模型具有更高的时间复杂度。

4. incorporating additional information

可以综合的信息包括:entity types,relation paths,textual descriptions,logical rules等。

4.1 entity types

4.2 relation paths

4.3 textual descriptions

这个部分讨论了对于实体的描述性信息的加入。
这种加入文本信息描述的方法追溯回NTN模型,文本信息被用来初始化实体表征(descriptions的平均word vectirs)。但是这种方法使得文本信息和KG facts分离,因此fail to 利用它们之间的交互信息。

之后joint model出现,在embedding的过程中更好地利用文本信息。key idea是将KG与附加的文本语料进行对齐,之后同时产生KG embedding和word embedding。这样,实体/关系和words都被表示于相同的向量空间,于是它们之间做的操作(如:内积)就变得meaningful了。joint model具有三个成分:knowledge model,text model,alignment model。knowledge model被用来对KG中的实体和关系进行嵌入。text model被用来对text corpus中的单词进行嵌入。最后,alignment model保证了实体/关系嵌入以及单词嵌入位于同一空间之中。具有不同的alignment mechanisms:通过实体名称、通过实体描述等。jointly embedding同时使用了结构化KGs和无结构的text的信息。

4.4 logical rules

4.5 other information

包括实体属性、时序信息、图结构、从其他关系学习方法中得到的evidence等的。

5. applications in downstream tasks

KG embedding的应用可以被分类为:in-KG applications,out-of-KG applications。

5.1 In-KG applications

In-KG applications是指conducted within the scope of the KG where entity and relation embeddings are learned。我们介绍了四种这样的应用:link prediction,triple classification,entity classification,entity resolution。所有的应用都可以被称为是一种对输入KG的改善(e.g. complication or 重复数据删除等)。

5.5.1 link prediction

预测(?,r,t),(h,r,?),(h,?,t).(?,r,t),(h,r,?),(h,?,t).(?,r,t),(h,r,?),(h,?,t).由于实体和关系表征之前被学习过了,link prediction可以被简单的认为是一个ranking procedure。常用的评测指标,包括:mean rank(预测的rank的平均值),mean reciprocal rank(相关rank的平均值),Hits@n(不大于n的rank的占比),AUC-PR(precision-recall curve下的area的面积)。

5.1.2 triple classification

判断一个unseen triple fact (h,r,t)(h,r,t)(h,r,t)是true or false。评价指标可以用:micro- or macro-averaged accuracy,mean average precision。

5.1.3 entity classification

目标是将实体分类入不同的语义类之中,可以将这种任务视为是一种特殊的link prediction任务(x is a ?)。

5.1.4 entity resolution

用于判断两个实体是否指代同一个object。entity resolution实际上是nodes的去重任务。可以计算两个entity的representation的相似度来判断两者是否是同一个object。AUC-PR是这种任务下最常用的评测指标。

5.2 out-of-KG applications

out-of-KG applications是指打破了输入KG的边界以及扩展到更宽广的domains时。我们介绍了三种应用:relation extraction(目标是从plain text中挖掘relational facts where entities have already been detected),question answering(给定用自然语言表达的问题,目标是返回正确的answer,被KG中的triples所反馈的),recommender systems(提供给user建议购买的items)。

《knowledge graph embedding:a survey of approaches and applications》论文阅读相关推荐

  1. 《基于卷积神经网络的深度迁移学习,用于燃气轮机燃烧室的故障检测》论文阅读

    目录 突出 抽象 引言 1.1动机 1.2文献综述获得的结论 1.3贡献 1.4组织 2方法 2.1燃汽轮机组故障知识共享 2.2迁移学习 2.3 基于卷积神经网络的深度迁移学习 2.4用于燃气轮机燃 ...

  2. 基于卷积神经网络和投票机制的三维模型分类与检索 2019 论文笔记

    作者:白静 计算机辅助设计与图形学学报 1.解决的问题 由于三维模型投影得到的视图是由不同视点得到,具有相对独立性,这种像素级的融合运算并没有直接的物理或者几何意义,更有可能造成图像有益信息淹没和混淆 ...

  3. TextCNN——基于卷积神经网络的文本分类学习

    1.CNN基础内容 CNN的全称是Convolutional Neural Network,是一种前馈神经网络.由一个或多个卷积层.池化层以及顶部的全连接层组成,在图像处理领域表现出色. 本文主要学习 ...

  4. 读懂深度迁移学习,看这文就够了 | 赠书

    百度前首席科学家.斯坦福大学副教授吴恩达(Andrew Ng)曾经说过:迁移学习将是继监督学习之后的下一个促使机器学习成功商业化的驱动力. 本文选自<深度学习500问:AI工程师面试宝典> ...

  5. 一种基于卷积神经网络的图像去雾研究-含matlab代码

    目录 一.绪论 二.去雾卷积网络 2.1 特征提取 2.2 多尺度映射 2.3 局部均值 2.4 非线性回归 三.实验与分析 四.Matlab代码获取 一.绪论 雾是一种常见的大气现象,空气中悬浮的水 ...

  6. 机械臂论文笔记(一)【基于卷积神经网络的二指机械手 抓取姿态生成研究 】

    基于卷积神经网络的二指机械手 抓取姿态生成研究 论文下载 摘要 第1章 绪论 1.1 抓取生成国内外研究现状 1.1.1已知物体抓取生成 1.1.2相似物体抓取生成 1.1.3 未知物体抓取生成 1. ...

  7. 毕业设计 - 基于卷积神经网络的乳腺癌分类 深度学习 医学图像

    文章目录 1 前言 2 前言 3 数据集 3.1 良性样本 3.2 病变样本 4 开发环境 5 代码实现 5.1 实现流程 5.2 部分代码实现 5.2.1 导入库 5.2.2 图像加载 5.2.3 ...

  8. 基于卷积神经网络与迁移学习的油茶病害图像识别

    基于卷积神经网络与迁移学习的油茶病害图像识别 1.研究思路 利用深度卷积神经网络强大的特征学习和特征表达能力来自动学习油茶病害特征,并借助迁移学习方法将AlexNet模型在ImageNet图像数据集上 ...

  9. Python深度学习实例--基于卷积神经网络的小型数据处理(猫狗分类)

    Python深度学习实例--基于卷积神经网络的小型数据处理(猫狗分类) 1.卷积神经网络 1.1卷积神经网络简介 1.2卷积运算 1.3 深度学习与小数据问题的相关性 2.下载数据 2.1下载原始数据 ...

  10. 基于卷积神经网络实现图片风格的迁移 1

    卷积神经网络详解 一.实验介绍 1.1 实验内容 Prisma 是最近很火的一款APP,它能够将一张普通的图像转换成各种艺术风格的图像.本课程基于卷积神经网络,使用Caffe框架,探讨图片风格迁移背后 ...

最新文章

  1. 他开发了基因界的百科全书,贡献却少有人知
  2. 定义交货类型的装运点确定规则
  3. Java使用strategy模式构造程序
  4. java集合数组,数组小到大排序,数组大到小排序
  5. oracle Sql语句分类
  6. JS天气插件(最全)
  7. 20135213 20135231 信息安全系统设计基础课程第三次实验报告
  8. CSS3的线性渐变(linear-gradient)
  9. JAVA中CLASS.FORNAME的含义
  10. (31)FPGA面试题系统最高速度计算方法
  11. 如何在npm上发布项目
  12. centos下的nginx安装工作记录20130701
  13. 离线安装Ubuntu16.04 NVIDIA1060显卡驱动 CUDA9.0 CUDNN7.0 anaconda TensorFlow-GPU pycharm opencv-python opencv
  14. dnf虚拟机安装的解决方法
  15. 已在此计算机上安装了此应用cad,电脑安装CAD时提示已安装导致安装失败的问题如何解决...
  16. oracle不产生特定表的归档,oracle数据库归档与非归档
  17. 录音实时转写软件哪个好?这三个软件帮你搞定录音如何转文字
  18. 最高效的学习方法——逆向学习法
  19. SecureCRT登录会话密码解密
  20. 非期望产出的sbm模型_兼顾非期望产出的工业用地效率测度、分异与溯因 ——以东北三省为例...

热门文章

  1. chrome最新版总是自动清掉保存的密码
  2. Unity3D游戏开发从零单排(六) - 人物运动及攻击连击
  3. [异能程序员]第四章 偶遇(第四更)
  4. 【JAVA长虹键法】第七式 建造者模式(23种设计模式)
  5. SpringBoot+FreeMarker+flying-saucer-pdf实现PDF预览、分页需求
  6. 中秋祝福代码,中秋快乐代码,采用H5制作的中秋动画祝福
  7. Fibonacci Sum(二项式求和)
  8. USB声卡噪音问题,USB声卡中文名设置,基于STM32F411
  9. 2016--在技术的浪潮中自我实现
  10. 云起实验室:零基础入门Serverless:一键部署红白机小游戏