目录

问题和初步

问题表述

基于符号的方法

基于步行的方法

提出的方法:RuleGuider

模型架构

Relation Agent

Entity Agent

Policy Network

Model Learning

奖励设计

培训程序

实验

实验装置

Datasets

Hyperparameters

结果

消融研究

人工评估

结论


问题和初步

  • 问题表述

给定一个查询:

KG推理的任务是找到一组对象实体,使得,其中中缺少的事实三元组。

为了与大多数现有作品保持一致,本文只考虑尾部查询。

  • 基于符号的方法

某些以前的方法是从KG挖掘Horn规则,并通过将这些规则作为基础来预测缺失的事实。 最近的方法AnyBURL(Meilicke et al.,2019)表现出与基于嵌入技术的最先进方法相当的性能。

但是,这些方法有局限性。 例如,从不同KG提取的规则可能具有不同的质量,这使得推理者难以选择规则。 图1显示了这种差异。 根据预测目标实体的准确性对规则进行排序。 WN18RR的最高规则比FB15K-237的最高价值。

图1:数据集之间的规则质量差异。 WN18RR存在高质量的规则。

  • 基于步行的方法

给定查询,基于步行的方法训练RL代理以查找从到期望的对象实体的路径,该路径暗含查询关系。 在步骤t,当前状态由元组表示,其中是当前实体。然后,代理对下一个关系实体对进行采样,以从可能的动作中访问。 代理到达时会收到奖励。

提出的方法:RuleGuider

RuleGuider由一个基于符号的方法(称为规则挖掘器)和一个基于步行的方法(称为代理)组成。

规则挖掘者首先挖掘逻辑规则,然后代理遍历KG,以在规则的指导下(通过奖励)学习推理路径的概率分布。

当代理遍历关系和实体时,我们建议将代理分为两个子代理:关系和实体代理。 分离之后,搜索空间将被大幅修剪。 图2详细显示了这两种代理的结构。

图2:两个代理的体系结构。 关系和实体代理相互交互以生成路径。 在每个步骤,实体代理首先从有效实体中选择一个实体。 然后,关系代理根据所选实体对关系进行抽样。 在最后一步,他们将根据最后选择的实体获得点击奖励,并根据选择的路径从预先挖掘的规则集中获得规则指导奖励。

  • 模型架构

Relation Agent

在步骤是跃点数),关系代理选择入射到当前实体et-1的单个关系rt,其中e0 = es。 给定一个查询和一组规则R,可以将该过程表示为其中是关系历史记录。 代理首先过滤出与rq头不同的规则,然后从其余规则主体的第t个原子(即规则模式中的bt(··))中选择rt。由于规则挖掘者提供了规则的置信度分数,因此我们首先使用RL技术使用分数对该代理进行预训练。 在训练期间,代理会应用预训练的策略(分布),并通过利用嵌入提供的语义信息来不断调整分布。 换句话说,关系代理既可以利用预先制定的规则的置信度得分,也可以嵌入有形的点击奖励。

Entity Agent

在步骤t,代理基于和实体历史生成所有候选实体的分布。 给定当前关系rt,此过程可以正式表示为。 代理从所有发生在rt的实体中选择一个实体。 这样,实体和关联代理可以独立进行推理。在实验中,我们还尝试让实体代理根据关联代理修剪的实体空间生成分布。 以这种方式,实体代理接受选定的关系,并且可以利用来自该关系代理的信息。 但是,实体空间可能非常小,很难学习。 这会使实体代理的效率降低,尤其是在大而密集的KG上。

Policy Network

通过嵌入rq和来参数化关联代理的搜索策略。 关系历史使用LSTM(Hochreiter和Schmidhuber,1997)进行编码:,其中是最后一个关系的嵌入。 我们初始化,其中rs是一个特殊的开始关系嵌入,与源实体嵌入es形成一个初始的关系实体对。

关系空间嵌入由步骤t的关系空间Rt中所有关系的嵌入组成。 最后,关系代理输出概率分布并从中采样一个关系。其中σ是softmax运算符,W1和W2是可训练的参数。 我们将关系代理的历史依赖策略设计为

同样,实体代理的历史相关政策为。 实体代理可以获取其上一步的嵌入,实体空间嵌入Et,其历史以及实体的概率分布。,其中W3和W4是可训练的参数。 请注意,实体代理使用不同的LSTM编码实体历史。

  • Model Learning

我们通过让上述两个代理从特定实体开始并以固定的跳数遍历KG来训练模型。 agents在最后一步会收到奖励。

奖励设计

给定查询后,关系代理将首选将路径定向到正确的对象实体的路径。 因此,给定一个关系路径,我们根据从规则挖掘者获取的信任度给予奖励,称为规则指导奖励Rr。 我们还将Laplace平滑pc = 5添加到最终Rr的置信度分数中。 除Rr之外,代理还将获得一次命中奖励Rh,如果预测的三元组为,则为1。否则,我们使用的嵌入 像Lin等人那样衡量报酬。 (2018)。其中是一个指标函数,是一个使用嵌入进行奖励整形的合成函数。

培训程序

我们分四个阶段训练模型。

1)使用基于嵌入的方法训练关系和实体嵌入。

2)应用规则挖掘器来检索规则及其相关的置信度分数。

3)通过冻结实体代理并要求关联代理采样路径来对关联代理进行预训练。 我们仅使用规则挖掘器评估路径并根据预先确定的置信度得分计算Rr。

4)联合训练关系和实体代理,以利用嵌入来计算Rh。 最终奖励R包含常数因子λ的Rr和。 使用REINFORCE(Williams,1992)算法训练了两个代理的策略网络,以最大化R。

实验

  • 实验装置

Datasets

(1) FB15k-237 (Toutanova et al., 2015)

(2) WN18RR (Dettmers et al., 2018)

(3) NELL-995 (Xiong et al., 2017)

Hyperparameters

  • 结果

表1:与基于步行的方法的性能比较。 可解释方法和基于嵌入的方法中的最佳分数分别为粗体和下划线。 此外,我们还提供了基于嵌入式技术的最新方法的报告分数作为参考。 我们强调了该类别中表现最好的产品。

基于嵌入的方法不受图形中严格遍历的影响,有时由于图形的不完整性而受益于此属性。 通过利用规则,我们还结合了一些全局信息作为指导,以弥补离散推理过程中潜在的搜索空间损失。

表2:在对预训练和训练阶段结束时设定的开发进行推断的过程中,RuleGuider(ComplEx)用于预测(波束0)的规则百分比。

它表明我们的模型放弃了一些规则来进一步提高训练阶段的命中表现。

  • 消融研究

表3:Freeze, No and Single代表具有冻结的预训练关联试剂,没有预训练且没有分离试剂的模型。

冻结性能较差的经过预训练的代理程序,表明需要击中奖励。 消除性能较差的预训练表明,基于步行的座席将从逻辑规则中受益。 性能较差的单个代理变量显示了修剪操作空间的有效性。

  • 人工评估

除评估指标外,我们还分析导致正确预测实体的推理路径是否合理。我们在Amazon Mechanical Turk上进行人工评估。我们使用FB15k-237上的均匀分布从开发集中随机抽取了300个三元组的评估集。在评估过程中,给定地面实况三元组,要求三名法官在以下两者之间选择一条更好的解释/分解路径:1.通过我们的方法生成的路径。 2.通过Multihop方法生成的路径。 3.开奖或没有一个是合理的。请注意,有2.6%的预测路径相同,因此将它们从评估集中排除。对于每个三元组,我们将多数票作为评估结果。由于三名法官可能各自选择不同的选项,因此每个选项都有一票表决权。在这种情况下,我们不将其计入最终评估结果中(表4)。出乎意料的是,没有三人在“铁”上获得超过一票。与具有ComplEx奖励整形的Multihop相比,RuleGuider具有更好的性能,并且推理路径对人类法官更有意义。

表4:Multihop(Lin等人,2018)和ruleGuider之间的人为评估投票,以正确预测FB15K-237开发集上的路径。 两种模型都使用ComplEx奖励整形。

结论

在未来的工作中,我们想研究如何将非循环规则引入基于步行的系统。

Learning Collaborative Agents with Rule Guidance for Knowledge Graph Reasoning-学习笔记相关推荐

  1. DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

    DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning 来源 背景 Motivation 强化学习 训练过程 实 ...

  2. [论文翻译]DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

    DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning 0 总结 名称 项目 题目 DeepPath: A Re ...

  3. 论文学习2-Incorporating Graph Attention Mechanism into Knowledge Graph Reasoning Based on Deep Reinforce

    文章目录 摘要 介绍 相关工作 方法 Mean Selection Rate (MSR) and Mean Replacement Rate (MRR Incorporating Graph Atte ...

  4. DeepWeak: Reasoning Common Software Weaknesses via Knowledge Graph Embedding 阅读笔记

    DeepWeak: Reasoning Common Software Weaknesses via Knowledge Graph Embedding 阅读笔记 Article Background ...

  5. Knowledge Graph表示学习--TransE系列

    知识图谱(Knowledge Graph or KG),如: Free Base.DBpedia.YAGO.NELL等已经成功地应用到语义分析.信息抽取.问答系统等方面.知识图谱是由实体(entity ...

  6. SQUIRE: A Sequence-to-sequence Framework for Multi-hop Knowledge Graph Reasoning

    摘要 近年来,多跳知识图(KG)推理得到了广泛的研究,以提供具有证据路径的缺失链接的可解释预测.大多数先前的工作使用基于强化学习(RL)的方法来学习导航到目标实体的路径.然而,这些方法的收敛速度慢,收 ...

  7. 论文学习1-DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning

    文章目录 摘要 Introduction 最近工作 基于PRA的其他方法 其他使用强化学习的方法 我们的方法 方法介绍(强化学习 摘要 研究了大规模知识图的学习推理问题.更具体地说,我们描述了一个用于 ...

  8. Deep Residual Learning for Image Recognition(ResNet)论文翻译及学习笔记

    [论文翻译]:Deep Residual Learning for Image Recognition [论文来源]:Deep Residual Learning for Image Recognit ...

  9. 【李宏毅机器学习】Unsupervised Learning - Word Embedding 无监督学习 - 词嵌入(p22) 学习笔记

    文章目录 Unsupervised Learning Word Embedding 用一个vector来表示一个word的几种方法 1-of-N Encoding Word Class Word Em ...

最新文章

  1. android上传本地图片到服务器上,Android使用post方式上传图片到服务器的方法
  2. 操作系统学习:实模式进入保护模式
  3. python middle()_Python自学笔记(七):函数
  4. USTC English Club Note20171011
  5. dy之xgorgon0404参数
  6. angular6父子组件之间的引入报错
  7. 自然哲学的数学原理_物理起源点,牛顿《自然哲学的数学原理》
  8. 产品经理经验谈:与产品经理有关的100件小事儿~
  9. 【C#】wpf自定义calendar日期选择控件的样式
  10. redis 一主二从三哨兵
  11. Latex入门----从提纲开始
  12. Matlab 数学建模算法大全
  13. 软件架构设计入门学习
  14. IOS - 怎么辨别苹果手机的数据线是否原装?
  15. Docker 6-镜像导出导入以及和容器导出导入的区别
  16. 正大国际:你所应该知道的外盘国际期货知识
  17. 实现点击图片放大查看功能
  18. 移动应用界面设计的尺寸规范
  19. 深圳绿道最全资料合集
  20. 【竞赛复盘】2022雪浪算力开发者大赛——阀体异常检测

热门文章

  1. 第03课:动手实战中文文本中的关键字提取
  2. spark.mllib:GradientBoostedTrees
  3. ThreadLocal父子线程传递实现方案
  4. spark MLlib平台的协同过滤算法---电影推荐系统
  5. Dockerfile构建MySQL
  6. V1-bug Alpha阶段项目展示
  7. 美团点评CTO罗道锋确认离职,新东家是快手?
  8. 爆牙齿的世界杯日记(小组末轮AB组)
  9. ubuntu 下 安装 sublime Text3
  10. 用户、组以及相关文件说明