来源: IJCAI2018

链接: https://www.ijcai.org/proceedings/2018/0556.pdf

动机

近年来,随着多语言知识图谱嵌入(Multilingual KG embedding)的研究,实体的潜在语义表示以及跨语言知识推理等任务均取得一定成效,因此也推动了许多知识驱动的跨语言工作。然而,受限于各语言知识图谱之间较低的实体对齐(Entity alignment)程度,跨语言推理的准确性往往不够令人满意。

考虑到多语言知识图谱中具有对实体的文字性描述,文章提出一种基于嵌入(Embedding)的策略:通过利用图谱中实体的文字描述,对仅包含弱对齐(KG中的inter-language linksILLs)的多语图谱做半监督的跨语言知识推理。

为了有效利用图谱知识以及实体的文字描述,文章提出通过协同训练(Co-train)两个模块从而构建模型KDCoE:多语言知识嵌入模块;多语言实体描述嵌入模块。

贡献

文章的贡献有:

1)提出了一种半监督学习方法KDCoE,协同训练了多语知识图谱嵌入和多语实体描述嵌入用于跨语言知识对齐;

2)证明KDCoEZero-shot实体对齐以及跨语言知识图谱补全(Cross-lingual KG Completion)任务上的有效性;

方法

1.多语言知识图谱嵌入Monolingual KG Embeddings, KGEM

由知识模型(Knowledge Model)和对齐模型(Alignment Model)两个部分构成,分别从不同角度学习结构化知识。

知识模型:用于保留各语言知识嵌入空间中的实体和关系

文章采用了传统的TransE方法构建知识模型,并认为这种方法有利于在跨语言任务重中保持实体表示的统一性,且不会受到不同关系上下文带来的影响。其对应的目标损失函数如下:

其中,L表示某种语言,(LiLj)表示一组语言对,GL 表示语言 L 对应的知识图谱, 反映的是图谱中三元组 (h,r,t) 之间的相异度,是一个 positive margin[x]+ 则表示取 x 的正值部分, 表示一组伯努利负采样三元组,用于替换图谱三元组中的 h t.

对齐模型:用于在不同语言的嵌入空间中获取跨语言关联

为了将不同语言间的知识关联起来,文章参照MTransE中的线性转换策略,其目标函数如下:

其中(e, e')是一组已知的对齐实体,当知识嵌入向量的维度为 k1 时,Mij 是一个 的线性转换矩阵,用于将 Li 语言的实体向量转换为 Lj 语言。这里与 MTransE 方法不同的是,文章仅计算了跨语言实体嵌入而非三元组整体嵌入。

KGEM的目标函数:

其中,是一个正超参数

2.多语言实体描述嵌入 Multilingual Entity Description Embeddings, DEM

DEM过程包含两个部分:编码和跨语言嵌入

1) 编码:

文章使用 Attentive Gated Recurrent Unit encoder, AGRU 对多语言实体描述进行编码,可以理解为带有 self-attention GRU 循环网络编码器。

文章希望利用self-attention机制使得编码器能够凸显实体描述句子中的关键信息,AGRU中的self-attention可以定义为以下公式:

其中,ut 是由 GRU st 产生的隐藏表示,attention 权值 at 则是由一个 softmax 函数计算得到,反映的是单词 xt 对于序列 X 的重要性,而后依据此权重与隐藏表示可以得到 self-attention 的输出 vt|X|(输入序列的长度)用于防止 vt 失去原有的规模。

在这个部分,作者也尝试了其他的编码框架,包括单层网络,CNNALSTM等等,但AGRU取得了最好的性能

2) 跨语言嵌入部分:

为了更好的反映出多语言实体描述的词级别语义信息,文章使用跨语言词嵌入方法用于衡量和找出不同语言间的相似词汇。大致流程可描述如下:

首先,使用跨语言平行语料Europarl V7以及Wikipedia中的单语语料,对cross-lingualBilbowa [Gouws et al., 2015] word embeddings进行预训练。

而后使用上述embeddings将实体描述文本转换为向量序列,再输入进编码器中。

3) DEM学习目标:

文章建立的编码器由两个堆叠的AGRU层构成,用于建模两种语言的实体描述。该编码器将实体描述序列作为输入,而后由第二层输出生成的embedding

而后,文章引入了一个affine层,将上述各种语言的embedding结果投影到一个通用空间中,其投影过程由以下公式描述:

DEM 的目标是最大化各个实体描述 embedding 与对应的其他语言版本之间的 log 相似度,故可以将目标函数描述如下:

3.迭代 Co-training KDCoE 模型

文章利用 KG 中存在的少量 ILLs 通过迭代的协同过程训练 KGEM DEM 两个模块,过程大致描述如下:

每次迭代中,各模块都进行一系列“训练-生成”的过程:

1) 首先利用已有的ILLs对模型进行训练;

2) 之后利用训练得到的模型从KG中预测得到以前未出现过的新ILLs

3) 而后将这些结果整合到已有ILLs中,作为下一轮迭代的训练数据;

4) 判断是否满足终止条件:本轮迭代中各模块不再生成新的ILLs

其算法细节描述如下图:

实验

. 实验相关细节

实验数据说明:

文章实验数据来自DBPedia中抽取的子集WK3160k,由英法德三语构成,其中每种语言数据中包含了54k-65k规模的实体

具体统计信息如下表:

文章分别在跨语言实体对齐,Zero-shot对齐以及跨语言知识图谱补全等三个任务上进行实验

其中,跨语言实体对齐选用的基线系统包括:LMCCAOTITransE以及MTransE的三种策略;

Zero-shot对齐的基线系统为:Single-layer 网络,CNNGRUAGRU 的两种策略;

知识图谱补全的基线系统为TransE

. 实验结果

跨语言实体对齐:

如下图所示,文章设置了三组评价指标,分别为:accuracy Hit@1proportion of ranks no larger than 10 Hit@10mean reciprocal rank MRR

从结果上看,KDCoE模型的性能远优于其他系统,且随着Co-train的迭代次数增加,系统的性能也都有较为明显的提升。

Zero-shot对齐:

Zero-shot采用的评价指标与跨语言实体对齐相同,下图反映了KDCoEZero-shot对齐任务中的实验结果:

从实验结果上看,KDCoE 的效果依然是随着迭代次数的增加而上升,但从第一次迭代的结果可以发现,其优势的来源基础是 AGRU。这也反映出 AGRU 在编码上相对其他网络模型体现出了更优性能。

跨语言知识补全:

在跨语言知识补全任务中,文章采用proportion of ranks no larger than 10 Hit@10mean reciprocal rank MRR等两个评价指标

根据 KDCoE-mono 的表现,可以推断,该模型成功继承了 TranE 保持结构化知识中实体和关系的稳定性。而 KDCoE-corss 则反映引入跨语言信息确实对知识补全的效果起到了明显提升。

总结

本文提出了一种基于 embedding 技术的跨语言知识对齐方法,通过引入 Co-train 机制,将 KG 中的关系上下文与实体描述信息有效的利用起来,以现有 KG 中的小规模 ILLs 为基础建立半监督机制,在跨语言实体对齐,知识补全上都起到了明显的效果。

论文笔记整理:谭亦鸣,东南大学博士,研究方向为知识图谱问答、自然语言处理。


OpenKG.CN

中文开放知识图谱(简称OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

点击阅读原文,进入 OpenKG 博客。

论文浅尝 | 面向跨语言实体对齐的知识图谱与实体描述协同嵌入方法相关推荐

  1. 论文浅尝 | 基于对抗学习的弱监督知识图谱对齐

    论文笔记整理:郭凌冰,浙江大学研究助理,研究方向为知识图谱的表示学习. 绝大部分现有的知识图谱对齐方法都要求足够的已对齐三元组作为监督数据,但在现实世界中,获取大量的对齐三元组的代价十分高昂.本文提出 ...

  2. 论文浅尝 - ACL2020 | 用于链接预测的开放知识图谱嵌入

    本文转载自公众号:PaperWeekly. 作者:舒意恒,南京大学硕士,研究方向:知识图谱. 当前大量的知识图谱都是通过文本直接构建的.由于当前的知识图谱构建方法的局限性,其中难免包含对同一实体或关系 ...

  3. 论文浅尝 | 面向多语言语义解析的神经网络框架

    论文笔记整理:杜昕昱,东南大学本科生. 来源:ACL2017 链接:https://aclweb.org/anthology/P17-2007 论文训练了一个多语言模型,将现有的Seq2Tree模型扩 ...

  4. 论文浅尝 | 利用跨内和跨间信息的预训练实体关系编码器

    笔记整理 | 朱珈徵,天津大学硕士 链接:https://www.aclweb.org/anthology/2020.emnlp-main.132.pdf 动机 从自由文本中提取实体和关系是自然语言处 ...

  5. 论文浅尝 | ICLR 2020 - 一文全览知识图谱研究

    本文转载自公众号: AI科技评论 作者 | Michael Galkin 编译 | 贾伟 ICLR 2020 正在进行,但总结笔记却相继出炉.我们曾对 ICLR 2020 上的趋势进行介绍,本文考虑的 ...

  6. 论文浅尝 | 从具有数值边缘属性的知识图谱中学习嵌入

    论文笔记整理:朱珈徵,天津大学硕士 链接:https://www.ijcai.org/proceedings/2021/0395.pdf 动机 从遗传数据到社会网络,在越来越多的场景下与知识图谱边缘相 ...

  7. 论文浅尝 - EMNLP2020 | 基于规则引导的协作 agent 知识图谱推理学习

    论文笔记整理:叶橄强,浙江大学在读硕士,研究方向为知识图谱的表示学习和预训练. 来源:EMNLP 2020 现有的大多数基于行走的模型通过在提供可解释的决策的同时获得良好的性能,在知识图谱推理中显示出 ...

  8. 论文浅尝 | TuckER:基于张量分解的知识图谱补全

    笔记整理:孙泽群,南京大学计算机科学与技术系,博士研究生. 论文链接:https://arxiv.org/abs/1901.09590   背景 知识图谱是图结构的数据库,以三元组(es, r, eo ...

  9. 论文浅尝 | 一种基于递归超图的知识图谱问答方法

    笔记整理 | 谭亦鸣,东南大学博士生 来源:EACL'21 链接:https://www.aclweb.org/anthology/2021.eacl-main.35.pdf 概述与动机 本文提出了一 ...

最新文章

  1. 直接对梯度下手,阿里达摩院提出新型优化方法,一行代码即可替换现有优化器...
  2. android c# websocket
  3. 【风控系统】风控中心—京东基于Spark的风控系统架构实践和技术细节
  4. QML基础类型之real
  5. MySQL为什么有时候会选错索引?
  6. spring-quartz
  7. Scrapy从理论到爬图
  8. [css] H5如何禁止显示系统菜单?
  9. 设置按峰值带宽计费_云平台界面优化升级!VPC网络包年包月计费调整!
  10. 使用SQL Coalesce函数查询数据
  11. android 自定义布局 根据布局获取类,android自定义布局中的平滑移动之ViewGroup实现...
  12. python程序设计实践教程答案江苏_《Python程序设计》习题与答案python教材答案
  13. 计算机网络—IP地址及其表示方法
  14. 虚拟机安装kali linux
  15. j3455安装linux 4k驱动,nas-j3455kvm安装win10及集成显卡直通
  16. webpack 简单使用
  17. fpga nvme 寄存器
  18. 计算机毕业设计之java+ssm框架个人博客系统多用户
  19. 注册快捷键(单快捷键、组合快捷键)
  20. npm i element-ui -S命令错误 针对于vue2

热门文章

  1. 三十岁以前不必在乎的29件事
  2. 我学机械的可以转嵌入式吗?
  3. B站这套教程火了,火速搬运!限时删除~
  4. Datawhale组队-Pandas(下)文本数据(打卡)
  5. python高并发架构_python高并发的解决方案
  6. android power 按键,Android Framework层Power键关机流程(一,Power长按键操作处理)
  7. 核酸结果统计难?130行代码实现基于ocr的核酸截图识别存储Excel(复现代码核查核酸报告)
  8. 【Pytorch神经网络理论篇】 07 激活函数+Sigmoid+tanh+ReLU+Swish+Mish+GELU
  9. LeetCode 6034. 数组的三角和
  10. 天池 在线编程 最频繁出现的子串(字符串哈希)