引言

现实世界中的许多问题都可以通过图结构表述,例如基因序列关系、蛋白质结构、知识图谱和社交网络,鉴于这种广泛存在的结构特征,研究者们自然会尝试将特定结构融入学习模型中,概率图模型(PGM: probabilistic graphical model)和图神经网络(GNN: Graph Neural Networks)应该算是两个代表性的方向;其中结合深度学习的图神经网络近几年发展迅速,在CV、NLP和推荐系统的应用场景中的表现出巨大潜力。丁香园团队希望能在GNN领域中找到合适的文本知识表示学习方法,因此本文将从表示学习的角度出发,通过列举GNN领域一些有代表性的工作介绍图表示学习的实验思路。

Graph Embedding

传统Graph Embedding算法在表示学习任务中其实表现不俗,而且当图的规模不断增长时,训练GNN也不是一件容易的事,此外今天GNN做表示学习的基本框架与传统算法的区别并不大,因此本文首先介绍传统Graph Embedding算法,首先是图表示先驱的Deepwalk。

  • DeepWalk: Online Learning of Social Representations [1]

Deepwalk的思路非常直白,在持有结构化数据(建好的图)的条件下,基本可以看作采样+Word2vec的两段式,可以大致认为Deepwalk就是「如何将带结构信息的数据喂给word2vec」。我们知道word2vec的训练方式(原文采用SkipGram)是通过中心词(target)预测窗口内的词(context),所以Deepwalk的采样过程可以看作「如何定义和获取图上节点的context」。这里Deepwalk给出最基本的方法,就是定义任意中心节点到邻接节点的跳转概率,然后跳转一定次数作为该中心节点的context,这样就组成了word2vec接受的输入样本:(target,context)

可以认为Deepwalk确立了一种通用的Graph Embedding求解框架,即:(1) 定义中心节点的邻域及采样方法;(2) 设计(target, neighbors)的embedding模型。后续的Graph Embedding模型及很多复杂的GNN模型其实也都是改进这两个框架的具体操作,例如下面的LINE和Node2vec。

  • LINE: Large-scale Information Network Embedding [2]

在Deepwalk之后较短的时段内(2014年之后),多数工作直接延用了word2vec训练embedding向量的方式,并将重点放在如何改进中心节点邻域的采样方法上。LINE的关键改进就在于对context的设定,作者提出了一阶和二阶两种邻域关系,如下图所示

一阶相邻就是直接相连,二阶相邻则是取两个邻接节点邻居的重合部分;这样,一阶关系可以采样出(target, neighbor),二阶关系则会采样出(target, neighbors);对此,可以分别用sigmoid和softmax计算二元组的概率分布;在计算loss时,如果将两种采样方式合并计算,会得到一组embedding,也可以考虑分开计算loss,得到两组embedding weights,再用concat([first_order_embed, second_order_embed])合并。

  • node2vec: Scalable Feature Learning for Networks [3]

Node2vec也沿用了word2vec的训练方式,而在采样上比LINE更接近Deepwalk的思路。不过作者进一步思考了节点间的距离和节点本身的位置这些结构信息的意义。

我们知道图的遍历有深度优先(DFS)和广度优先(BFS)两种,采用DFS会更容易采样到较远的点,而BFS倾向于发掘周围的点。对此,作者提出了两个概念来描述这种位置结构:(1): 同质性(homophily),指紧密围绕从而形成一个社群(community)的节点,比如图上的 u 和 s_2 ; (2): 结构性(structural equivalence),只虽然距离较远因而不能构成同一个社群,但彼此社群中都处于类似的位置,比如图上的 u 和 s_6 (注意,作者表示DFS更侧重同质性,BFS倾向于结构性,和大家的理解一致么)

基于这两种结构性质,作者扩展了Deepwalk的采样方法,设定了两个概率参数 p 和 q ,分别是回退参数(p: return parameter)和进出参数(q: in-out parameter),如上图所示,当前节点从 t 到 v ,如果 p 降低,则退回到 t 的概率就越大,q 降低则驱使算法走向新节点;控制这两个参数就可以改变context的采样结果,影响最终emebdding结果。

还有诸如SDNE,EGES这类工作都属于Graph Embeding方法,操作简单实用性高,在图的节点数量很大时,下面的GNN方法不太容易训练应用,传统Graph Embeding方法依然有大量戏份。

Graph Neural Networks

GNN的正式定义大约来源于2009年的这篇文章[4],随后经历了大约6年的沉寂直到2014年,受word2vec的启发,包括前文提到的一系列Graph Embedding算法相继出现;再之后,大概2017年起,各类结合了Gated机制,CNN,Attention的GNN模型结构不断被提出;时至今日,基于GNN的研究已经深入诸多领域,新颖概念层出不穷;笔者初窥门径,以下仅选个别有代表性的工作简单介绍。

  • GCN: SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS [5]

融入CNN形成的GCN框架可能是最流行的GNN之一,然而CV领域大放异彩的CNN并不能直接用在属于非欧空间的图结构上,直观的说法是"图结构中邻居节点的个数不固定,卷积核无法计算",因此需要某种转换操作,要么固定邻居节点个数,要么将非欧空间的图转换到欧式空间,本节文章中的GCN就属于后者,这就引出了GCN的核心之一的Laplacian算子;下面我们先解释图的空间变换。

描述Laplacian算子不得不提Fourier变换,我们知道Fourier变换可以将时域函数转换到频域的"线性变换",公式大概长这样:

需要关注的是 e^{-2 piixv} 这个"基向量",就是它将时域函数f(x)映射到以它为基的频域空间;那么对于GCN,关键就在于找到这个"基向量",通过"图Fourier变换"完成非欧空间到欧式空间的映射,这才引出Laplacian算子;参照wiki上的中文定义[6]:拉普拉斯算子或是拉普拉斯算符(Laplace operator, Laplacian)是由欧几里得空间中的一个函数的梯度的散度给出的微分算子;先做梯度运算,再做散度运算,简单说就是二阶导数,它描述了二维空间中某种量的传播状态;最终,研究者们找到了拉普拉斯矩阵L作为Laplacian算子,并用L的特征向量作为基向量执行"图Fourier变换",L就是图的度矩阵减去邻接矩阵,取L的特征向量组U为"图Fourier变换"的基向量(这里仅简单描述Laplacian算子的作用意义,有关Laplacian算子和Fourier变换的公式推导有很多精彩的文章珠玉在前,这里便不做赘述)。

Laplacian算子和图Fourier变换是GCN的基石,不过GCN的内容远不止如此,图卷积网络的框架是多篇文章不断改进的结果,这里引用的工作算是博采众长,早在2014年[7]就有研究提出了用拉普拉斯矩阵的特征分解实现卷积,但计算中包含的特征分解计算复杂度高,因此另一个让GCN应用广泛的贡献是通过切比雪夫多项式(Chebyshev)近似图卷积计算,引文第二段集中介绍了该近似过程,综合改进后的GCN如引文中的公式2所示,其中HW就如同CNN运算一般,前面矩阵A和D的运算就是图卷积的近似。

最后,这类对整张图做特征提取的方法被称为Transductive approaches,下面要介绍另一类Inductive approaches中有代表性的GraphSAGE。

  • GraphSAGE: Inductive Representation Learning on Large Graphs [8]

Transductive approaches都有一个问题,就是必须要对全图操作,这样一方面内存会限制图的规模,另一方面想更新图结构就不得不重新处理整张图;GraphSAGE的一个好处就是"以偏概全",不再对整张图做变换和卷积,而是采样固定个数邻居并基于这种target-neighbors的子图结构训练聚合函数(AGGREGATE),这样一方面可以根据需求,通过控制邻居个数来增减图的规模,另一方面对于新加入的节点,完全可以用训练好的聚合函数获得embedding表示或其他下有任务结果。

其实看算法流程很容易想象整个流程,基本也符合deepwalk的两段式,值得注意的就是其中的AGGREGATE,文中对比了四种聚合函数:lstm,gcn,mean,pool(max);大家可以参照文中的对比实验选择合适自己任务的方法。此外,作者在文中也给出了针对无监督和有监督的不同loss设定,无监督继续采用类似word2vec的方式,有监督任务则替换成适合特定目标的损失即可,另外本文发表于2017年,Transformer也是同年发表,而今结合self-attention做聚合函数的工作已经非常多了,框架上基本也和GraphSAGE一致,很容易替换扩展。

总体来说,本文无论是思路,结构还是源码都比较简单,对应到工程落地,可以参考同一团队在KDD2018发表的,基于Pinterest公司推荐系统的实践工作[9];不过,我们尝试用GraphSAGE直接学习文本知识的embedding时,感觉并不十分理想,首先是当图的规模非常大时训练比较慢,收敛情况与子图采样密切相关,找采样参数需要大量实验;另外需要注意,源码中构造图结构用的是Python的networkx库,这个库是基于dict存储的,比较费内存;最后,我们的文本知识包含大约150w节点,1亿条边,无监督训练的结果不够理想,当然很可能是数据量不足以及还没找到合适的采样参数,不过,这种规模的图对我们来说已经很大了,用稀疏矩阵存储会更省资源,不过得用sparse的API重写整个结构,所以如果有办法可以直接对稀疏矩阵做计算得到embedding岂不省事许多,下一节的ProNE。

  • ProNE: Fast and Scalable Network Representation Learning [10]

本文大概应该归为Graph Embedding一类,因为并没有GCN和GraphSAGE这些框架中的多层网络结构,不过本文第二部分的embedding过程应用了GCN中spectual方法的思路,在GCN之后介绍也更合适。本文将图表示学习的模型分为三类,GNN归为一类,前文的Deepwalk、LINE、node2vec属于skip-gram类,ProNE则属于矩阵分解类模型。

ProNE整体可分为两部分,第一部分对无向图结构的邻接矩阵做稀疏矩阵分解。作者定义了如下损失函数最大化节点 r 和邻居 c 的共现频率p,同时最小化负采样邻居概率:

最小化loss的充分条件是loss对 r{i}^{T} c{j} 的偏导数为0,可得节点 r 和邻居 c 的的距离公式并构造距离矩阵

对距离矩阵 M 做tSVD(truncated Singular Value Decomposition)并取最后top-d的奇异值和对应向量作为这一部分的节点embedding表示,为了效率,作者用randomized tSVD加速运算。

第二部分利用高阶Cheeger不等式(higher-order Cheeger's inequality),上一步仅利用了每个节点的局部邻居,这里借鉴GCN中spectrum方法的思路设计了传播策略(propagation strategy),目的是获取图结构中的局部平滑(localized smoothing)信息和全局聚类(global clustering)信息,而Cheeger不等式为我们解释了图结构谱方法的特征值与局部平滑(localized smoothing)信息和全局聚类(global clustering)信息之间的关系。

首先,GCN部分的引文中其实介绍了,图Fourier变换实际上是一次图Fourier变换加一次逆变换,这个过程可以理解为:先由拉普拉斯矩阵的特征向量组 U 将 X 映射到对应向量空间,用特征值lambda_k 缩放 X ,再被逆变换处理;然后,在图分割理论(graph partition)中有一个 k-way Cheeger 常量 \rho_{G}(k) ,这个常量越小表示图的划分越好,直观的表述大概是"子图聚合程度越高,该常量对应越小,相对的划分就越好";最后我们通过高阶Cheeger不等式将拉普拉斯矩阵的特征值和这个常量联系起来

上式表明Cheeger 常量对应着特征值的上下界,更小的常量对应更小的特征值,也对应着更内聚(clustering)的子图,反之对应更大的特征值,此时图结构中的子图更为平滑(smoothing);因此,在这部分里,作者设计了一个函数 g 用于控制特征值的取值范围,此时的图Fourier变换为

最后,再参照GCN中利用切比雪夫多项式近似计算 \widetilde{L} 即可,整个过程可以看作限制特征值范围的GCN,注意最后为保证正交性,还需要对Embedding结果做一次SVD。

我们知道通常对于大规模图结构,Graph Embedding在效率上的价值更为明显,ProNE在效率方面比Deepwalk、LINE、node2vec都要出色,文中的时间对比表明,在5个常见的GNN数据集上(PPI、Wiki、BlogCatalog、DBLP、Youtube),ProNE比效率最好的LINE快大概9-50倍;我们用150w节点,1亿条边的稀疏矩阵做文本知识学习,默认参数(128维向量,迭代10次)耗时大概1小时以内;具体来说,我们试图识别出每个文本知识词汇中包含的特定类别词,例如下面的"口腔咽喉黏膜充血"中的"口腔、咽喉、黏膜"均为身体部位;"卵巢雄激素肿瘤"中包含的"卵巢"属于身体部位类词汇,"肿瘤"属于常见病症词的词根,按照包含词以及类别构建邻接图,应用ProNE方法,并按cosine计算相关词汇,结果看起来还不错:

出色的efficient兼顾不错的effective,源码的Python版是用networkx加载图结构,这部分完全可以用scipy.sparse的API替换,只有一点美中不足,和GCN一样不能直接应用于有向图,所以下面为大家介绍一篇有关文本有向图Embedding的工作SynGCN。

  • Incorporating Syntactic and Semantic Information in Word Embeddings using Graph Convolutional Networks [11]

本文将GNN应用于Word Embedding任务,框架上基本采用GraphSAGE的邻居采样+编码函数聚合信息的模式,训练上也与word2vec类似,值得关注的是其融合有向图的SemGCN结构

具体而言,word2vec的context在这里由target词的知识组成,在编码过程中我们希望对有向边做特别处理,其实这里有向图就起到了一个线性组合的作用,对有向图的融合非常简单,就是构造一个有向图的邻接矩阵,对原有的特征embedding矩阵 M 做线性变换,与 M 叠加后再过下一个编码层。这种线性组合的方式很容易上手,而且至少对个别节点做微调效果立竿见影,不过大规模应用是否普遍有效还需要进一步检验,我们还没做进一步试验,这里仅作为一种思路介绍。

总结

本文仅简要列举了几项图结构表示学习发展中有代表性的工作供大家参考;GCN和GraphSAGE代表了图结构转换两种处理角度,就表示学习而言,或许是受图规模和计算资源的限制,后续工作中倾向于后者的采样方法的占比较高,但"图Fourier变换"的思路非常精彩不容忽视,而且在流形学习等领域也有诸多应用;基于子图训练聚合函数的方向上,除了尝试更有效的编码结构外,如何扩展和结合更丰富的图结构信息应该是更关键的方向,除了上文提到的有向图外,在推荐系统中已经出现了很多基于异构信息网络(heterogeneous information network[12])的工作,用于结合节点和边对应的不同类别或语义;当然回归工程实践,我们不该忽略Graph Embedding类的方法,也不该将其与GNN割裂开,上文提到的ProNE中的传播策略完全可以用于其他方法的Embedding向量上,基于此类方法再训练GraphSAGE有可能更容易收敛,简单的有向图线性组合也具有指导意义。下一步我们也希望在ProNE的基础上尝试更多深层结构,并基于有向图线性组合的思路,调整图结构来贴合不同应用任务。


参考文献

[1] https://arxiv.org/abs/1403.6652

[2] https://arxiv.org/abs/1503.03578

[3] https://arxiv.org/abs/1607.00653

[4] https://persagen.com/files/misc/scarselli2009graph.pdf

[5] https://arxiv.org/abs/1609.02907

[6] https://zh.wikipedia.org/wiki/拉普拉斯算子

[7] https://arxiv.org/abs/1312.6203

[8] https://papers.nips.cc/paper/6703-inductive-representation-learning-on-large-graphs.pdf

[9] https://arxiv.org/pdf/1806.01973.pdf

[10] https://www.ijcai.org/Proceedings/2019/594

[11] https://www.aclweb.org/anthology/P19-1320/

[12] https://arxiv.org/pdf/1511.0485

转载自:https://zhuanlan.zhihu.com/p/122285764

初探GNN-文本表示学习相关推荐

  1. 初探富文本之编辑器引擎

    初探富文本之编辑器引擎 在前文中我们介绍了富文本的基础概念,以及富文本的基本发展历程,那么在本文中将会介绍当前主流开源的富文本编辑器引擎.当前使用最广泛的富文本编辑器是L1的富文本编辑器,其能满足绝大 ...

  2. 带你用深度学习虚拟机进行文本迁移学习(附代码)

    作者:Anusua Trivedi.Wee Hyong Tok 翻译:付宇帅 校对:卢苗苗 本文5302字,建议阅读10分钟. 本文讲述了现代机器学习的模型,主要由微软数据科学家Anusua Triv ...

  3. [Embeding-2]文本表示学习-词嵌入入门理解

    转载自Scofield Phil: http://www.scofield7419.xyz/2017/09/25/文本表示学习-词嵌入入门理解/ 之前一段时间,在结合深度学习做NLP的时候一直有思考一 ...

  4. 深入浅出图神经网络|GNN原理解析☄学习笔记(四)表示学习

    深入浅出图神经网络|GNN原理解析☄学习笔记(四)表示学习 文章目录 深入浅出图神经网络|GNN原理解析☄学习笔记(四)表示学习 表示学习 表示学习的意义 离散表示与分布式表示 端到端学习 基于重构损 ...

  5. 富文本编辑器 —— 学习笔记

    富文本编辑器 -- 学习笔记 文章目录 富文本编辑器 -- 学习笔记 一.wangEditor 1.内容处理--获取/设置 JSON 一.wangEditor 1.内容处理--获取/设置 JSON 使 ...

  6. 初探富文本之OT协同算法

    初探富文本之OT协同算法 OT的英文全称是Operational Transformation,是一种处理协同编辑的算法.当前OT算法用的比较多的地方就是富文本编辑器领域了,常用于作为实现文档协同的底 ...

  7. 文本分类学习 (五) 机器学习SVM的前奏-特征提取(卡方检验续集)

    前言: 上一篇比较详细的介绍了卡方检验和卡方分布.这篇我们就实际操刀,找到一些训练集,正所谓纸上得来终觉浅,绝知此事要躬行.然而我在躬行的时候,发现了卡方检验对于文本分类来说应该把公式再变形一般,那样 ...

  8. DO-178B三种文本对照学习注记

    DO-178B三种文本对照学习注记 1.        引言 本文汇总了对英文版DO-178B.法文版ED-12B和中文版HB/Z295-96进行对照学习时所做的注记.这三种文本是: 英文版:RTCA ...

  9. 初探富文本之富文本概述

    初探富文本之富文本概述 富文本编辑器通常指的是可以对文字.图片等进行编辑的产品,具有所见即所得的能力.对于Input.Textarea之类标签,他们是支持内容编辑的,但并不支持带格式的文本或者是图片的 ...

最新文章

  1. tomcat部署 修改域名和访问域名时去掉项目名
  2. SpringBoot内置tomcat启动原理
  3. 梯度下降回归SGDRegressor、岭回归(Ridge)和套索(Lasso)回归、套索最小角回归、ElasticNet回归、正交匹配追踪回归
  4. 如何针对CMS系统进行SEO优化_
  5. “智源-MagicSpeechNet 家庭场景中文语音数据集挑战赛”上线
  6. 转载: Qt 学习之路 2归档
  7. 创建一个storageevent事件_事件循环:微任务和宏任务
  8. Opencv imshow显示不出来图片
  9. 泰勒级数 快速傅里叶变换(Fast Fourier Transfor FFT)
  10. 来自百度的71款开源项目
  11. OJ、ACM提交常见错误类型
  12. 锁、threading.local、线程池
  13. asp.net调用前台js调用后台代码分享
  14. linux学习(3)——vim文本编辑工具
  15. 最简单的又炫的快捷菜单....喜欢的拿起就跑
  16. Redis下载部署并加入idea应用(详细笔记)
  17. 多图详解IT架构师完整知识体系及技术栈
  18. Silverlight 减小 Xap 的大小
  19. 成为会带团队的技术人 大项目:把握关键点,谋定而后动
  20. 【学习react中遇到的坑:内存泄漏报错】

热门文章

  1. Python基础教程:hashlib和hmac模块
  2. python最大公约数和最小公倍数
  3. python内置函数——sorted、filter、map、format
  4. python issubclass 和 isinstance函数
  5. vscode 代码莫名爆红(未定义标识符 “nullptr“)解决办法(VSCode 如何快速打开c_c++_properties.json文件)
  6. python 基于UDP协议的socket 报错:OSError: [WinError 10049] 在其上下文中,该请求的地址无效(绑定的ip要跟本地ip对应)
  7. Intel Realsense D435 Post-processing filters 后处理过滤器(用于消除图像的黑洞)
  8. linux——脚本的练习示例三
  9. 河南省计算机大学应用水平考试,河南省大学计算机等级考试选择题(文管二级)...
  10. mfc控件变量没定义_WinCC字符串归档变量查询