Structural Deep Embedding for Hyper-Networks

基本信息

博客贡献人

垂杨柳

作者

Haoyu Wang, Defu Lian*, Yong Ge

[重要作者提示]

标签

network embedding;hyperedges;structural deep embedding

摘要

用超边对超网进行分解,提出了DHNE模型(Deep Hyper-Network Embedding),以学习有着不可分解的hyperedges的网络的嵌入表示。

从理论上证明了现有方法中常用的嵌入空间的线性相似度度量不能保持超网络的不可分解性。

问题定义

Definition 1 (Hyper-network). 一个hyper-graph定义为 G = ( V , E ) G=(V,E) G=(V,E),其中 V V V是节点集合,有 T T T种类型, V = { V t } t = 1 T V=\{V_t\}^T_{t=1} V={Vt}t=1TE E E为边的集合,每个边由于多于2个节点组成, E = E i = ( v i , v 2 , … , v n ) ( n ≥ 2 ) E=E_i=(v_i,v_2,\dots,v_n)(n\geq 2) E=Ei=(vi,v2,,vn)(n2)。边 E i E_i Ei的类型是边中所有节点类型的组合。若 T ≥ 2 T\geq2 T2,则该hyper-network是异质的。

**Definition 2 (The First-order Proximity of Hyper-network).**衡量了节点之间N-tuplewise的相似性。对于N个节点,如果存在一个hyper-edge包含了这N个节点,则这N个节点的一阶相似性为1。而且这N个节点的任意子集都没有一阶相似性。

**Definition 3 (The Second-order Proximity of Hyper-network).**二阶相似性衡量了给定邻域结构的两点之间的相似性。对于任意节点 v i ∈ E i v_i\in E_i viEiE i / v i E_i/v_i Ei/vi表示节点 v i v_i vi的邻居。如果 v i v_i vi的邻居 { E i / v i f o r a n y v i ∈ E i } \{E_i/v_i\ for \ any \ v_i\in E_i\} {Ei/viforanyviEi}v j v_j vj的邻居相似,则 v i v_i vi的向量表示和 v j v_j vj的相似。

例如,在图中, A 1 A_1 A1的邻居集合为 { ( L 2 , U 1 ) , ( L 1 , U 2 ) } \{(L_2, U_1), (L_1, U_2)\} {(L2,U1),(L1,U2)}。其中 A 1 , A 2 A_1,A_2 A1,A2有二阶相似性,因为他们有共同的邻居 ( L 1 , U 2 ) (L_1,U_2) (L1,U2)

对于一个图 G G G我们需要相应节点的嵌入来进行下游的各种任务。现有的绝大多数网络嵌入方法都是为一般的pairwise network设计的,即每条边仅连接一对节点。然而在现实的应用中,节点之间的关系是比较复杂的,超越了pairwise,可能是一对多甚至是多对多的。

方法

这篇论文的工作思路如下:

提出DHNE模型,以解决超网嵌入的相关问题。

证明嵌入空间的线性相似度度量不能保持超网络的不可分解性。

方法描述

网络的结构如上图,主要有三层结构,第一层主要是自编码器,第二层非线性变换,第三层有监督训练

为了保持超网络的一阶邻近性,需要在嵌入空间中进行N元组相似性度量。如果N个顶点之间存在超边,则这些顶点之间的N元组相似度应较大,否则应较小。

Property 1. X i X_i Xi作为节点 v i v_i vi的嵌入表示, S S S作为N-tuplewise相似性函数。若 ( v 1 , v 2 , … , v n ) ∈ E (v_1,v_2,\dots,v_n)\in E (v1,v2,,vn)E,则 S ( X 1 , X 2 , … , X N ) S(X_1,X_2,\dots,X_N) S(X1,X2,,XN)应该大于阈值。若 ( v 1 , v 2 , … , v n ) ∉ E (v_1,v_2,\dots,v_n)\notin E (v1,v2,,vn)/E,则 S ( X 1 , X 2 , … , X N ) S(X_1,X_2,\dots,X_N) S(X1,X2,,XN)应该小于阈值。

这里给出证明线性元组相似函数不能满足性质1的定理。

Theorem 1. 线性函数 S ( X 1 , X 2 , … , X N ) = ∑ i W i X i S(X_1,X_2,\dots,X_N)=\sum_i{W_iX_i} S(X1,X2,,XN)=iWiXi不能满足Property 1.

proof.

上述定理表明N元组相似函数S应该是一个非线性形式。这促使我们用多层感知器对其进行建模。多层感知器由两个部分组成,分别在图2的第二层和第三层中显示。第二层是具有非线性激活函数的全连通层。以3个节点 ( v i , v j , v k ) (v_i,v_j,v_k) (vi,vj,vk)的嵌入 ( X i a , X j b , X k c ) (X_i^a,X_j^b,X_k^c) (Xia,Xjb,Xkc)为输入,将它们连接起来,并将它们非线性地映射到一个共同的潜在空间 L L L。它们在潜在空间的联合表示如下所示:
L i j k = σ ( W a ( 2 ) ∗ X i a + W b ( 2 ) ∗ X j b + W c ( 2 ) ∗ X k c + b ( 2 ) ) L_{ijk}=\sigma(W_a^{(2)}*X_i^a+W_b^{(2)}*X_j^b+W_c^{(2)}*X_k^c+b^{(2)}) Lijk=σ(Wa(2)Xia+Wb(2)Xjb+Wc(2)Xkc+b(2))
其中, σ \sigma σ是Sigmoid函数。

在得到潜在表示 L i j k L_{ijk} Lijk后,最后将其*映射到第三层的概率空间,以获得相似度:
S i j k ≡ S ( X i a , X j b , X k c ) = σ ( W ( 3 ) ∗ L i j k + b ( 3 ) ) S_{ijk}\equiv S(X_i^a,X_j^b,X_k^c)=\sigma(W^{(3)}*L_{ijk}+b^{(3)}) SijkS(Xia,Xjb,Xkc)=σ(W(3)Lijk+b(3))
结合上述提及的两层,我们得到了一个非线性的元组相似性度量函数 S S S。为了使这个相似性函数满足Property 1,我们提出了如下的目标函数:
L 1 = − ( R i j k l o g S i j k + ( 1 − R i j k ) l o g ( 1 − S i j k ) ) L_1=-(R_{ijk}logS_{ijk}+(1-R_{ijk})log(1-S{ijk})) L1=(RijklogSijk+(1Rijk)log(1Sijk))
其中,当 v i , v j , v k v_i,v_j,v_k vi,vj,vk之间存在超边的时 R i j k R_{ijk} Rijk为1,否则为0。根据这个目标函数,很容易判断当 R i j k R_{ijk} Rijk为1时,相似度 S i j k S_{ijk} Sijk应当更大,否则应该更小。换句话说,保证了一阶相似性。

接下来,我们考虑保留二阶相似性。图2中的第一层用来保证二阶相似性。二阶相似性用来衡量邻居结构的相似度。这里我们定义hyper-network的邻接矩阵来获取邻域的结构。首先我们给出hyper-graph的一些基本定义。对于一个hypergraph G = ( V , E ) G=(V,E) G=(V,E),定义了一个 ∣ V ∣ ∗ ∣ E ∣ |V|*|E| VE的关联矩阵 H H H,如果 v ∈ e v\in e ve,则 h ( v , e ) = 1 h(v,e)=1 h(v,e)=1,否则为0。对于顶点 v ∈ V v\in V vV,顶点度定义为 d ( v ) = ∑ ( e ∈ E ) h ( v , e ) d(v)=\sum_{(e\in E)}h(v,e) d(v)=(eE)h(v,e)。设 D v D_v Dv表示包含顶点度的对角矩阵。则hypergraph G G G的邻接矩阵 A A A可定义为 A = H H T − D v A=HH^T-D_v A=HHTDv,其中 H T H^T HTH H H的转置。邻接矩阵 A A A的每个元素表示两个节点之间的并发次数,邻接矩阵 A A A的第 i i i行表示顶点 v i v_i vi的邻域结构。我们使用邻接矩阵 A A A作为输入特征,并使用自动编码器作为模型来保持邻域结构。自动编码器由编码器和解码器组成。编码器是从特征空间A到潜在表示空间X的非线性映射,解码器是从潜在表示X空间返回到原始特征空间 A ^ \hat{A} A^的非线性映射,如下所示:
X i = σ ( W ( 1 ) ∗ A i + b ( 1 ) ) X_i=\sigma(W^{(1)}*A_{i}+b^{(1)}) Xi=σ(W(1)Ai+b(1))

A ^ i = σ ( W ^ ( 1 ) ∗ X i + b ^ ( 1 ) ) \hat{A}_i=\sigma(\hat{W}^{(1)}*X_i+\hat{b}^{(1)}) A^i=σ(W^(1)Xi+b^(1))

自动编码器的目标是最小化输入和输出之间的重建误差。自动编码器的重构过程将使具有相似邻域的节点具有相似的潜在表示,从而保持二阶邻接关系。值得注意的是,输入特征是超网络的邻接矩阵,而邻接矩阵往往是极其稀疏的。为了提高模型的速度,我们只重构邻接矩阵中的非零元素。重构误差如下所示:
∣ ∣ s i g n ( A i ) ⊙ ( A i − A i ^ ) ∣ ∣ F 2 ||sign(A_i)\odot (A_i-\hat{A_i})||^2_F ∣∣sign(Ai)(AiAi^)F2
其中,sign是sign函数。

此外,在超网络中,顶点的类型往往多种多样,形成了异质的超网络。考虑到不同类型节点的特殊性,需要为不同类型的节点学习唯一的潜在空间。在我们的模型中,每种不同类型的实体都有自己的自动编码器模型,如图2所示。然后,对于所有类型的节点,损失函数定义为:
L 2 = ∑ t ∣ ∣ s i g n ( A i t ) ⊙ ( A i t − A ^ i t ) ∣ ∣ F 2 L_2=\sum_{t}||sign(A^t_i)\odot(A^t_i-\hat{A}^t_i)||^2_F L2=t∣∣sign(Ait)(AitA^it)F2
其中 t t t是节点类型的索引。

为了同时保持异质超网络的一阶邻近性和二阶邻近性,我们通过组合方程7和方程11来联合最小化目标函数:
L = L 1 + α L 2 L=L_1+\alpha L_2 L=L1+αL2

实验

实验设置

数据集

文章使用了四种不同类型的数据集,包括GPS网络、社会网络、医学网络和语义网络。详细信息如下所示。

∙ \bullet GPS:数据集描述了用户在特定位置加入某个活动。(用户、位置、活动)关系用于构建超网络。

∙ \bullet MovieLens:此数据集描述来自MovieLens的个人标记活动。每部电影都至少有一种类型的标签。将(用户、电影、标签)关系视为超边,形成一个超网络。

∙ \bull drug:该数据集来自FDA不良事件报告系统(FAERS)。它包含有关提交给FDA的不良事件和用药错误报告的信息。我们通过(使用者、药物、反应)关系来构建超网络,即使用者发生了一定的反应并服用了某些药物就会导致不良事件。

∙ \bull wordnet:该数据集由从WordNet 3.0提取的三元组(同义词集、关系类型、同义词集)的集合组成。我们可以将头实体、关系实体、尾实体作为三类节点,将三元组关系作为超边来构建超网络。

对比试验

DeepWalk,LINE、node2vec、Spectral Hypergraph Embedding(SHE)、Tensor decomposition 和HyperEdge Based Embedding (HEBE)

DeepWalk、Line和node2vec是传统的两两网络嵌入方法。Tensor decomposition是一种在异质超网络中保持高阶关系的直接方法。Hebe学习针对异类事件数据的节点嵌入。其中,DeepWalk、Line、node2vec和她只能衡量成对关系。

参数设置

对于DeepWalk和node2vec,窗口大小为10,步长为40,每顶点行走为10。对于Line,负采样数为5。

统一地将所有方法的表示大小设置为64。

自动编码器的隐藏层大小设置为64,也是表示大小。全连接层的大小被设置为来自所有类型的嵌入长度的总和192。文章从{0.01,0.1,1,2,5,10}进行网格搜索,以调整参数α。

实验结果及分析

Link Prediction

通过比较LINE、DeepWalk、SHE和DHNE的性能,可以观察到,将高阶关系转换为多个两两关系会损害学习嵌入的预测能力。由于张量和Hebe可以在一定程度上解决高阶关系,因此该方法相对于这两种方法的巨大改进幅度清楚地表明了二阶邻近性在超网络嵌入中的重要性。

Classification

从结果来看,我们有以下几点观察:

∙ \bull 在Micro-F1和Macro-F1曲线上,该方法都比基线表现得更好。实验结果证明了该方法在分类任务中的有效性。

∙ \bull 当标注的数据变得更丰富时,该方法的相对改进比基线更明显。此外,如上图底部所示,当标记的数据相当稀疏时,该方法仍然优于基线。这证明了我们方法的健壮性。

相关知识链接

下载

电影数据集[https://movielens.org/]

药物数据集[http://www.fda.gov/Drugs/]

基础知识

基准实验涉及的论文

Line: Large-scale information network embedding. 【https://dl.acm.org/doi/abs/10.1145/2736277.2741093】

Deepwalk: Online learning of social representations.【http://hanj.cs.illinois.edu/cs512/survey_slides/2-15-wang.pdf】

node2vec: Scalable feature learning for networks.【https://dl.acm.org/doi/abs/10.1145/2939672.2939754】

Learning with hypergraphs: Clustering, classification, and embedding. 【https://proceedings.neurips.cc/paper/2006/file/dff8e9c2ac33381546d96deea9922999-Paper.pdf】

Structural deep network embedding.【https://dl.acm.org/doi/abs/10.1145/2939672.2939753】

方法组件涉及的论文

相关工作涉及的论文

后续研究涉及的论文

总结

[亮点]

利用超边来学习超网的低维表示,提出一阶二阶相似性,对大图时间复杂度较为友好。

从理论上证明了现有方法中常用的嵌入空间中的任何线性相似度量都不能保持超网络中的不可分解性质,从而提出了一种新的深度模型来实现非线性元组相似函数,同时保持形成的嵌入空间中的局部和全局邻近性。

[不足]

在超边内部,单一的认为相似度为1,有改进空间。

[启发]

采用超边处理知识图谱有一定的理论根据。

BibTex

@article{tu2017structural,title={Structural Deep Embedding for Hyper-Networks},author={Tu, Ke and Cui, Peng and Wang, Xiao and Wang, Fei and Zhu, Wenwu},journal={arXiv preprint arXiv:1711.10146},year={2017}
}

Structural Deep Embedding for Hyper-Networks相关推荐

  1. 异质网络表示--Structural Deep Embedding for Hyper-Networks

    [Structural Deep Embedding for Hyper-Networks](https://arxiv.org/abs/1711.10146) 是在hyperedge(超边是不可分解 ...

  2. 文献学习(part14)--Structural Deep Network Embedding

    学习笔记,仅供参考,有错必纠 文章目录 Structural Deep Network Embedding ABSTRACT INTRODUCTION RELATED WORK Deep Neural ...

  3. 【论文阅读|深读】SDNE:Structural Deep Network Embedding

    目录 前言 ABSTRACT 1. INTRODUCTION 2. RELATED WORK 2.1 Deep Neural Network 2.2 Network Embedding 3. STRU ...

  4. 【文本分类】Deep Pyramid Convolutional Neural Networks for Text Categorization

    ·阅读摘要:   本文提出了DPCNN(深度金字塔CNN)模型.在transformer.bert还没兴起的年代,模型越深效果越好,但是模型的复杂度会随着深度提升.粗略地说,DPCNN就是为了解决CN ...

  5. 遥感图像-Deep Feature Alignment Neural Networks for Domain Adaptation of Hyperspectral Data高光谱数据深度特征对齐神经

    Deep Feature Alignment Neural Networks for Domain Adaptation of Hyperspectral Data高光谱数据领域自适应的深度特征对齐神 ...

  6. Structural Deep Clustering Network阅读与翻译

    文章作者信息: Structural Deep Clustering Network 结构化深度聚类网络 深度聚类算法SDCN,首次将GNN用到聚类上,由北邮.腾讯和清华联合发表在WWW2020上. ...

  7. 【论文笔记】Unsupervised Deep Embedding for Clustering Analysis(DEC)

    [论文笔记]Unsupervised Deep Embedding for Clustering Analysis(DEC) 文章题目:Unsupervised Deep Embedding for ...

  8. PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection

    PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection 传送门:      论文:https://www ...

  9. 经典DL论文研读(part2)--Deep Sparse Rectifier Neural Networks

    学习笔记,仅供参考,有错必纠 文章目录 Deep Sparse Rectifier Neural Networks Abstract Introduction Background Deep Rect ...

最新文章

  1. Intel® oneAPI Toolkit编译VASP
  2. python的底层是c_python基本数据类型底层实现
  3. opencv学习笔记16:梯度运算之scharr算子及其函数使用
  4. ubuntu下mysql-python模块的安装
  5. a5d27 emmc启动 修改1
  6. NVMe闪存存储系统设计挑战
  7. 4月23日 MySQL学习-DDL
  8. 《linux核心应用命令速查》连载二:lastcomm:显示以前使用过的命令的信息
  9. SmartImageView
  10. Android编程随机抽奖,js抽奖实现随机抽奖代码效果
  11. 基于STM32F103的电子磁密码锁智能门禁原理图PCB程序设计
  12. 软考-网络工程师-下午考试知识点
  13. 不同激光粒度仪测试结果不一致的深层原因分析
  14. JavaScript 鼠标事件
  15. 基于java的圆通快递单号自动识别api接口代码实例
  16. 程序员撩妹指南-抖音爆火3D相册
  17. Oracle错误12154的解决方法
  18. 浏览器兼容性笔记(转)
  19. java 翻译接口_java版本 百度翻译接口
  20. 如何使linux用户下次登录强制修改密码

热门文章

  1. 第十三周总结——认清自己
  2. 机器人导论学习(一)
  3. [转]复合信号、S-Video信号、分量信号
  4. BMS电池管理控制器模型,包括:SOC,SOE和SOH,各个模块含有解析部分,模型和解析单独出
  5. Java 图片处理 给原有图片填充颜色满足需求大小 背景透明
  6. 使用VS2012进行单元测试
  7. Rockchip Android平台挂在samba共享文件夹
  8. France beat Croatia 4-2 in World Cup final
  9. 莫比乌斯(Mobius)反演知识整合
  10. Csapp-程序人生