图神经网络基础–图结构数据

注:本节大部分内容(包括图片)来源于"Chapter 2 - Foundations of Graphs, Deep Learning on Graphs",我们做了翻译与重新排版,并增加了一些细节内容。

一、图的表示

定义一(图)

  • 一个图被记为 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E},其中 V = { v 1 , … , v N } \mathcal{V}=\left\{v_{1}, \ldots, v_{N}\right\} V={v1​,…,vN​}是数量为 N = ∣ V ∣ N=|\mathcal{V}| N=∣V∣ 的节点的集合, E = { e 1 , … , e M } \mathcal{E}=\left\{e_{1}, \ldots, e_{M}\right\} E={e1​,…,eM​} 是数量为 M M M 的边的集合。
  • 图用节点表示实体(entities ),用边表示实体间的关系(relations)。
  • 节点和边的信息可以是类别型的(categorical),类别型数据的取值只能是哪一类别。一般称类别型的信息为标签(label)
  • 节点和边的信息可以是数值型的(numeric),数值型数据的取值范围为实数。一般称数值型的信息为属性(attribute)
  • 在图的计算任务中,我们认为,节点一定含有信息(至少含有节点的度的信息),边可能含有信息。

定义二(图的邻接矩阵)

  • 给定一个图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E},其对应的邻接矩阵被记为 A ∈ { 0 , 1 } N × N \mathbf{A} \in\{0,1\}^{N \times N} A∈{0,1}N×N。 A i , j = 1 \mathbf{A}_{i, j}=1 Ai,j​=1表示存在从节点 v i v_i vi​到 v j v_j vj​的边,反之表示不存在从节点 v i v_i vi​到 v j v_j vj​的边。

  • 无向图中,从节点 v i v_i vi​到 v j v_j vj​的边存在,意味着从节点 v j v_j vj​到 v i v_i vi​的边也存在。因而无向图的邻接矩阵是对称的

  • 无权图中,各条边的权重被认为是等价的,即认为各条边的权重为 1 1 1

  • 对于有权图,其对应的邻接矩阵通常被记为 W ∈ R N × N \mathbf{W} \in \mathbb{R}^{N \times N} W∈RN×N,其中 W i , j = w i j \mathbf{W}_{i, j}=w_{ij} Wi,j​=wij​表示从节点 v i v_i vi​到 v j v_j vj​的边的权重。若边不存在时,边的权重为 0 0 0。

    一个无向无权图的例子:

其邻接矩阵为:
A = ( 0 1 0 1 1 1 0 1 0 0 0 1 0 0 1 1 0 0 0 1 1 0 1 1 0 ) \mathbf{A}=\left(\begin{array}{lllll} 0 & 1 & 0 & 1 & 1 \\ 1 & 0 & 1 & 0 & 0 \\ 0 & 1 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 & 1 \\ 1 & 0 & 1 & 1 & 0 \end{array}\right) A=⎝ ⎛​01011​10100​01001​10001​10110​⎠ ⎞​

二、图的属性

定义三(节点的度,degree)

  • 对于有向有权图,节点 v i v_i vi​的出度(out degree)等于从 v i v_i vi​出发的边的权重之和,节点 v i v_i vi​的入度(in degree)等于从连向 v i v_i vi​的边的权重之和。
  • 无向图是有向图的特殊情况,节点的出度与入度相等。
  • 无权图是有权图的特殊情况,各边的权重为 1 1 1,那么节点 v i v_i vi​的出度(out degree)等于从 v i v_i vi​出发的边的数量,节点 v i v_i vi​的入度(in degree)等于从连向 v i v_i vi​的边的数量。
  • 节点 v i v_i vi​的度记为 d ( v i ) d(v_i) d(vi​),入度记为 d i n ( v i ) d_{in}(v_i) din​(vi​),出度记为 d o u t ( v i ) d_{out}(v_i) dout​(vi​)。

定义四(邻接节点,neighbors)

  • 节点 v i v_i vi​的邻接节点为与节点 v i v_i vi​直接相连的节点,其被记为** N ( v i ) \mathcal{N(v_i)} N(vi​)**。
  • **节点 v i v_i vi​的 k k k跳远的邻接节点(neighbors with k k k-hop)**指的是到节点 v i v_i vi​要走 k k k步的节点(一个节点的 2 2 2跳远的邻接节点包含了自身)。

定义五(行走,walk)

  • w a l k ( v 1 , v 2 ) = ( v 1 , e 6 , e 5 , e 4 , e 1 , v 2 ) walk(v_1, v_2) = (v_1, e_6,e_5,e_4,e_1,v_2) walk(v1​,v2​)=(v1​,e6​,e5​,e4​,e1​,v2​),这是一次“行走”,它是一次从节点 v 1 v_1 v1​出发,依次经过边 e 6 , e 5 , e 4 , e 1 e_6,e_5,e_4,e_1 e6​,e5​,e4​,e1​,最终到达节点 v 2 v_2 v2​的“行走”。
  • 下图所示为 w a l k ( v 1 , v 2 ) = ( v 1 , e 6 , e 5 , e 4 , e 1 , v 2 ) walk(v_1, v_2) = (v_1, e_6,e_5,e_4,e_1,v_2) walk(v1​,v2​)=(v1​,e6​,e5​,e4​,e1​,v2​),其中红色数字标识了边的访问序号。
  • 在“行走”中,节点是允许重复的。

定理六

  • 有一图,其邻接矩阵为 A \mathbf{A} A, A n \mathbf{A}^{n} An为邻接矩阵的 n n n次方,那么 A n [ i , j ] \mathbf{A}^{n}[i,j] An[i,j]等于从节点 v i v_i vi​到节点 v j v_j vj​的长度为 n n n的行走的个数。(也就是,以节点 v i v_i vi​为起点,节点 v j v_j vj​为终点,长度为 n n n的节点访问方案的数量,节点访问中可以兜圈子重复访问一些节点)

定义七(路径,path)

  • “路径”是节点不可重复的“行走”。

定义八(子图,subgraph)

  • 有一图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E},另有一图 G ′ = { V ′ , E ′ } \mathcal{G}^{\prime}=\{\mathcal{V}^{\prime}, \mathcal{E}^{\prime}\} G′={V′,E′},其中 V ′ ∈ V \mathcal{V}^{\prime} \in \mathcal{V} V′∈V, E ′ ∈ E \mathcal{E}^{\prime} \in \mathcal{E} E′∈E并且 V ′ \mathcal{V}^{\prime} V′不包含 E ′ \mathcal{E}^{\prime} E′中未出现过的节点,那么 G ′ \mathcal{G}^{\prime} G′是 G \mathcal{G} G的子图。

定义九(连通分量,connected component)

  • 给定图 G ′ = { V ′ , E ′ } \mathcal{G}^{\prime}=\{\mathcal{V}^{\prime}, \mathcal{E}^{\prime}\} G′={V′,E′}是图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E}的子图。记属于图 G \mathcal{G} G但不属于 G ′ \mathcal{G}^{\prime} G′图的节点集合记为 V / V ′ \mathcal{V}/\mathcal{V}^{\prime} V/V′ 。如果属于 V ′ \mathcal{V}^{\prime} V′的任意节点对之间存在至少一条路径,但不存在一条边连接属于 V ′ \mathcal{V}^{\prime} V′的节点与属于 V / V ′ \mathcal{V}/\mathcal{V}^{\prime} V/V′的节点,那么图 G ′ \mathcal{G}^{\prime} G′是图 G \mathcal{G} G的连通分量。
    左右两边子图都是整图的连通分量。
    定义十(连通图,connected graph)

  • 当一个图只包含一个连通分量,即其自身,那么该图是一个连通图。

定义十一(最短路径,shortest path)

  • v s , v t ∈ V v_{s}, v_{t} \in \mathcal{V} vs​,vt​∈V 是图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E}上的一对节点,节点对 v s , v t ∈ V v_{s}, v_{t} \in \mathcal{V} vs​,vt​∈V之间所有路径的集合记为 P s t \mathcal{P}_{\mathrm{st}} Pst​。节点对 v s , v t v_{s}, v_{t} vs​,vt​之间的最短路径 p s t s p p_{\mathrm{s} t}^{\mathrm{sp}} pstsp​为 P s t \mathcal{P}_{\mathrm{st}} Pst​中长度最短的一条路径,其形式化定义为
    p s t s p = arg ⁡ min ⁡ p ∈ P s t ∣ p ∣ p_{\mathrm{s} t}^{\mathrm{sp}}=\arg \min _{p \in \mathcal{P}_{\mathrm{st}}}|p| pstsp​=argp∈Pst​min​∣p∣
    其中, p p p表示 P s t \mathcal{P}_{\mathrm{st}} Pst​中的一条路径, ∣ p ∣ |p| ∣p∣是路径 p p p的长度。

定义十二(直径,diameter)

  • 给定一个连通图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E},其直径为其所有节点对之间的最短路径的最大值,形式化定义为

diameter ⁡ ( G ) = max ⁡ v s , v t ∈ V min ⁡ p ∈ P s t ∣ p ∣ \operatorname{diameter}(\mathcal{G})=\max _{v_{s}, v_{t} \in \mathcal{V}} \min _{p \in \mathcal{P}_{s t}}|p| diameter(G)=vs​,vt​∈Vmax​p∈Pst​min​∣p∣

定义十三(拉普拉斯矩阵,Laplacian Matrix)

  • 给定一个图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E},其邻接矩阵为 A A A,其拉普拉斯矩阵定义为 L = D − A \mathbf{L=D-A} L=D−A,其中 D = d i a g ( d ( v 1 ) , ⋯ , d ( v N ) ) \mathbf{D=diag(d(v_1), \cdots, d(v_N))} D=diag(d(v1​),⋯,d(vN​))。

定义十四(对称归一化的拉普拉斯矩阵,Symmetric normalized Laplacian)

  • 给定一个图 G = { V , E } \mathcal{G}=\{\mathcal{V}, \mathcal{E}\} G={V,E},其邻接矩阵为 A A A,其规范化的拉普拉斯矩阵定义为

L = D − 1 2 ( D − A ) D − 1 2 = I − D − 1 2 A D − 1 2 \mathbf{L=D^{-\frac{1}{2}}(D-A)D^{-\frac{1}{2}}=I-D^{-\frac{1}{2}}AD^{-\frac{1}{2}}} L=D−21​(D−A)D−21​=I−D−21​AD−21​

三、图的种类

  • 同质图(Homogeneous Graph):只有一种类型的节点和一种类型的边的图。

  • 异质图(Heterogeneous Graph):存在多种类型的节点和多种类型的边的图。

  • 二部图(Bipartite Graphs):节点分为两类,只有不同类的节点之间存在边。

四、图结构数据上的机器学习

  1. 节点预测:预测节点的类别或某类属性的取值

    1. 例子:对是否是潜在客户分类、对游戏玩家的消费能力做预测
  2. 边预测:预测两个节点间是否存在链接
    1. 例子:Knowledge graph completion、好友推荐、商品推荐
  3. 图的预测:对不同的图进行分类或预测图的属性
    1. 例子:分子属性预测
  4. 节点聚类:检测节点是否形成一个社区
    1. 例子:社交圈检测
  5. 其他任务
    1. 图生成:例如药物发现
    2. 图演变:例如物理模拟
    3. ……

五、应用神经网络于图面临的挑战

在学习了简单的图论知识,我们再来回顾应用神经网络于图面临的挑战。

过去的深度学习应用中,我们主要接触的数据形式主要是这四种:矩阵、张量、序列(sequence)和时间序列(time series)它们都是规则的结构化的数据。然而图数据是非规则的非结构化的,它具有以下的特点:

  1. 任意的大小和复杂的拓扑结构;
  2. 没有固定的节点排序或参考点;
  3. 通常是动态的,并具有多模态的特征;
  4. 图的信息并非只蕴含在节点信息和边的信息中,图的信息还包括了图的拓扑结构。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9jhKGFVd-1664198807167)(images/image-20210508111141393-1622014310446.png)]

以往的深度学习技术是为规则且结构化的数据设计的,无法直接用于图数据。应用于图数据的神经网络,要求

  • 适用于不同度的节点
  • 节点表征的计算与邻接节点的排序无关
  • 不但能够根据节点信息、邻接节点的信息和边的信息计算节点表征,还能根据图拓扑结构计算节点表征。下面的图片展示了一个需要根据图拓扑结构计算节点表征的例子。图片中展示了两个图,它们同样有俩黄、俩蓝、俩绿,共6个节点,因此它们的节点信息相同;假设边两端节点的信息为边的信息,那么这两个图有一样的边,即它们的边信息相同。但这两个图是不一样的图,它们的拓扑结构不一样。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cg7qZ7US-1664198807170)(images/image-20210607160411448.png)]

六、结语

在此篇文章中,我们学习了简单的图论知识。对于学习此次组队学习后续的内容,掌握这些图论知识已经足够。如果有小伙伴希望掌握更多的图论知识可以参阅参考文献“Chapter 2 - Foundations of Graphs, Deep Learning on Graphs”。

参考资料

  • Chapter 2 - Foundations of Graphs, Deep Learning on Graphs

图神经网络基础--图结构数据相关推荐

  1. 【赠书】图神经网络基础与前沿最新书籍,赠5本学习

    假期快要到了,本次给大家赠送5本人工智能领域的技术书籍,这次赠送的书籍是<图神经网络基础与前沿>. 这是一本什么样的书 图神经网络是近两年学术界的热点,在顶级会议上的文章越来越多.目前图像 ...

  2. 【阿里云课程】图神经网络基础:图的应用、表示与图卷积

    大家好,继续更新有三AI与阿里天池联合推出的深度学习系列课程,本次更新内容为第9课中的一节,介绍如下: 图神经网络基础 本次课程是阿里天池联合有三AI推出的深度学习系列课程第9期,讲述图神经网络,图的 ...

  3. 图神经网络基础知识——初识图学习

    初识图学习 一.简单的图基础 什么是图? 生活中的图 图的分类 同构图.异构图举例 图的度和邻居 图的表示 邻接矩阵 邻接表 边集 图的特征 二.图学习初印象 图学习的应用 节点级别任务 金融诈骗检测 ...

  4. 图神经网络基础--基于图神经网络的节点表征学习

    图神经网络基础–基于图神经网络的节点表征学习 引言 在图节点预测或边预测任务中,首先需要生成节点表征(Node Representation).我们使用图神经网络来生成节点表征,并通过基于监督学习的对 ...

  5. 图神经网络的图网络学习(上)

    图神经网络的图网络学习(上) 原文:Learning the Network of Graphs for Graph Neural Networks 摘要 图神经网络 (GNN) 在许多使用图结构数据 ...

  6. 图神经网络的图网络学习(下)

    原文:Learning the Network of Graphs for Graph Neural Networks 1. 文章信息 作者 Yixiang Shan, Jielong Yang, X ...

  7. 「图神经网络复杂图挖掘」 的研究进展

    来源:专知 图神经网络对非欧式空间数据建立了深度学习框架,相比传统网络表示学习模型,它对图结构能够实施更加深层的信息聚合操作.近年来,图神经网络完成了向复杂图结构的迁移,诞生了一系列基于复杂图的图神经 ...

  8. 图神经网络之图卷积网络——GCN

    图卷积网络--GCN 一.前置基础知识回顾 图的基本概念 构造图神经网络的目的 训练方式 二.回顾卷积神经网络在图像及文本上的发展 图像上的卷积网络 文本上的卷积网络 图卷积网络的必要性 三.图卷积网 ...

  9. 图神经网络与图注意力网络相关知识概述

    #图神经网络# #图注意力网络# 随着计算机行业和互联网时代的不断发展与进步,图神经网络已经成为人工智能和大数据的重要研究领域.图神经网络是对相邻节点间信息的传播和聚合的重要技术,可以有效地将深度学习 ...

最新文章

  1. RAC rac_liftSelector
  2. 转-android图片降低图片大小保持图片清晰的方法
  3. 快速学习nodejs系列:六、nodejs特性3--事件驱动
  4. CPU 以字节为单位编址,而 C 语言指针以指向的数据类型长度作自增和自减。
  5. [唐诗]189长相思-李白
  6. jzoj4223-旅游【并查集】
  7. python中参数传递_python中参数传递
  8. [译] 如何用 Python 写一个 Discord 机器人
  9. java notifyall 唤醒顺序_Java的多线程NotiFyAll()唤醒线程时的顺序问题 | 学步园
  10. 让人深思:句法真的重要吗?邱锡鹏组提出一种基于Aspect的情感分析的强大基线...
  11. Linux安装maven详细步骤
  12. 卡巴斯基2017免费版发布下载:文件/网页杀毒、自动更新/保护
  13. undefined是什么意思啊
  14. FastJson耗时
  15. spark学习基础篇1--spark概述与入门
  16. c、c++的getchar()函数
  17. Google Play 应用上架(二)
  18. linux服务器两块网卡路由优先级冲突 Metric值
  19. 防疫机器人,走向抗疫前线——科聪整体解决方案助力智能防疫
  20. 用python写一个16进制转换文本字符串

热门文章

  1. python之json格式数据的提取
  2. oracle运维与mysql_运维日记| MySQL/Oracle深度解析之一:逻辑读
  3. 计算机英语的save,save是什么意思_save在线翻译_英语_读音_用法_例句_海词词典
  4. js常用对象:点击、双击、onload事件、鼠标相关、onblur事件和onfocus事件等;通过循环给多个元素添加事件、通过addEventListener() 方法 监听事件函数...
  5. 大专毕业后在富士康当生技
  6. Banner小组年会总结
  7. Python浪漫520表白代码
  8. linux下新建用户并给用户授权
  9. 贪心——绝对值不等式——货仓选址
  10. Debian 为什么没有成立非营利基金会?