摘要

事实证明,在大型图中,节点的低维嵌入在从内容推荐到识别蛋白质功能的各种预测任务中极为有用。 但是,大多数现有方法都要求在训练嵌入过程中,图中的所有节点都必须存在。 这些先前的方法本质上是转导的,不能自然地推广到看不见的节点。 在这里,我们介绍GraphSAGE,这是一个通用的归纳框架,它利用节点特征信息(例如,文本属性)为先前未见的数据有效生成节点嵌入。 我们将学习一个函数,该函数通过对节点本地邻居的特征进行采样和聚合来生成嵌入,而不是为每个节点训练单独的嵌入。 我们的算法在三个归纳节点分类基准上均优于强基准:我们基于引文和Reddit发布数据对演化信息图中的未见节点类别进行分类,并且我们证明了我们的算法使用的多图数据集将其概括为完全看不见的图。 蛋白质-蛋白质相互作用。

引言

大图1中的节点的低维向量嵌入已被证明非常有用,可作为各种预测和图分析任务的特征输入[5,11,28,35,36]。 节点嵌入方法背后的基本思想是使用降维技术将有关节点邻域的高维信息提取为密集的矢量嵌入。 然后,可以将这些节点嵌入提供给下游的机器学习系统,并帮助完成诸如节点分类,聚类和链接预测之类的任务[11、28、35]。
但是,以前的工作集中于从单个固定图嵌入节点,并且许多实际应用程序要求为看不见的节点或全新(子)图快速生成嵌入。 这种归纳能力对于高吞吐量的生产机器学习系统至关重要,该系统在不断变化的图形上运行并不断遇到看不见的节点(例如,Reddit上的帖子,Youtube上的用户和视频)。 一种生成节点嵌入的归纳方法还可以促进具有相同形式特征的图的泛化:例如,可以在从模型生物衍生的蛋白质-蛋白质相互作用图上训练嵌入生成器,然后轻松生成用于从中收集数据的节点嵌入。 使用经过训练的模型的新生物。
与转换设置相比,归纳式节点嵌入问题尤其困难,因为要泛化到看不见的节点,需要将新观察到的子图“对齐”到算法已经优化的节点嵌入。 归纳框架必须学会识别节点邻域的结构属性,这些结构属性既可以显示节点在图中的本地角色,也​​可以显示其全局位置。
大多数现有的生成节点嵌入的方法本质上都是转导的。 这些方法大多数都使用基于矩阵分解的目标直接优化了每个节点的嵌入,并且自然不会将其推广到看不见的数据,因为它们在单个固定图上对节点进行了预测[5、11、23、28, 35、36、37、39]。 可以修改这些方法以在归纳设置下运行(例如[28]),但是这些修改在计算上趋于昂贵,需要在进行新的预测之前进行额外的梯度下降回合。 最近也有使用卷积运算符学习图结构的方法,这些方法将promise作为嵌入方法[17]。 迄今为止,图卷积网络(GCN)仅在具有固定图的转导设置中应用[17,18]。 在这项工作中,我们都将GCN扩展到归纳无监督学习的任务,并提出了一个框架,该框架将GCN方法推广为使用可训练的聚合函数(除了简单的卷积)。

当前工作

我们提出了一个称为GraphSAGE的通用框架(SA mple和aggre G在E),用于归纳节点嵌入。 与基于矩阵分解的嵌入方法不同,我们利用节点功能(例如,文本属性,节点配置文件信息,节点度)来学习可泛化到看不见节点的嵌入功能。 通过将节点特征纳入学习算法,我们可以同时学习每个节点邻域的拓扑结构以及该节点在邻域中的分布。 虽然我们专注于功能丰富的图形(例如具有文本属性的引文数据,具有功能/分子标记的生物学数据),但我们的方法也可以利用所有图形中都存在的结构特征(例如节点度)。
因此,我们的算法也可以应用于没有节点特征的图。
我们没有训练每个节点的独特的嵌入矢量,而是训练了一组聚合器函数,这些函数学习从节点的本地邻域中聚合特征信息(图1)。 每个聚合器功能都会聚合来自给定节点的不同跳数或搜索深度的信息。 在测试或推断时,我们使用受过训练的系统通过应用学习到的聚合函数,为完全看不见的节点生成嵌入。 在先前的生成节点嵌入的工作之后,我们设计了一种无监督的损失函数,该函数允许对GraphSAGE进行训练而无需执行特定于任务的监督。 我们还展示了可以在完全监督的方式下训练GraphSAGE。
我们在三个节点分类基准上评估了我们的算法,测试了GraphSAGE在看不见的数据上生成有用的嵌入的能力。 我们使用两个基于引文数据和Reddit发布数据的演化文档图(分别预测论文和文章类别),以及基于蛋白质-蛋白质相互作用数据集(预测蛋白质功能)的多图概括实验。 使用这些基准,我们证明了我们的方法能够有效地生成看不见的节点的表示形式,并且可以显着地胜过相关的基准:在整个域中,与仅使用节点特征相比,我们的监督方法平均将分类F1分数提高了51% GraphSAGE和GraphSAGE始终优于强大的转导基线[28],尽管在不可见的节点上运行该基线需要花费约100倍的时间。 我们还表明,与受图卷积网络启发的聚合器相比,我们提出的新聚合器体系结构提供了显着的收益(平均7.4%)[17]。 最后,我们探究了我们方法的表达能力,并通过理论分析表明GraphSAGE能够学习关于节点在图中的角色的结构信息,尽管事实上它是基于特征的(第5节)。

相关工作

我们的算法在概念上与先前的节点嵌入方法,用于学习图的常规监督方法以及将卷积神经网络应用于图结构数据的最新进展相关。
基于分解的嵌入方法 有许多最近的节点嵌入方法,它们使用随机游走统计信息和基于矩阵分解的学习目标来学习低维嵌入[5,11,28,35,36]。 这些方法还与更经典的光谱聚类方法[23],多维缩放[19]以及PageRank算法[25]密切相关。 由于这些嵌入算法直接训练单个节点的节点嵌入,因此它们固有地具有传导性,并且至少需要昂贵的额外训练(例如,通过随机梯度下降)来对新节点进行预测。
另外,对于这些方法中的许多方法(例如[11、28、35、36]),目标函数对于嵌入的正交变换是不变的,这意味着嵌入空间不会自然地在图之间泛化,并且在重新生成时会漂移 -训练。 Yang等人提出的Planetoid-I算法是这一趋势的一个明显例外。 [40],这是一种基于归纳,基于嵌入的半监督学习方法。 但是,Planetoid-I在推理过程中不使用任何图形结构信息。 相反,它在训练过程中使用图结构作为正则化形式。 与这些先前的方法不同,我们利用特征信息来训练模型以为看不见的节点生成嵌入。
在图的监督学习 除了节点嵌入方法之外,还有很多关于图结构数据的监督学习的文献。 这包括多种基于内核的方法,其中,图的特征向量是从各种图内核中得出的(请参见[32]及其参考)。 还有许多最近的神经网络方法可以在图结构上进行监督学习[7,10,21,31]。 我们的方法在概念上受到许多这些算法的启发。 但是,尽管这些先前的方法试图对整个图(或子图)进行分类,但这项工作的重点是为各个节点生成有用的表示形式。
图卷积网络 近年来,已经提出了几种用于在图上学习的卷积神经网络体系结构(例如,[4、9、8、17、24])。 这些方法中的大多数不能缩放到大图,或专为全图分类(或两者)而设计[4、9、8、24]。但是,我们的方法与Kipf等人介绍的图卷积网络(GCN)密切相关。 [17,18]。 原始的GCN算法[17]设计用于在转换环境中进行半监督学习,确切的算法要求在训练过程中已知完整的图拉普拉斯算子。 我们算法的一个简单变体可以看作是GCN框架对归纳设置的扩展,这一点我们将在3.3节中进行讨论。

GraphSAGE

我们方法背后的关键思想是,我们学习如何从节点的本地邻域(例如,附近节点的度数或文本属性)中汇总要素信息。 我们首先描述GraphSAGE嵌入生成(即正向传播)算法,该算法假设已经学习GraphSAGE模型参数,则为节点生成嵌入(第3.1节)。 然后,我们描述如何使用标准的随机梯度下降和反向传播技术来学习GraphSAGE模型参数(第3.2节)。
3.1嵌入生成(即前向传播)算法
在本节中,我们描述嵌入生成或前向传播算法(算法1),该算法假定模型已经过训练并且参数是固定的。 特别地,我们假设我们已经学习了K个聚合函数的参数(表示为AGGREGATE k,∀k∈{1,…,K}),这些参数聚合了来自节点邻居的信息以及一组权重矩阵W k,∀k∈{1,…,K},用于在模型的不同层或“搜索深度”之间传播信息。 3.2节介绍了我们如何训练这些参数。
算法1的直觉是,在每次迭代或搜索深度处,节点都会聚合来自其本地邻居的信息,并且随着此过程的反复进行,节点将从图的更远范围逐渐获取越来越多的信息。
算法1描述了在将整个图形G =(V,E)和所有节点x v,∀v∈V的特征作为输入提供的情况下的嵌入生成过程。 我们将在下面介绍如何将其推广到minibatch设置。 算法1外循环中的每个步骤如下进行,其中k表示外循环中的当前步骤(或搜索的深度),hk表示该步骤中节点的表示形式:首先,每个节点v∈V将 将其k-1个紧邻邻域{hk-1 u,∀u∈N(v)}中的节点表示成单个向量h N(v)。 注意,该聚合步骤取决于在外循环的先前迭代(即,k-1)处生成的表示,并且k = 0(“基本情况”)表示被定义为输入节点特征。 聚合相邻的特征向量后,GraphSAGE然后将节点的当前表示hk-1与聚合的邻域向量hk-1 v N(v)串联在一起,并将此串联的向量馈送给具有非线性激活函数σ的完全连接层 ,它转换要在算法的下一步中使用的表示形式(即h kv,v∈V)。 为了便于表示,我们将深度K处的最终表示形式表示为zv≡h K v,∀v∈V。相邻表示的聚集可以通过多种聚合器体系结构来完成(由算法1中的AGGREGATE占位符表示) ,我们将在下面的第3.3节中讨论不同的架构选择。
为了将算法1扩展到minibatch设置,给定一组输入节点,我们首先对所需的邻域集进行正向采样(直至深度K),然后运行内部循环(算法1中的第3行),但无需进行迭代 在所有节点上,我们仅计算满足每个深度递归所必需的表示形式(附录A包含完整的minibatch伪代码)。
与Weisfeiler-Lehman同构测验的关系。 GraphSAGE算法在概念上受到测试图同构性的经典算法的启发。 如果在算法1中,我们(i)设置K = | V |,(ii)将权重矩阵设置为恒等式,并且(iii)使用适当的哈希函数作为聚合器(没有非线性),则算法 图1是Weisfeiler-Lehman(WL)同构测试的实例,也称为“朴素顶点细化” [32]。 如果算法1为两个子图输出的表示集{z v,∀v∈V}相同,则WL测试将两个子图声明为同构。 已知该测试在某些情况下会失败,但对于广泛的图形类型来说是有效的[32]。
GraphSAGE是WL测试的连续近似,其中我们用可训练的神经网络聚合器替换了哈希函数。 当然,我们使用GraphSAGE生成有用的节点表示,而不是测试图同构。 尽管如此,GraphSAGE和经典的WL测试之间的联系为我们的算法设计提供了理论背景,以学习节点邻域的拓扑结构。
邻居定义。 在这项工作中,我们统一采样一组固定大小的邻居,而不是在算法1中使用完整邻域集,以使每批的计算足迹固定不变。 3也就是说,使用重载符号,我们从集合{u∈V:(u,v)∈E}中将N(v)定义为固定大小的均匀绘制,并在每次迭代k上绘制不同的均匀样本 ,在算法1中。
如果不进行此采样,则单个批次的内存和预期运行时间将无法预测,并且在最坏的情况下为O(| V |)。 相反,对于GraphSAGE,每个批处理的空间和时间复杂度是固定的Q K在O(i = 1 S i),其中S i,i∈{1,…,K}和K是用户指定的常数。 实际上,我们发现我们的方法可以在K = 2且S 1·S 2≤500时实现高性能(有关详细信息,请参见第4.4节)。

3.2学习GraphSAGE的参数

为了在完全无监督的情况下学习有用的预测表示,我们将基于图的损失函数应用于输出表示zu,∀u∈V,并调整权重矩阵W k,∀k ∈{1,…,K},以及聚合函数的参数通过随机梯度下降来实现。 基于图的损失函数鼓励附近的节点具有相似的表示形式,同时强制要求不同节点的表示形式非常不同:
公式(1)
其中v是在固定长度随机游走时在u附近共同出现的一个节点,σ是S型函数,P n是负采样分布,Q定义负采样的数量。 重要的是,与以前的嵌入方法不同,我们提供给此损失函数的表示形式z u是从节点本地邻域中包含的要素生成的,而不是针对每个节点训练唯一的嵌入(通过嵌入查找)。
此不受监督的设置模拟了将节点功能作为服务或静态存储库提供给下游机器学习应用程序的情况。 如果仅在特定的下游任务上使用表示形式,则可以通过任务特定的目标(例如,交叉熵损失)简单地替换或增加无监督损失(等式1)。

3.3聚集器体系结构

与基于N-D格(例如句子,图像或3-D体)的机器学习不同,节点的邻居没有自然的顺序。 因此,算法1中的聚合函数必须在无序向量集合上运行。 理想情况下,聚合函数应该是对称的(即,对其输入的排列不变),同时仍可训练并保持较高的表示能力。
聚合函数的对称性确保我们的神经网络模型可以被训练并应用于任意排序的节点邻域特征集。 我们检查了三个候选聚合器功能:
均值聚合器。 我们的第一个候选聚合器函数是均值算子,在这里我们只取{h k-1 u,∀u∈N(v)}中向量的元素均值。 平均聚合器几乎等同于转导GCN框架中使用的卷积传播规则[17]。 特别是,我们可以通过将算法1中的第4行和第5行替换为以下内容来得出GCN方法的归纳变量:
公式(2)
LSTM聚合器。 我们还研究了基于LSTM架构的更复杂的聚合器[14]。 与平均聚合器相比,LSTM具有更大的表达能力。
但是,请务必注意,LSTM不是天生对称的(即它们不是置换不变的),因为它们以顺序方式处理其输入。 通过将LSTM应用于节点邻居的随机排列,我们使LSTM适应于无序集合。
池聚合器。 我们研究的最终聚合器既对称又可训练。 在这种合并方法中,每个邻居的向量都通过完全连接的神经网络独立地馈送; 进行此转换之后,将逐元素最大池化操作应用于跨邻居集的聚合信息:
公式(3)
其中max表示元素方式的max运算符,而σ是非线性激活函数。 原则上,最大池化之前应用的功能可以是任意深度的多层感知器,但是在此工作中,我们专注于简单的单层体系结构。 这种方法的灵感来自应用神经网络体系结构以学习通用点集的最新进展[29]。
直观上,可以将多层感知器视为一组函数,这些函数为邻居集中的每个节点表示计算特征。 通过将最大合并运算符应用于每个计算出的特征,模型可以有效地捕获邻域集的不同方面。 还应注意,原则上,可以使用任何对称向量函数代替max运算符(例如,按元素表示的均值)。 在开发测试中,我们发现最大池和平均池之间没有显着差异,因此在其余的实验中,我们将重点放在最大池上。

4实验

我们在以下三个基准任务上测试GraphSAGE的性能:(i)使用Web of Science引文数据集将学术论文分类为不同的主题,(ii)将Reddit帖子归为不同社区的成员,以及(iii)将各种生物学蛋白质的功能分类 蛋白质-蛋白质相互作用(PPI)图。 第4.1节和第4.2节概述了数据集,补充材料中包含其他信息。 在所有这些实验中,我们对训练期间看不到的节点进行预测,对于PPI数据集,我们对完全看不见的图进行测试。
实验装置。 为了将我们的归纳基准上的经验结果进行情境化,我们与四个基准进行了比较:随机分类器,基于逻辑回归特征的分类器(忽略图结构),作为代表分解方法的DeepWalk算法[28]和 原始特征和DeepWalk嵌入的串联。 我们还比较了使用不同聚合函数的GraphSAGE的四个变体(第3.3节)。 由于GraphSAGE的“卷积”变体是Kipf等人的半监督GCN的扩展,归纳版本[17],因此我们将其称为GraphSAGE-GCN。 我们测试了根据等式(1)中的损失训练的GraphSAGE的无监督变体,以及对分类交叉熵损失进行了直接训练的有监督变体。 对于所有的GraphSAGE变体,我们使用校正的线性单位作为非线性,并设置K = 2,邻域样本大小为S 1 = 25和S 2 = 10(有关灵敏度分析,请参见第4.4节)。
对于Reddit和引文数据集,我们按照Perozzi等人的描述对DeepWalk使用“在线”训练。 [28],我们进行新一轮的SGD优化,以在进行预测之前嵌入新的测试节点(有关详细信息,请参见附录)。 在多图设置中,我们无法应用DeepWalk,因为在不同的不相交图上运行DeepWalk算法生成的嵌入空间可以相对于彼此任意旋转(附录D)。
所有模型均在TensorFlow [1]中使用Adam优化器[16]实现(DeepWalk除外,DeepWalk在香草梯度下降优化器中表现更好)。 我们设计实验的目的是(i)验证GraphSAGE在基线方法(即原始功能和DeepWalk)方面的改进,以及(ii)对不同GraphSAGE聚合器体系结构进行严格的比较。 为了提供公平的比较,所有模型都共享其最小批量迭代器,损失函数和邻域采样器(如果适用)的相同实现。
此外,为了在GraphSAGE聚合器之间进行比较时防止意外的“超参数骇客”,我们对所有GraphSAGE变体扫过了同一组超参数(根据验证集的性能为每个变体选择最佳设置)。 在早期的验证测试中,使用引文和Reddit数据的子集确定了可能的超参数值,然后将其从分析中丢弃。 附录包含更多实现细节。

4.1演化图的归纳学习

:引文和Reddit数据我们的前两个实验是对演化信息图中的节点进行分类,这是一项与不断遇到未知数据的高通量生产系统特别相关的任务。
引文数据。 我们的首要任务是在大型引用数据集上预测论文主题类别。 我们使用的是汤姆森路透网络科学核心收藏中的无向引文图数据集,对应于2000年至2005年六个生物学相关领域的所有论文。 该数据集的节点标签对应于六个不同的字段标签。 总的来说,该数据集包含302,424个节点,平均度为9.15。 我们根据2000-2004年的数据训练所有算法,并使用2005年的数据进行测试(其中30%用于验证)。 对于功能,我们使用节点度并根据Arora等人的[2]句子嵌入方法处理了论文摘要,并使用GenSim word2vec实现[30]训练了300维单词向量。
Reddit数据。 在第二个任务中,我们预测不同Reddit帖子属于哪个社区。
Reddit是一个大型在线讨论论坛,用户可以在其中发布和评论不同主题社区中的内容。 我们根据2014年9月发布的Reddit帖子构建了一个图形数据集。在这种情况下,节点标签是帖子所属的社区或“ subreddit”。 我们对50个大型社区进行了抽样,并构建了一个帖子到帖子的图表,如果同一用户在两个帖子上都发表评论,则将帖子连接起来。 该数据集总共包含232,965个帖子,平均程度为492。我们使用前20天进行培训,其余几天用于测试(其中30%用于验证)。 对于功能,我们使用现成的300维GloVe CommonCrawl字向量[27]; 对于每个帖子,我们将(i)帖子标题的平均嵌入度,(ii)所有帖子评论的平均嵌入度,(iii)帖子的得分和(iv)对帖子发表的评论数进行了串联。
表1的前四列概述了GraphSAGE的性能以及这两个数据集的基线方法。 我们发现GraphSAGE的性能大大优于所有基线,并且与GCN方法相比,可训练的神经网络聚合器可提供显着的收益。 例如,无监督变体GraphSAGE-pool在引用数据上的表现优于DeepWalk嵌入和原始特征的串联,分别为13.8%和29.1%,在Reddit数据上,而受监督的版本分别提供19.7%和37.2%的收益 。 有趣的是,尽管基于LSTM的聚合器是为顺序数据而不是无序集合而设计的,但它仍显示出出色的性能。 最后,我们看到无监督的GraphSAGE的性能与完全受监督的版本具有相当的竞争力,这表明我们的框架无需特定于任务的微调就可以实现强大的性能。

4.2跨图泛化

:蛋白质与蛋白质的相互作用现在,我们考虑跨图泛化的任务,这需要了解节点角色而不是社区结构。 我们根据蛋白质在基因本体中的细胞功能,将蛋白质的作用分类为各种蛋白质-蛋白质相互作用(PPI)图,每个图对应于不同的人体组织[41]。 我们从分子特征数据库[34]中使用位置基因集,基序基因集和免疫学特征作为特征,基因本体论集合作为标签(共121个)。 平均图包含2373个节点,平均度为28.8。
我们在20张图上训练所有算法,然后在两张测试图上平均预测F1分数(另外两张图用于验证)。
表1的最后两列总结了此数据上各种方法的准确性。 再次,我们看到GraphSAGE明显优于基线方法,基于LSTM和基于池的聚合器比基于均值和GCN的聚合器具有可观的收益。

4.3运行时和参数

敏感性图2.A总结了不同方法的训练和测试运行时。 这些方法的培训时间相当(GraphSAGE-LSTM最慢)。 但是,需要采样新的随机游走并运行新的SGD轮以嵌入看不见的节点,这会使DeepWalk在测试时慢100-500倍。
对于GraphSAGE变体,我们发现,与K = 1相比,设置K = 2可使平均精度持续提高约10-15%。 但是,将K增加到2以上会产生边际收益(0-5%),同时将运行时间增加到令人难以置信的10-100倍,这取决于邻域样本大小。 我们还发现,对大型社区进行采样的收益递减(图2.B)。 因此,尽管子采样邻域引起较高的方差,但GraphSAGE仍然能够保持强大的预测准确性,同时显着改善运行时间。

4.4不同聚合器体系结构

之间的总结比较总体而言,我们发现基于LSTM和池的聚合器在平均性能和实验设置数量方面均表现最佳,其中它们是性能最高的方法(表1)。 为了更定量地了解这些趋势,我们将六个不同的实验设置(即(3个数据集)×(无监督与有监督))视为试验,并考虑了哪些性能趋势可能会普遍存在。 特别是,我们使用非参数Wilcoxon Signed-Rank检验[33]来量化各个试验中不同聚合器之间的差异,并在适用时报告T统计量和p值。 请注意,此方法是基于等级的,实际上测试了在新的实验环境中我们是否期望一种特定的方法优于另一种方法。 考虑到我们只有6种不同设置的小样本量,此显着性检验的功能有些不足。 但是,T统计量和相关的p值是有用的定量度量,用于评估聚合器的相对性能。
我们看到,与基于GCN的方法相比,基于LSTM的,基于池的和基于均值的聚合器都提供了统计上显着的收益(所有这三种方法的T = 1.0,p = 0.02)。 但是,与基于均值的聚合器相比,LSTM和池方法的收益要微不足道(T = 1.5,p = 0.03,与LSTM的意思; T = 4.5,p = 0.10,比较库与均值)。 LSTM和合并方法之间没有显着差异(T = 10.0,p = 0.46)。 但是,GraphSAGE-LSTM比GraphSAGE-pool慢得多(约2倍),这可能使基于池的聚合器总体上略有优势。

5理论分析

在本节中,我们探究GraphSAGE的表达能力,以便深入了解GraphSAGE如何学习图结构,即使它本质上是基于功能。
作为案例研究,我们考虑GraphSAGE是否可以学习预测节点的聚类系数,即节点的1跳邻域内闭合的三角形的比例[38]。
聚类系数是衡量节点本地邻域聚类程度的一种流行度量,它是许多更复杂的结构图案的基础[3]。 我们可以证明算法1能够以任意精度逼近聚类系数:定理1。令xv∈U,∀v∈V表示图G =(V,E)上算法1的特征输入,其中U 是R d的任意紧凑子集。 假设存在一个固定的正常数C∈R +,使得所有节点对的kx v-x v 0 k 2> C。 然后我们得到∀> 0,存在算法1的参数设置Θ∗,使得在K = 4次迭代之后| z v − c v | <,∀v∈V,其中z v∈R是算法1生成的最终输出值,而c v是节点聚类系数。
定理1指出,对于每个图,都有一个算法1的参数设置,这样,如果每个节点的特征都不同(并且模型具有足够高的维数),则它可以将该图的聚类系数近似为任意精度。 定理1的完整证明在附录中。 请注意,作为定理1的推论,即使从绝对连续的随机分布中采样节点特征输入,GraphSAGE也可以了解局部图的结构(有关详细信息,请参见附录)。 证明背后的基本思想是,如果每个节点都有唯一的特征表示,则我们可以学习将节点映射到指标向量并识别节点邻域。 定理1的证明依赖于池聚合器的某些属性,这也使我们了解了GraphSAGE池为何胜过GCN和基于均值的聚合器。

6结束语

我们介绍了一种新颖的方法,可以有效地为看不见的节点生成嵌入。
GraphSAGE始终优于最新的基准,通过对节点邻域进行采样有效地权衡了性能和运行时间,并且我们的理论分析提供了有关我们的方法如何学习局部图结构的见解。 许多扩展和潜在的改进都是可能的,例如扩展GraphSAGE以合并有向图或多峰图。 未来工作的一个特别有趣的方向是探索非均匀邻域采样函数,甚至可能作为GraphSAGE优化的一部分来学习这些函数。

graph sage 翻译相关推荐

  1. residural gated graph convnets 翻译

    摘要 诸如社交网络,功能性大脑网络,基因调控网络,通信网络之类的图结构化数据带来了将深度学习技术推广到图域的兴趣. 在本文中,我们有兴趣为可变长度的图设计神经网络,以解决学习问题,例如顶点分类,图分类 ...

  2. Neural Language Modeling for Contextualized Temporal Graph Generation翻译

    摘要 本文介绍了使用大规模预训练的语言模型来自动生成文档的事件级时间图的研究.尽管NLP任务中神经预训练方法取得了巨大成功,但其对事件图中时间推理的潜力并未得到充分探索.部分原因是难以获得具有人类标注 ...

  3. GAP: Generalizable Approximate Graph Partitioning Framework(广义近似图划分框架)

    Abstract 图划分是将一个图的节点划分为平衡的分区,同时最小化跨分区的边割的问题.由于它的组合性质,许多近似解被开发出来,包括多层次方法和谱聚类的变体.我们提出了GAP,一个可推广的近似划分框架 ...

  4. graphSage还是HAN ?吐血力作综述Graph Embeding 经典好文

    graphSage还是HAN ?吐血力作综述Graph Embeding 经典好文 文章源码下载地址:点我下载http://inf.zhihang.info/resources/pay/7692.ht ...

  5. 二分匹配大总结——Bipartite Graph Matchings[LnJJF]

    文章目录 二分匹配--Bipartite Graph Matchings[LnJJF] 认识:什么是二分图? 理解:现实模型如何与二分图相互转化? 如何判断能否转化? 能够转化的话,如何转化? 应用: ...

  6. Bipartite graph/network学习

    Bipartite graph/network翻译过来就是:二分图. 维基百科中对二分图的介绍为:二分图是一类图(G,E),其中G是顶点的集合,E为边的集合,并且G可以分成两个不相交的集合U和V,E中 ...

  7. Theano2.1.1-基础知识之准备工作

    来源:http://deeplearning.net/software/theano/tutorial/index.html#tutorial 这里介绍的是使用theano的一些基础知识,虽然thea ...

  8. 从ICLR 2022看什么是好的图神经网络?

    ©作者 | 刘雨乐 学校 | 上海科技大学 研究方向 | 机器学习与图神经网络 什么是好的 GNN?如果仅仅是用数据集上的测试结果,实际上是一种不太公正的结果.第一,网络可能只对某一种数据集效果好:第 ...

  9. 收藏!这 10 篇硬核论文,让你宅家也能更了解图神经网络

    各位炼丹师,最近好吗? 掐指一算,今天是宅在家里的第十天.这个春节,可能是很多人从出生以来过得最漫长的一个春节. 以往,吃吃喝喝走街串巷同学聚会的春节总是转瞬即逝,还没来得及打开寒假作业.还没来得及倒 ...

最新文章

  1. 对话高博(二)| 换工作这件事
  2. 学会订阅——什么是feed ?如何订阅feed?
  3. QuickFlow之任务代理-TaskDelegation
  4. layui 单选项 点击显示与隐藏 很实用
  5. SQL中的表 与关系数据库
  6. 做生意做不过中国,于是英国发动了鸦片战争
  7. Java面试题附答案(面试必会)
  8. AD14插入原理图模板
  9. 安卓日历每日提醒_Android日历事件管理器,是时候为你的APP增加一个事件提醒功能啦!...
  10. 【今日分享】官方实例用python调用OpenAI tahcTPG的APIkey生成智能问答
  11. 安卓--记账软件课程设计
  12. GEE5:kNDVI植被指数的获取
  13. 史上最详细springboot vue UEditor整合(包括遇到的各种坑)
  14. 音视频学习-h264的NALU结构分析
  15. vue中使用threejs的一些问题,THREE上没有OrbitControls
  16. FBI网站被黑致数据泄露?官方称这根本是个骗局
  17. 《构建之法》第一次作业——阅读与准备工作
  18. 西电杨宗凯调研计算机学院,杨宗凯调研指导研究生工作:深化研究生教育改革...
  19. 动态规划-买卖股票的最佳时机 专题
  20. REXROTH力士乐比例溢流阀DBET6X/200G24K4V

热门文章

  1. python爬取豆瓣图书(详细步骤讲解)
  2. 数据结构—查找(第八章)
  3. 锂矿之龙战于野:天齐锂业
  4. 正态分布 密度函数与分布函数
  5. 与领导争论问题的技巧[zt]
  6. java iterator 转 list_JAVA Iterator 转成 List
  7. linux 安装nodejs
  8. python用matplotlib画折线图
  9. 做了7年开源数据库开发,我学到了什么?
  10. 阿里云的重大战略调整,“被集成”成核心,发布SaaS加速器助力企业成长...