基于分层关注和时间RNN的动态异构网络链路预测建模

摘要

网络嵌入的目的是在获取网络结构信息的同时学习节点的低维表示。它在链路预测、节点分类等网络分析任务中取得了巨大的成功。现有的网络嵌入算法大多集中于如何有效地学习静态同构网络。然而,现实世界中的网络更复杂,例如,网络可以由几种类型的节点和边组成(称为异构信息),并且可以根据动态节点和边随时间变化(称为进化模式)。动态异构网络的网络嵌入工作做得很有限,因为同时学习进化信息和异构信息具有挑战性。在本文中,我们提出了一种新的动态异构网络嵌入方法,称为DyHATR,该方法使用分层注意学习异构信息,并结合递归神经网络和时间注意捕获进化模式。我们在四个真实数据集上对我们的方法进行基准测试,以完成链接预测任务。实验结果表明,DyHATR明显优于几个最先进的基线。

关键词:动态异构网络 分层注意 递归神经网络 暂时的自我注意。

1引言

网络嵌入是将网络结构编码到非线性空间,将网络的节点表示为低维特征[2,6]。它已经成为一个流行和关键的机器学习任务,在许多领域有着广泛的应用,如推荐系统[28,34],自然语言处理[32,9]和计算生物学[22,10,24]。

现有的网络嵌入方法在许多下游任务上取得了显著的性能,例如链路预测和节点分类,这些方法大多集中在静态同构网络[25,13,30],静态异构网络[7,39,36,3]或动态同构网络[12,11,41,40,27]。然而,现实世界中的许多网络都是动态的和异构的,通常包含多种类型的节点或边缘[7,3],网络的结构可能会随着时间的推移而演变[8,31]。例如,客户-产品网络通常是异构的,具有多种节点类型来区分客户和产品,并且是动态的,具有不断发展的节点和边缘来捕获动态的用户活动。

网络嵌入对于动态异构网络捕获异构信息和演化模式是一个挑战。动态网络通常被描述为静态网络快照的有序列表[29,23,4,19,20]。由于不同快照中的节点和边可能不同,因此动态异构网络上的网络嵌入不仅需要捕获静态异构快照的结构信息,还需要学习连续快照之间的演化模式。目前,在动态异构网络的网络嵌入方面所做的工作有限。MetaDynaMix [21]集成了基于元路径的拓扑特征和潜在表示,以学习异构性和时间演化。Change2vec [1]侧重于测量快照中的变化,而不是学习每个快照的整个结构信息,它还使用基于元路径的模型来捕获异构信息。上述两种方法都关注动态网络相邻快照之间的短期进化信息,因此不足以捕捉长期进化模式。最近,Sajadmanesh等人[26]在基于元路径的模型的基础上,使用递归神经网络模型来学习动态网络的长期进化模式,并提出了一个非参数广义线性模型,NP-GLM,来预测连续时间关系。Yin等人[38]提出了一种DHNE方法,该方法通过基于连续快照构建综合的历史-当前网络来学习历史和当前异构信息并建模进化模式。然后,分布式哈希表执行基于元路径的随机行走和动态异构跳步模型来捕获节点的表示。孔等[17]介绍了一种动态异构信息网络嵌入方法——HA-LSTM。它使用图形卷积网络学习异构信息网络,并使用注意模型和长-短时间记忆来捕获时间步长上的进化信息。关于现有网络嵌入方法的简要总结,请参见表1。

为了更好地捕捉静态快照的异构性,并对连续快照之间的演化模式进行建模。本文提出了一种新的动态异构网络嵌入方法DyHATR。具体来说,DyHATR使用分层注意模型来学习静态异构快照,使用时间注意RNN模型来捕捉进化模式。本文的贡献概括如下:

  • –我们提出了一种新的动态异构网络嵌入方法DyHATR,它既能捕获异构信息,又能捕获进化模式。
  • –我们使用分层关注模型(包括节点级和边缘级关注)来捕捉静态快照的异构性。
  • –我们强调动态网络的进化信息,并使用时间注意力的GRU/LSTM来模拟连续快照之间的进化模式。
  • –我们在链路预测任务上评估我们的方法DyHATR。结果表明,DyHATR在四个真实数据集上的性能明显优于几个最先进的基线。

2方法

动态异构网络嵌入的主要任务是如何在动态网络上同时捕获异构信息和时间演化模式。我们提出了一种新的动态异构网络嵌入方法,该方法使用分层注意模型来捕捉快照的异构性,并使用时间注意RNN模型来学习随时间演化的演化模式。我们提出的模型DyHATR的整个框架如图1所示。

图1。DyHATR的总体框架。该模型包括三个部分:(a)层次注意模型,(b)时间注意RNN模型和(c)动态链接预测。右直方图显示了DyHATR在EComm数据集上比DeepWalk、metapath2vec和metapath2vec GRU的性能改进。

动态异构网络通常被描述为观察到的异构快照的有序列表,其中

表示第t个快照。是节点类型o ∈ O的节点集,是边类型r ∈ R的边集,O和R分别是节点类型和边类型集,且|O|+|R| > 2。T是快照的数量。动态网络嵌入的目的是学习一个非线性映射函数,将节点v∈编码到一个潜在特征空间,其中。对于每个快照,学习到的嵌入矩阵可以表示为,请注意,每个快照被视为一个静态异构网络,我们将在下一节中首先解释DyHATR如何使用分层注意模型来捕捉快照的异构性。接下来是用于跨快照建模进化模式的时间注意力RNN。

2.1异构信息的分层关注

我们引入分层关注模型,通过根据不同的边缘类型将异构快照分割成几个特定类型的子网络来捕获静态快照的异构信息。分层注意模型包含两个部分,节点级注意和边缘级注意。分层注意力的图示如图1 (a)所示。

节点级关注 节点级注意模型旨在学习每个节点邻域的重要性权重,并通过聚集这些重要邻域的特征来生成新的潜在表示。对于每个静态异构快照,我们对每个具有相同边类型的子图采用关注模型。边缘类型r和第t个快照的节点对(i,j)的权重系数可计算如下:

其中是节点i的初始特征向量,是边缘类型r的变换矩阵,是快照t中边缘类型r的节点i的采样邻居;是第r边型注意函数的参数化权向量;σ是激活函数;和||表示连接的操作。然后,用计算的权重系数聚集邻居的潜在嵌入,我们可以获得节点I在边缘类型r和第t个快照处的最终表示为

其中是边缘类型r和第t个快照的节点i的聚集嵌入。为了获得稳定有效的特征,我们采用了具有多头机制的节点级注意模型。具体来说,我们并行运行κ独立的节点级注意模型,并将这些学习到的特征连接起来作为输出嵌入。因此,在边缘类型r和第t个快照处的节点I的多头注意力表示可以被描述为

其中的简化符号,是第κ个节点级注意模型的输出,κ是注意头的数目。在多头部节点级注意模型之后,我们可以获得具有不同边缘类型和快照的节点表示集,其中是节点级注意模型中嵌入特征的维数。

边缘级注意 节点级注意模型可以捕捉单个边缘类型特定的信息。然而,异构网络通常包含多种类型的边缘。为了整合每个节点的多个边缘特定信息,我们采用边缘级关注模型来学习不同类型边缘的重要性权重,并聚集这些不同类型的特定信息来生成新的嵌入。

首先,我们将特定边缘嵌入输入到非线性变换函数中,映射到同一特征空间,其中σ是激活函数(即tanh函数);Wb分别是可学习的权重矩阵和偏差向量。所有不同的边缘类型和快照都共享这两个参数。然后,我们通过计算映射的特定边缘嵌入和边缘级关注参数化向量q之间的相似性来测量输入特定边缘嵌入的重要性系数。边缘类型r和第t个快照的节点I的归一化权重系数可以表示为。然后,我们可以聚合这些特定边缘嵌入,以生成第t个快照的节点I的最终表示特征:

在聚集所有特定于边缘的嵌入之后,我们可以获得不同快照的最终节点嵌入,,其中是边缘水平注意模型输出的嵌入维度。

2.2进化模式的时间注意力RNN

时间进化模式显示随着时间的推移节点和边缘的出现和消失。DyHATR的分层注意模型可以有效地捕捉静态快照的异构性,但不能对随时间演化的模式进行建模。最近,递归神经网络(RNN)的引入为动态网络嵌入方法取得了令人鼓舞的性能[11,29,35,27]。在我们的论文中,我们扩展了现有的RNN模型,并提出了一个时间关注的RNN模型来捕捉连续时间戳中更深层次的进化模式。提出的时间注意RNN模型主要包括两部分,递归神经网络和时间自我注意模型。图1 (b)显示了时间注意RNN模型。

递归神经网络模型 递归神经网络的结构使得能够在连续的快照中建模顺序信息和学习进化模式。在我们提出的模型中使用了RNN的两个显著且广泛使用的变体,长短期记忆(LSTM)和门控重复单位(GRU)。

长短期记忆(LSTM)是一种经典的递归神经网络模型,它可以捕获序列数据的长距离信息,并在动态网络学习任务中取得令人满意的性能[15]。通过上面的分层关注模型,我们可以获得每个快照,其中t是第t个快照,i表示节点i,F是每个节点嵌入的维数。每个LSTM单元计算输入向量、忘记门向量、输出门向量、存储单元向量和状态向量。单个LSTM单元的公式如下:

其中分别为输入、遗忘、输出和存储单元门;and 是可训练参数;σ是激活函数;||表示连接的操作;然后是逐元素乘法运算符。

门控递归单位(GRU)是LSTM [5]的一个更简单的变体,被引入来捕捉许多动态网络嵌入模型中的长期关联[35,23]。与LSTM单元相比,GRU单元需要学习的参数更少,每个GRU单元仅包含两个门单元,即更新门和重置门。每个输入快照的状态向量可通过以下等式迭代计算:

其中分别为更新门和复位门;是可训练参数;σ是激活函数;||表示连接的操作;然后是逐元素乘法运算符。在GRU的迭代方程中,我们使用模拟从先前状态传达的潜在特征。

RNN模型的输出表示为。然后,传统步骤可以连接这些状态向量或者将最后一个状态作为节点I的最终嵌入。但是,这些传统方法可能会导致信息丢失,并且无法捕获最重要的嵌入特征。在我们的模型中,我们在RNN模型的输出上使用时间级注意力模型来捕获重要的特征向量。

时态自我注意模型 我们没有将所有的特征向量串联在一起作为最后的嵌入来预测最后一个快照中的动态链接,而是采用一个时间层次的自我注意模型来进一步捕捉动态网络上的进化模式。从RNN模型的输出中,我们可以获得节点I在不同快照,其中D是输入嵌入的维数。假设时间水平注意模型的输出为,其中D'是输出嵌入的维数。

在我们的模型中使用了点积关注度来学习每个节点在不同快照的嵌入。我们将上一步中跨时间节点I的表示打包为输入,。对应的输出表示为。首先,将输入映射到不同的特征空间,for查询, key,for值,其中、为可训练参数。时间级注意模型定义为:

其中为重要性矩阵;表示掩模矩阵。如果

这意味着从快照u到v的注意力关闭,重要性矩阵中对应的元素为零,即。当快照满足u≤v时,我们设置;否则

使用多头注意力来提高模型的有效性和鲁棒性也是可行的。具有κ‘头的节点i的最终嵌入可以被公式化为。在这一步,我们获得了所有快照中节点i的所有嵌入。但是我们将使用最后一个快照的嵌入,表示为,用于优化和下游任务。

2.3目标函数

DyHATR的目标是捕捉动态异构网络中的异构信息和演化模式,我们定义了目标函数,该函数利用二元交叉熵函数来确保最后一次快照中的节点u与其附近的节点具有相似的嵌入特征。DyHATR的损失函数定义为

其中σ为激活函数(即sigmoid函数);< .>是内积操作;是节点u在最后第t次快照时具有定长随机游走的邻居;表示负采样分布,Q为负采样数;是损失函数的惩罚项,以避免过度拟合,即L2正则化;λ是控制罚函数的超参数。DyHATR的伪代码如算法1所示。

3实验

3.1数据集

我们在动态链路预测上对DyHATR进行了测试,以评估网络嵌入的性能。在我们的实验中使用了四个真实世界的动态网络数据集。表2列出了这些数据集的统计数据。

Twitter.这个社交网络是从SNAP平台的希格斯推特数据集采样的[18]。它反映了2012年7月1日至7日之间的三种用户行为(转发、回复和提及)。

Math-Overflow.这个时态网络是从堆栈交换网站数学溢出收集的,并在SNAP平台上打开[18]。它代表了2350天内用户之间三种不同类型的交互(问题的答案、问题的评论、回答的评论)。在我们的实验中,我们将这个时间跨度分成11个快照。

EComm.该数据集是电子商务的真实世界异构二分图,是从CIKM-2019的AnalytiCup挑战中提取的。EComm主要记录2019年6月10日至2019年6月20日11个每日快照内用户的购物行为,由两类节点(用户和物品)和四类边(点击、购买、添加到购物车和添加到收藏夹)组成。

Alibaba.com。该数据集由从阿里巴巴电子商务平台收集的用户行为日志组成[37]。它主要包含2019年7月11日至2019年7月21日的客户活动记录,由两类节点(用户和项目)和三类活动(点击、查询和联系)组成。

3.2实验设置

动态链路预测的任务是学习前t个快照上的节点表示,并预测第(t+ 1)个快照上的链路。具体来说,之前的t快照用于学习节点的表示,第(t+1)个快照是整个评估集。我们在评估集(快照)中随机抽取20%的边作为抑制验证集来调整超参数。然后快照中剩余的80%的边用于链路预测任务。在剩余的评价集中,我们进一步随机选择25%的边和剩余的75%的边分别作为训练集和测试集进行链接预测。同时,我们随机抽取相同数量的无链接节点对分别作为训练集和测试集的负样本。我们使用两个节点的嵌入特征的内积作为链接的特征。

对于这个任务,我们训练一个逻辑回归模型作为分类器,这与以前的工作相似[41,27]。我们使用ROC曲线下的面积和精度-召回曲线下的面积作为评估指标。我们重复运行模型和基线五次,并报告平均值和标准偏差值。所提出的DyHATR模型是在四个真实世界的数据集上进行的,使用的Linux服务器具有6个Intel(R)Core(TM)i7-7800 X CPU @ 3.50 GHz、96GB RAM和2个NVIDIA TITAN Xp 12GB。DyHATR的代码在Tensorflow 1.14和Python 3.6中实现。在DyHATR模型中,我们使用4头或8头的多头注意模型来捕获节点特征嵌入。最终嵌入的尺寸为32。在我们提出的模型中使用了随机梯度下降和亚当优化器来更新和优化参数。在链接预测部分,我们使用来自scikit-learn库的逻辑回归分类器和评估度量函数。DyHATR在https://github.com/skx300/DyHATR.免费提供

3.3基线

我们将DyHATR与几种最先进的网络嵌入方法进行了比较,包括三种静态同构网络(DeepWalk [25]、GraphSAGE [14]和GAT [33]),一种静态异构网络(metapath2vec [7]),三种动态同构网络(DynamicTriad [41]、dyngraph2vec [11]和DySAT [27])。对于静态网络嵌入方法,我们首先将所有快照集成到一个静态网络中。然后,我们将它们应用于集成静态网络,以学习节点的潜在表示。

存在四种动态异构网络嵌入方法:MetaDynaMix [21]、metapath2vec [1]、DHNE [38]和NP-GLM [26]。在这里,我们主要关注DHNENP-GLM方法。有代表性的算法NP-GLM主要使用metapath2vec和RNN相结合的思想来学习动态异构网络,因此我们将DyHATR与metapath2vecGRU和metapath2vec-LSTM两种方法进行了比较。为了进行公平的比较,我们为所有基线设置了与DyHATR相同的最终嵌入大小,即32。不同基线的超参数都经过专门优化,以达到最佳效果。

3.4实验结果

链接预测任务。实验结果总结在表3中。总体而言,DyHATR在所有基线中的四个数据集上实现了AUROC和AUPRC指标的最佳性能,包括两种典型的动态异构网络嵌入方法(metapath2vec-GRU和metapath2vec-LSTM)。DyHATR在EComm数据集上获得的最高AUROC和AUPRC分别为0.696和0.738,明显高于基线的分数(元路径2-GRU的AUROC为0.668,AUPRC的DynamicTrid为0.688)。对于推特,DyHATR-TLSTM的AUROC和AUPRC分数分别为0.660和0.810,略高于DySAT的第二高分数(AUROC为0.634,AUPRC为0.796)。此外,我们还进行了秩和检验,以验证DyHATR实验结果的显著性。请注意,动态同构网络嵌入方法(如DySAT和DynamicTriad)在Twitter和数学溢出数据集上的性能相对优于EComm和Alibaba.com数据集,可能是因为Twitter和数学溢出中的节点和边缘类型数量少于其他两个数据集。

分层注意模型的有效性。动态异构网络可以表示为一系列有序的静态异构快照。在我们提出的DyHATR模型中,我们使用一个分层的注意力模型来捕捉静态快照的异构性。为了评估DyHATR在捕捉静态快照异构性方面的有效性,我们将分层注意模型(HAT)与经典且广泛使用的异构网络嵌入方法metapath2vec (m2v)进行了比较。

图2.层次注意模型(HAT)与metapath2vec(m2v)的比较结果。x轴显示两个评估指标(AUROC和AUPRC)。y轴表示评估值。HAT-M/m2v-M表示将快照合并到单个网络中并运行HAT/m2v模型;HAT-C/m2v-C表示在每个快照上首先运行HAT/m2v,并连接这些嵌入以预测动态链接。

相比之下,我们采用两种不同的方式来集成多个快照。一种是将快照合并成单一异构快照,运行HAT/m2v表示学习方法。另一种方法是在每个快照上分别运行HAT/m2v,并为下游任务连接这些嵌入向量。从实验结果(图2)来看,在Twitter和EComm数据集上,采用两种不同的集成方法,分层注意力模型的性能都优于metapath2vec,证明了HAT在学习每个快照的异构信息方面的有效性。

图3。DyHATR中不同组分的比较结果。x轴显示具有不同组件的模型。y轴表示AUROC/AUPRC值。HAT-C表示层次注意模型;HAT-T表示HAT模型和时间注意模型;TGRU/TLSTM表示时间注意GRU/LSTM模型。

时间注意RNN模型的有效性。在我们提出的方法中,DyHATR使用时间关注GRU (TGRU)和LSTM (TSTM)模型来学习连续时间戳之间的进化模式。验证该组件的有效性。我们做了一个逐步替换/添加子组件的实验。所有方法都使用HAT来建模每个快照。最初的方法是HAT-C,它连接来自每个快照的嵌入向量。然后,第二种方法HAT-GRU/LSTM使用GRU/LSTM模块来代替串联来捕获顺序信息。而第三个HAT-T则使用时间注意模型代替。最后一个是我们提出的动态注意模型,它结合了时间注意模型和GRU/LSTM模型。图3显示了在Twitter和EComm数据集上的实验结果。我们可以看到,无论是GRU/LSTM还是时间注意模型都优于天真的连接。时间注意模型和GRU/LSTM模型的结合进一步提高了性能。这表明了时间注意RNN模型在建模进化信息方面的优越性。

图4。DyHATR在Twitter和EComm数据集上改变不同参数的结果。上面一行显示Twitter数据集上的结果。下一行报告EComm数据集的结果。(a) (d)改变多头数对层次注意的影响;(b)和(e)改变多头数对时间注意模型的影响;(c)和(f)验证了嵌入维度的影响。x轴表示变化的参数,y轴表示AUROC值。

参数灵敏度。机器人分层注意(HAT)和时间注意(TAT)中的多头数以及最终嵌入输出的维数是我们提出的DyHATR算法的关键参数。因此,我们进一步分析了这些参数对动态链路预测任务的影响。当我们改变一个参数来检查灵敏度时,其他参数保持不变。图4 (a)和(b)显示了推特上的结果,HAT和TAT的最佳多头数分别为4和8。同样,图4 (d)和(e)报告了8和8,用于EComm。图4 (c)和(f)显示了相对于最终嵌入输出维度的性能。当维数等于32时,DyHATR在我们的实验中达到最高的AUROC值。

此外,我们还比较了DyHATR和metapath2vecGRU/LSTM方法的训练时间。对于EComm来说,metapath2vec-GRU和metapath2vec-LSTM的训练时间分别为475秒和563秒。由于注意力和RNN模型中的参数规模较大,DyHATR比基于meath path 2 vec的方法(DyHATR-TGRU为579s,DyHATR-TLSTM为595s)稍慢。

快照的粒度。在本文中,我们将动态网络描述为有序的快照列表。每个快照的持续时间将影响快照的总数。例如,EComm中快照的持续时间是一天,这导致10个快照。我们发现快照的粒度越细,也就是说持续时间越短,性能就越好。当EComm中的持续时间设置为两天时,总共有5个快照。DyHATR-TGRU和DyHATR-TLSTM的AUROC值分别为0.640和0.625,比10个快照差。推特也有同样的情况,当我们将持续时间设置为两天时,有3个快照。DyHATR-TGRU和DyHATR-TLSTM的AUROC值分别为0.580和0.570,比6个快照差。原因之一是粒度越细越有利于捕获进化模式。

属性的效果。考虑到不是所有的数据集都包含节点属性,在之前的实验中,为了方便起见,我们只使用节点id嵌入作为节点输入特征。然而,很容易将节点固有属性作为输入特征。例如,在EComm数据集中,用户和项目包含许多属性,如性别、年龄、教育、职业、收入、类别、品牌、奖项等。人们可以简单地处理和连接这些信息作为节点的输入特征。表4展示了一个在EComm数据集上使用更多属性的实验。结果表明,我们提出的DyHATR的可扩展性和更多的属性可以提高性能。

4结论

网络嵌入技术近年来在许多领域得到了广泛应用,并取得了显著进展。然而,现有的网络嵌入方法主要集中在静态同构网络上,不能直接应用于动态异构网络。本文提出了一种动态异构网络嵌入算法,称为DyHATR,它可以同时学习异构信息和进化模式。DyHATR主要包含两个组成部分,用于捕捉异质性的分层注意和用于超时学习进化信息的时间注意RNN模型。与其他最先进的基线相比,DyHATR在动态链路预测任务中表现出了良好的性能。此外,我们提出的DyHATR可扩展到属性动态异构网络和模型节点的固有信息。

【论文翻译】基于分层关注和时间RNN的动态异构网络链路预测建模相关推荐

  1. 动态分区分配算法代码_【代码】巩敦卫等TEVC论文:基于区间相似度分析的协同动态区间多目标进化优化算法...

    分享代码:巩敦卫等TEVC论文:基于区间相似度分析的协同动态区间多目标进化优化算法. 说明:该代码基于Matlab2012a及Intlab5.5编写,对应文献:"Dunwei Gong, B ...

  2. 论文翻译-基于深度残差收缩网络的故障诊断 Deep Residual Shrinkage Networks for Fault Diagnosis

    深度残差收缩网络是深度残差网络的一种改进,针对的是数据中含有噪声或冗余信息的情况,将软阈值化引入深度残差网络的内部,通过消除冗余特征,增强高层特征的判别性.以下对部分论文原文进行了翻译,仅以学习为目的 ...

  3. 【论文翻译】(NIPS2018)Flexible Neural Representation for Physics Prediction 物理预测的灵活神经表示

    目录 摘要 1 介绍 2 相关工作 3 层次化粒子图表示 4 物理预测模型 4.1 层次化图卷积用于传播影响 4.2 层次化关系网络结构 4.3 通过损失函数和数据学习物理约束 5 实验 5.1 物理 ...

  4. 【论文翻译】SHINE 一个用于特定领域实体与异构信息网络链接的通用框架

    SHINE 一个用于特定领域实体与异构信息网络链接的通用框架 摘要 由多种类型的互联对象组成的异构信息网络正变得越来越流行,例如社交媒体网络和书目网络.在异构信息网络中,将从非结构化文本中检测到的命名 ...

  5. 论文翻译 基于R-FCN的物体检测

    本文转载自: http://www.jianshu.com/p/db1b74770e52 题目:基于R-FCN的物体检测 文章地址:arXiv:1605.06409. <R-FCN: Objec ...

  6. [论文翻译]基于图像自适应GAN重建

    基于图像自适应GAN重构 摘要 介绍 相关工作 提出的方法 Image-Adaptive图像自适应方法 IAGAN的数学原理 对观察结果的"硬"和"软"遵从性 ...

  7. 论文翻译:搜索人脸活体检测的中心差异卷积网络及实现代码

    搜索人脸活体检测的中心差异卷积网络 摘要 1. 绪论 2. 相关工作 人脸活体检测 卷积运算符 神经架构搜索 3. 方法论 3.1 中心差分卷积 基本卷积 基本卷积结合中心差分操作 中心差分卷积的实现 ...

  8. 【论文翻译】从进化和异质网络中表征和预测社区成员

    从进化和异质网络中表征和预测社区成员 摘要 近年来,从web数据中挖掘不同类型的社区吸引了大量的研究工作.然而,现有的社区挖掘技术都没有考虑到web数据的动态性和异构性.在本文中,我们提出了从异构we ...

  9. 【论文翻译】基于图关注网络的异构网络类型感知锚链路预测

    基于图关注网络的异构网络类型感知锚链路预测 摘要 跨异构网络的锚定链路预测在跨网络应用中起着举足轻重的作用.异构网络锚链路预测的难点在于如何综合考虑影响节点对齐的因素.近年来,基于网络嵌入的锚链预测已 ...

最新文章

  1. 你应该知道的五种IO模型
  2. sklearn使用FeatureHasher处理字符串特征
  3. 一道时间复杂度的题目
  4. FGPM:文本对抗样本生成新方法
  5. mysql获取一列数据_mysql返回最后一列数据
  6. linux date抖动,一场由fork引发的超时,让我们重新探讨了Redis的抖动问题
  7. php文件上传实验总结,53 PHP文件处理(六)文件上传--总结---细说php
  8. 汇编指令的学习3——协处理器cp15的操作指令mcr、mrc
  9. B树、B-树、B+树、B*树【转】,mysql索引
  10. java 异步上传一张图片,java异步上传图片示例
  11. 转换onnx_模型转换工具X2Paddle操作大全
  12. golang-Tag
  13. CodeGenerator代码生成器使用
  14. JAVA Reflect反射详解
  15. 千万不要用memset函数对二维数组进行初始化
  16. 车牌号正则表达式(含新能源车牌)
  17. django celer_Celer招募Zing作为下一代基于Java的交易平台
  18. IP地址管理常见功能解析
  19. java split保留分隔_String split如何保留分隔符
  20. iptables日志记录访问记录

热门文章

  1. iPhone 和 iPad 隐藏照片或视频教程
  2. python opencv制作隐藏图片
  3. 有限体积法(2)——二维、三维扩散方程的离散推导
  4. Android图形shape的gradient渐变色背景
  5. SpringBoot后端+Vue之AntDesignVue前端实现查询表格导出excel功能
  6. 良心安利芒种节气海报设计素材
  7. 【时间之外】浏览器分屏使用技巧
  8. 基于Vue+Node+SSM+MySQL的流浪动物救助平台设计与实现
  9. 2021年五大电子邮件威胁与零日漏洞
  10. 第九届蓝桥杯 省赛 C语言A组