一、图的拉普拉斯矩阵

  1. 拉普拉斯算子

拉普拉斯算子(Laplace Operator)是为欧几里德空间中的一个二阶微分算子,定义为梯度散度,可以写作Δ,∇2,∇⋅∇\Delta ,\nabla ^{2},\nabla \cdot \nablaΔ,∇2,∇⋅∇这几种形式。如果函数fff是二阶可微的实函数,则fff的拉普拉斯算子可以写作:

Δf=∇2f=∇⋅∇f\Delta f=\nabla ^{2}f=\nabla \cdot \nabla fΔf=∇2f=∇⋅∇f

这里简单介绍一下散度的概念:散度(divergence)用于表征空间各点矢量场发散的强弱程度。散度描述的是向量场里一个点是汇聚点还是发源点。值为正时表示该点为发源点,值为负时表示该点为汇聚点,值为零时表示该点无源。散度在物理上的含义可以理解为磁场、热源等。在笛卡尔坐标系中,矢量VVV的散度表示为:

∇⋅V=∂Vx∂x+∂Vy∂y+∂Vz∂z\nabla \cdot V=\frac{\partial V_{x}}{\partial x}+\frac{\partial V_{y}}{\partial y}+\frac{\partial V_{z}}{\partial z}∇⋅V=∂x∂Vx​​+∂y∂Vy​​+∂z∂Vz​​

那么拉普拉斯算子作为梯度的散度,则在笛卡尔坐标系中定义为:

Δf=∑i=1n∂2f∂xi2\Delta f=\sum_{i=1}^{n}\frac{\partial ^{2}f}{\partial x_{i}^{2}}Δf=i=1∑n​∂xi2​∂2f​

也就是表示为函数fff在各个维度上的二阶偏导数的和。

接下来来看一下拉普拉斯算子直观上表示什么含义,以一维空间为例:

Δf(x)=∂2f∂x2=f′′(x)≈f′(x)−f′(x−1)≈[f(x+1)−f(x)]−[f(x)−f(x−1)]=f(x+1)+f(x−1)−2f(x)\Delta f(x)=\frac{\partial ^{2}f}{\partial x^{2}}\\ =f^{''}(x)\\ \approx f^{'}(x)-f^{'}(x-1)\\ \approx [f(x+1)-f(x)]-[f(x)-f(x-1)]\\ =f(x+1)+f(x-1)-2f(x)Δf(x)=∂x2∂2f​=f′′(x)≈f′(x)−f′(x−1)≈[f(x+1)−f(x)]−[f(x)−f(x−1)]=f(x+1)+f(x−1)−2f(x)

也就是说二阶导数近似于二阶差分,从这一角度来看拉普拉斯算子直观上表示函数fff在当前点xxx的所有自由度上进行微小扰动后所获得的函数值的增益,这里有222个自由度,方向是xxx的+1+1+1和−1-1−1方向。

接着来看二维空间的例子:

Δf(x,y)=∂2f∂x2+∂2f∂y2≈[f(x+1,y)+f(x−1,y)−2f(x,y)]+[f(x,y+1)+f(x,y−1)−2f(x,y)]=f(x+1,y)+f(x−1,y)+f(x,y+1)+f(x,y−1)−4f(x,y)\Delta f(x,y)=\frac{\partial ^{2}f}{\partial x^{2}}+\frac{\partial ^{2}f}{\partial y^{2}}\\ \approx [f(x+1,y)+f(x-1,y)-2f(x,y)]+[f(x,y+1)+f(x,y-1)-2f(x,y)]\\ =f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)-4f(x,y)Δf(x,y)=∂x2∂2f​+∂y2∂2f​≈[f(x+1,y)+f(x−1,y)−2f(x,y)]+[f(x,y+1)+f(x,y−1)−2f(x,y)]=f(x+1,y)+f(x−1,y)+f(x,y+1)+f(x,y−1)−4f(x,y)

二维空间中的拉普拉斯算子表征一个点xxx在444个自由度上微扰以后的函数增益,方向分别为(1,0),(−1,0),(0,1),(0,−1)(1,0),(-1,0),(0,1),(0,-1)(1,0),(−1,0),(0,1),(0,−1)。这就是图像中的拉普拉斯卷积核,如果算上对角线以后可以认为有888个自由度:

那么我们可以认为:拉普拉斯算子是所有自由度上进行微小变化后所获得的增益。

  1. 图的表示

一个网络(无向图)由节点与节点之间的边组成。每个节点是有值的,我们用fff来表示节点的值:

f=(f1f2⋯fN)Tf=\begin{pmatrix} f_{1} & f_{2} & \cdots & f_{N} \end{pmatrix}^{T}f=(f1​​f2​​⋯​fN​​)T

这里的fff是一个向量,fif_ifi​表示网络中节点iii的值,也就是函数fff在节点iii处的值,类比f(x,y)f(x,y)f(x,y)在(x,y)(x,y)(x,y)处的值。

网络中除了节点还有边,每条边还有可能带有权重,我们用WWW表示网络的加权邻接矩阵,WN×N=[wij],1≤i,j≤NW_{N\times N}=[w_{ij}],1\leq i,j\leq NWN×N​=[wij​],1≤i,j≤N,其中wijw_{ij}wij​表示节点iii和节点jjj的边的权重,另有WWW是一个对称矩阵,有wij=wjiw_{ij}=w_{ji}wij​=wji​。

另外还有度的概念,这里可以类比有向图中的出度和入度的概念,不过图中的点viv_ivi​的度did_idi​并不是和该点相连的点的数量,而是和其相连的边的权重之和,也就是邻接矩阵的每一行的值加起来,即:

di=∑j=1Nwijd_{i}=\sum_{j=1}^{N}w_{ij}di​=j=1∑N​wij​

而图的度矩阵(对角矩阵)DN×ND_{N\times N}DN×N​可以表示如下:

D=[d1d2dN]D=\begin{bmatrix} d_{1} & & & \\ & d_{2} & & \\ & & & \\ & & & d_{N} \end{bmatrix}D=⎣⎢⎢⎡​d1​​d2​​​dN​​⎦⎥⎥⎤​

  1. 图的拉普拉斯矩阵

可以将拉普拉斯算子推广到网络(无向图)中,对于有NNN个节点的网络,我们想要获得一个节点关于其邻居节点(自由度)的增益,然而每个节点的邻居个数不一定是相同的,一个节点的最大自由度为NNN。

在网络中,两个节点之间的增益为fi−fjf_{i}-f_{j}fi​−fj​,考虑进边的权重,增益就为wij(fi−fj)w_{ij}(f_{i}-f_{j})wij​(fi​−fj​)。对于节点iii来说,它从它的邻居节点所获得的总增益就是拉普拉斯算子在节点iii处的值:

Δfi=∑j∈NB(i)∂fi∂j2=∑jwij(fi−fj)=(∑jwij)fi−∑jwijfj=difi−wi:f\Delta f_{i}=\sum_{j\in NB(i)}\frac{\partial f_{i}}{\partial j^{2}}\\ =\sum_{j}w_{ij}(f_{i}-f_{j})\\ =(\sum _{j}w_{ij})f_{i}-\sum_{j}w_{ij}f_{j}\\ =d_{i}f_{i}-w_{i:}fΔfi​=j∈NB(i)∑​∂j2∂fi​​=j∑​wij​(fi​−fj​)=(j∑​wij​)fi​−j∑​wij​fj​=di​fi​−wi:​f

这里公式第二行jjj从j∈NB(i)j\in NB(i)j∈NB(i)推广到所有的jjj是因为wijw_{ij}wij​可以控制节点iii的邻居节点(这是因为不相邻的边的权重wij=0w_{ij}=0wij​=0)。另外注意这里计算fif_ifi​处的总增益,式子中却是fi−fjf_i-f_jfi​−fj​,而不是fj−fif_j-f_ifj​−fi​,这样其实是没有关系的。

那么拉普拉斯算子在所有的节点上的作用结果就是:

Δf=(Δf1Δf2⋮ΔfN)=(d1f1−w1:fd2f2−w2:f⋮dNfN−wN:f)=(d1d2⋱dN)f−(w1:w2:⋮wN:)f=(D−W)f\Delta f=\begin{pmatrix} \Delta f_{1}\\ \Delta f_{2}\\ \vdots \\ \Delta f_{N} \end{pmatrix}\\ =\begin{pmatrix} d_{1}f_{1}-w_{1:}f\\ d_{2}f_{2}-w_{2:}f\\ \vdots \\ d_{N}f_{N}-w_{N:}f \end{pmatrix}\\ =\begin{pmatrix} d_{1} & & & \\ & d_{2} & & \\ & & \ddots & \\ & & & d_{N} \end{pmatrix}f-\begin{pmatrix} w_{1:}\\ w_{2:}\\ \vdots \\ w_{N:} \end{pmatrix}f\\ =(D-W)fΔf=⎝⎜⎜⎜⎛​Δf1​Δf2​⋮ΔfN​​⎠⎟⎟⎟⎞​=⎝⎜⎜⎜⎛​d1​f1​−w1:​fd2​f2​−w2:​f⋮dN​fN​−wN:​f​⎠⎟⎟⎟⎞​=⎝⎜⎜⎛​d1​​d2​​⋱​dN​​⎠⎟⎟⎞​f−⎝⎜⎜⎜⎛​w1:​w2:​⋮wN:​​⎠⎟⎟⎟⎞​f=(D−W)f

这里的D−WD-WD−W就是图的拉普拉斯矩阵(Graph Laplacian),记作LLL。根据上面的公式,我们得出结论:图拉普拉斯算子作用在由图节点信息构成的向量fff上得到的结果等于图拉普拉斯矩阵和向量fff的点积。拉普拉斯矩阵反映了当前节点对周围节点产生扰动时所产生的累积增益,直观上也可以理解为某一节点的值变为其相邻节点值的期望影响。

  1. 拉普拉斯矩阵的谱分解

拉普拉斯矩阵的谱分解(Laplace Spectral Decomposition)就是拉普拉斯矩阵的特征分解:

Lμk=λkμkL\mu _{k}=\lambda _{k}\mu _{k}Lμk​=λk​μk​

对于无向图来说,拉普拉斯矩阵是实对称矩阵,而实对称矩阵一定可以用正交矩阵进行正交相似对角化:

L=UΛU−1L=U\Lambda U^{-1}L=UΛU−1

这里的Λ\LambdaΛ为特征值构成的对角矩阵,UUU为特征向量构成的正交矩阵,UUU的每一列都是一个特征向量。又因为正交矩阵的逆等于正交矩阵的转置:U−1=UTU^{-1}=U^{T}U−1=UT,所以有:

L=UΛU−1=UΛUTL=U\Lambda U^{-1}=U\Lambda U^{T}L=UΛU−1=UΛUT

  1. 拉普拉斯矩阵的性质

拉普拉斯矩阵有一些性质如下:
①对称性。
②由于其对称性,则它的所有特征值都是实数。
③对于任意向量fff,有:

fTLf=12∑i=1N∑j=1Nwij(fi−fj)2f^{T}Lf=\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}(f_{i}-f_{j})^{2}fTLf=21​i=1∑N​j=1∑N​wij​(fi​−fj​)2

这一性质利用拉普拉斯矩阵的性质很容易可以得到:

fTLf=fTDf−fTWf=∑i=1Ndifi2−∑i=1N∑j=1Nwijfifj=12(∑i=1Ndifi2−2∑i=1N∑j=1Nwijfifj+∑j=1Ndjfj2)=12(∑i=1N∑j=1Nwijfi2−2∑i=1N∑j=1Nwijfifj+∑i=1N∑j=1Nwijfj2)=12∑i=1N∑j=1Nwij(fi−fj)2f^{T}Lf=f^{T}Df-f^{T}Wf \\ =\sum _{i=1}^{N}d_{i}f_{i}^{2}-\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}f_{i}f_{j}\\ =\frac{1}{2}(\sum _{i=1}^{N}d_{i}f_{i}^{2}-2\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}f_{i}f_{j}+\sum _{j=1}^{N}d_{j}f_{j}^{2})\\ =\frac{1}{2}(\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}f_{i}^{2}-2\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}f_{i}f_{j}+\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}f_{j}^{2})\\ =\frac{1}{2}\sum_{i=1}^{N}\sum_{j=1}^{N}w_{ij}(f_{i}-f_{j})^{2}fTLf=fTDf−fTWf=i=1∑N​di​fi2​−i=1∑N​j=1∑N​wij​fi​fj​=21​(i=1∑N​di​fi2​−2i=1∑N​j=1∑N​wij​fi​fj​+j=1∑N​dj​fj2​)=21​(i=1∑N​j=1∑N​wij​fi2​−2i=1∑N​j=1∑N​wij​fi​fj​+i=1∑N​j=1∑N​wij​fj2​)=21​i=1∑N​j=1∑N​wij​(fi​−fj​)2

④拉普拉斯矩阵是半正定的,则其所有特征值非负,这个性质由性质③很容易得出。并且其最小的特征值为000,这是因为LLL的每一行和为000,对于标准化的全111向量1N=(11⋯1)T/N1_{N}=\begin{pmatrix} 1 & 1 & \cdots & 1 \end{pmatrix}^{T}/\sqrt{N}1N​=(1​1​⋯​1​)T/N​,有L⋅1N=0=0⋅1NL\cdot 1_{N}=0=0\cdot 1_{N}L⋅1N​=0=0⋅1N​。

对于上面的性质③,如果fff为网络中信号的值的向量,那么fTLff^{T}LffTLf称为图信号的总变差(Total Variation),可以刻画图信号整体的平滑度(Smoothness)。

那么为什么fTLff^{T}LffTLf可以刻画图的平滑度呢?这里我们可以直观地来看一下,从③的式子中可以看出如果相邻节点的值fif_ifi​和fjf_jfj​差异很大,那么fTLff^{T}LffTLf这个值就会很大,也就会不平滑。举例来说,fif_ifi​可以看做节点xix_ixi​的标签yiy_iyi​,这里将fTLff^{T}LffTLf记作SSS。如果一个图比较平滑的话,那么图中相邻节点的标签应该是尽可能一致的,如果相邻节点的标签差异很大,那么这个图就不是很平滑。如下图:

上图中的两个网络,第一个网络的节点标签差异较小(更平滑),因此SSS较小,而第二个网络节点标签差异较大(不平滑),因此SSS较大。因此S=fTLfS=f^{T}LfS=fTLf可以用来刻画网络的平滑度(越小越平滑)。

多说一句,这一点可以用在半监督学习中,大概的思路是构建有标签和无标签数据的无向图,节点就是每一个数据样本,边是节点间的相似度(使用径向基函数等来度量的相似度),为了使模型为无标签数据标注的标签更平滑,可以将SSS作为训练模型的一个正则项。感兴趣的同学可以参考:半监督学习|深度学习(李宏毅)(九)。

图的拉普拉斯矩阵的应用是多种多样的,本文只介绍一些学习图神经网络(主要是图卷积网络GCN)的一些基础知识。图的拉普拉斯矩阵还可以应用在谱聚类方法中,这是一种聚类方法,也可当做一种降维方法,感兴趣的同学可以参考:谱聚类|机器学习推导系列(二十)。

二、图傅里叶变换

本章节需要了解傅里叶变换的相关知识,可以参考这篇文章:傅里叶级数与傅里叶变换。

  1. 回顾傅里叶变换

对于连续非周期函数f(t)f(t)f(t)的傅里叶变换,其公式为:

F(ω)=∫−∞+∞f(t)e−iωtdtF(\omega )=\int_{-\infty }^{+\infty }f(t)e^{-i\omega t}\mathrm{d}tF(ω)=∫−∞+∞​f(t)e−iωtdt

傅里叶变换将函数分解成无数个基函数的线性组合,向每个基函数e−iωte^{-i\omega t}e−iωt上投影,F(ω)F(\omega )F(ω)就是投影后对应的该基函数的系数。定义在(−∞,+∞)(-\infty ,+\infty )(−∞,+∞)上的函数f(t)f(t)f(t)可以看做一个无限维的向量,而ttt代表的就是维度,f(t)f(t)f(t)就是这个维度上的值,因此函数的内积也就是积分。e−iωte^{-i\omega t}e−iωt是傅里叶变换的基函数,而w∈(−∞,+∞)w\in (-\infty ,+\infty )w∈(−∞,+∞),也就是说有无限多个基函数,F(ω)F(\omega )F(ω)表示函数f(t)f(t)f(t)在这个基函数上的坐标。

  1. 亥姆霍兹方程与傅里叶变换

亥姆霍兹方程的公式为:

∇2f=−k2f\nabla ^{2}f=-k^{2}f∇2f=−k2f

亥姆霍兹方程可以看做广义的特征函数Ax=λxAx=\lambda xAx=λx,fff为特征函数,−k2-k^{2}−k2为特征值(之前说过一个函数fff可以看做无限维的向量,这里也可以用这个观点来理解亥姆霍兹方程)。

现在我们让拉普拉斯算子∇2\nabla ^{2}∇2作用到傅里叶变换的基函数上,则有:

∇2e−iωt=∂2e−iωt∂t2=−ω2e−iωt\nabla ^{2}e^{-i\omega t}=\frac{\partial ^{2}e^{-i\omega t}}{\partial t^{2}}=-\omega ^{2}e^{-i\omega t}∇2e−iωt=∂t2∂2e−iωt​=−ω2e−iωt

因此我们可以看出,傅里叶变换的基函数其实就是拉普拉斯算子的特征函数,而ω\omegaω就代表了拉普拉斯算子的特征值。

  1. 从傅里叶变换到图傅里叶变换

对于傅里叶变换,存在卷积定理:在适当条件下,两个信号的卷积的傅立叶变换是他们的傅立叶变换的点积,换句话说就是时域卷积等于频域相乘。为了能够应用卷积定理来处理卷积,所以可以将两个信号fff和ggg首先进行傅里叶变换再相乘,从而得到卷积结果,这样做的好处在于可以降低算法的时间复杂度。用公式表达卷积定理就是:

F(f∗g)=F(f)⋅F(g)F(f*g)=F(f)\cdot F(g)F(f∗g)=F(f)⋅F(g)

对于网络来说,直接进行卷积是困难的,因为网络不具备图像那样规则的网格结构,因此考虑应用图傅里叶变换将网络的空域信息映射到频域来应用卷积定理完成卷积操作。

图傅里叶变换是使用类比的方式直接定义的,并非经过严格推导,类比的方法如下:
拉普拉斯算子与拉普拉斯矩阵:拉普拉斯算子的作用是能够得到一个点在某些自由度上微扰以后获得的增益,而拉普拉斯矩阵能够获得网络中的每个节点微扰以后从它的邻居节点上获得的增益,也就是说:拉普拉斯矩阵之于网络就相当于拉普拉斯算子之于函数。
拉普拉斯算子的特征函数与拉普拉斯矩阵的特征向量:傅里叶变换的基函数e−iωte^{-i\omega t}e−iωt是拉普拉斯算子的特征函数,那么同样的图傅里叶变换的基向量就是拉普拉斯矩阵的特征向量μk\mu _{k}μk​。
拉普拉斯算子的特征值与拉普拉斯矩阵的特征值:傅里叶变换的频率ω\omegaω是拉普拉斯算子的特征值,那么同样的图傅里叶变换的频率就是拉普拉斯矩阵的特征值λk\lambda _{k}λk​。

总而言之,这个类比的过程如下:

∇2e−iωt=−ω2e−iωt⇕Lμk=λkμk{\color{Red}{\nabla ^{2}}}{\color{Blue}{e^{-i\omega t}}}={\color{Green}{-\omega ^{2}}}{\color{Blue}{e^{-i\omega t}}}\\ \Updownarrow \\ {\color{Red}{L}}{\color{Blue}{\mu _{k}}}={\color{Green}{\lambda _{k}}}{\color{Blue}{\mu _{k}}}∇2e−iωt=−ω2e−iωt⇕Lμk​=λk​μk​

既然对于函数来说拉普拉斯算子的特征值和特征函数能够用于函数的傅里叶变换,那么对于网络来说拉普拉斯矩阵的特征值和特征向量就能够用于网络的傅里叶变换。换句话说,傅里叶变换是以拉普拉斯算子的特征函数为基进行投影,那么图傅里叶变换就以拉普拉斯矩阵的特征向量为基进行投影,因此图傅里叶变换定义为:

F(λk)=∑i=1Nf(i)μk(i)F(\lambda _{k})=\sum_{i=1}^{N}f(i)\mu _{k}(i)F(λk​)=i=1∑N​f(i)μk​(i)

这里的fff还是表示由图节点信息构成的向量,λk\lambda _{k}λk​和μk\mu _{k}μk​分别表示拉普拉斯矩阵的特征值和特征向量。现在我们用f^\hat{f}f^​来表示fff经过图傅里叶变换后的坐标,那么图傅里叶变换可以表示成矩阵形式:

f^=(f^1⋮f^N)=(μ1(1)⋯μ1(N)⋮⋱⋮μN(1)⋯μN(N))(f1⋮fN)=UTf\hat{f}=\begin{pmatrix} \hat{f}_{1}\\ \vdots \\ \hat{f}_{N} \end{pmatrix}=\begin{pmatrix} \mu _{1}(1) & \cdots & \mu _{1}(N)\\ \vdots & \ddots & \vdots \\ \mu _{N}(1) & \cdots & \mu _{N}(N) \end{pmatrix}\begin{pmatrix} f_{1}\\ \vdots \\ f_{N} \end{pmatrix}=U^{T}ff^​=⎝⎜⎛​f^​1​⋮f^​N​​⎠⎟⎞​=⎝⎜⎛​μ1​(1)⋮μN​(1)​⋯⋱⋯​μ1​(N)⋮μN​(N)​⎠⎟⎞​⎝⎜⎛​f1​⋮fN​​⎠⎟⎞​=UTf

我们也可以得到图傅里叶变换的逆变换:

f=UU−1f=UUTf=Uf^f=UU^{-1}f=UU^{T}f=U\hat{f}f=UU−1f=UUTf=Uf^​

参考资料

ref:【GCN】万字长文带你入门 GCN——公众号:阿泽的学习笔记
ref:图傅里叶变换

图神经网络中的谱图理论基础相关推荐

  1. 图神经网络中同质图与异质图等区别

    基础概念 同质(Homogeneity)图: 同质(Homogeneity)图指的是图中的节点类型和关系类型都仅有一种. 异质(heterogeneous)图: 指的是图中的节点类型或关系类型多于一种 ...

  2. 北邮王啸:挖掘图神经网络中的「万物真理」 | 青源专栏

    导读:为了启发青年学者研究思路,激发科研灵感,智源社区推出青年学者访谈栏目.北京邮电大学副教授王啸是国内图学习领域的佼佼者.回顾他的科研历程,从探寻网络研究的本质,到在物理学家的论文中寻找灵感,他对图 ...

  3. 【图神经网络研究精华】图卷积网络作者Thomas Kipf博士论文公布

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 转载自:机器之心 对于普通人来说,将自己的学位论文公布到社交媒体可能需要点勇气.但 ...

  4. 178页,四年图神经网络研究精华,图卷积网络作者Thomas Kipf博士论文公布

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作分享,不代表本公众号立场,侵权联系删除 转载于:机器之心 AI博士笔记系列推荐 周志华<机器学习>手 ...

  5. (DataWhale)图神经网络Task03:基于图神经网络GCN/GAT的节点表征与分类

    文章目录 Cora数据集的准备与分析 TSNE可视化节点表征分布 图节点分类模型实现与对比(MLP vs. GCN vs. GAT) MLP分类模型 GCN分类模型 GAT分类模型 结果比较与分析 参 ...

  6. 图神经网络(一)图信号处理与图卷积神经网络(5)图卷积神经网络

    图神经网络(一)图信号处理与图卷积神经网络(5)图卷积神经网络 0. 概述 1. 对频率响应矩阵进行参数化 2. 对多项式系数进行参数化 3. 设计固定的图滤波器 0. 概述 在学习了图滤波器定义的基 ...

  7. 图神经网络(一)图信号处理与图卷积神经网络(3)图傅里叶变换

    图神经网络(一)图信号处理与图卷积神经网络(3)图傅里叶变换 傅里叶变换是数字信号处理的基石,傅里叶变换将信号从时域空间转换到频域空间,而频域视角给信号的处理带来了极大的遍历.围绕傅里叶变换,信号的滤 ...

  8. 图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵

    图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵  给定图G=(V,E)G=(V,E)G=(V,E),V表示图中的节点集合,假设其长度为NNN,图信号是一种描述V→RV→RV→ ...

  9. 图神经网络(一)图信号处理与图卷积神经网络(1)矩阵乘法的三种方式

    图神经网络(一)图信号处理与图卷积神经网络(1)矩阵乘法的三种方式 1.1 矩阵乘法的三种方式 参考文献   图信号处理(Graph Signal Processing,GSP) 1是离散信号处理(D ...

最新文章

  1. swing中如何将jtable中的数据导入到excel中?
  2. TIOBE 2021年3月程序语言排名 - python要超越Java排第二了?
  3. 发现Diolar 的边缘检测程序好像也有缺点
  4. 结合我的创业经历,有一下3点感受
  5. mysql不识别生僻字_MySQL生僻字插入失败怎么办
  6. 嵌入式开发之cmos---前端采集aptina cmos
  7. 大学计算机基础流媒体,大学计算机基础经典课件.ppt
  8. CMFCMenuBar 的另类动态修改
  9. 国家统计局拟用大数据预测房价走势
  10. php 生成条码插件,php 条形码生成插件Composer组件|php条形码code128实现方法-爱测速网...
  11. 蓝桥杯练习题 <座次问题> 排列型枚举 next_permutation
  12. vue watch首次不触发的解决方案
  13. 磁盘管理关于磁盘的概念
  14. PAT 1089 狼人杀-简单版 C++实现 解题思路
  15. java实现第七届蓝桥杯搭积木
  16. Apollo开放平台 API
  17. 画一条连接两点的线,由两点坐标确定一条直线
  18. uniapp 小程序获取手机号码 前端+php后台
  19. 爱e聚合桌面 v1.0.2008.0530 免费下载
  20. 记一次阿里云被入侵的解决方案(小白攻略欢迎大佬指点)

热门文章

  1. 【HTML基础】第一课、Web前端的概述
  2. (Tiled官方文档翻译)第二节:四种图层的介绍
  3. 【BDWP不限速小妙招】真测有效
  4. Linux内核——cli()和sti()
  5. Faceted project metadata file “/game/.settings/org.eclipse.wst.common.projec
  6. 分布式监控:zabbix trapper方式监控
  7. 马云卸任阿里董事局主席,有才网友脑洞大开杜撰马云版《出师表》
  8. 数字化时代的新形式下,如何提升客户满意度,实现客户成功?
  9. 小菜鸟之JAVA面试题库1
  10. 不曾想过 未来的_未来想要什么