时空图建模可用于分析空间关系和时间趋势。现有的方法大多捕捉固定图形结构上的空间依赖性,假设实体之间的底层关系是预先确定的。显式图结构(关系)不一定反映真实的依赖关系。且现有的方法对于捕捉时间趋势是无效的,因为其使用的RNN或CNN不能捕获长时间序列。本文提出了一种新的用于时空图建模的图神经网络结构Graph WaveNet。开发一种新的自适应依赖矩阵并通过节点嵌入进行学习,故可以捕获数据中隐藏的空间依赖。Graph WaveNet具有一个堆叠的扩展一维卷积组件,其感受野随着层数的增加呈指数增长,能够处理非常长的序列。整个框架以端到端的方式学习。

时空图建模通过假设连接节点之间的相互依赖性,对动态节点级输入进行建模。

交通速度预测,在对每条道路上的交通速度时间序列数据建模时,自然会将交通系统的底层图结构视为节点之间相互依赖关系的先验知识。

时空图建模一个基本假设是节点的未来信息取决于其历史信息及其邻居的历史信息。故要同时捕获空间和时间依赖性。

目前对时空图建模的研究主要有两个方向。要么将图卷积网络(GCN)集成到循环神经网络(RNN)中,要么集成到卷积神经网络(CNN)中。目前两大缺点:1.这些研究假设数据的图结构反映了节点之间真正的依赖关系。但是现实中可能存在有连接但是两个节点之间不存在相互依赖关系,或两个节点之间存在相互依赖关系但缺少连接的情况。2.目前的时空图建模研究对于学习时间依赖性是无效的。基于RNN的方法在捕获远程序列时会遇到耗时的迭代传播和梯度爆炸/消失。相反,基于CNN的方法具有并行计算、梯度稳定和低内存需求的优势。然而,这些工作需要使用许多层来捕获非常长的序列,因为它们采用标准的1D卷积,其感受野大小随着隐藏层数量的增加而线性增长。

本文提出基于CNN的名为Graph WaveNet的方法。提出了一种图卷积层,在该层中,通过端到端的监督训练,可以从数据中学习自适应邻接矩阵。自适应邻接矩阵保留了隐藏的空间依赖关系。受WaveNet启发,我们采用堆叠的扩展因果卷积来捕获时间依赖性。随着隐藏层数量的增加,堆叠的扩张因果卷积网络的感受野大小呈指数增长。在堆叠的扩展因果卷积的支持下,Graph WaveNet能够高效地处理具有长时间序列的时空图数据。

本文贡献:1.构造了一个自适应邻接矩阵来保持隐藏的空间依赖性。2.提出了一个同时捕获时空依赖关系的有效框架。其核心思想是将我们提出的图卷积与扩展的因果卷积结合起来,每个图卷积层处理由扩展的因果卷积层在不同粒度级别提取的节点信息的空间依赖性。

图卷积网络是学习图结构数据的构造块。图卷积网络有两大主流:基于谱的方法和基于空间的方法。基于频谱的方法使用图频谱滤波器平滑节点的输入信号。基于空间的方法通过聚集邻域的特征信息来提取节点的高级表示。在这些方法中,邻接矩阵被视为先验知识,并且在整个训练过程中是固定的。大多数时空图网络遵循两个方向,即基于RNN和基于CNN的方法。于RNN的方法的主要缺点是,它对于长序列来说效率很低,并且当它们与图卷积网络结合时,其梯度更容易爆炸。基于CNN的方法将图卷积与标准1D卷积相结合。虽然计算效率很高,但须堆叠许多层或使用全局池来扩展神经网络模型的感受野。

问题描述:给定一个图G及其历史S步的图信号(特征矩阵),我们的问题是学习一个函数f,它能够预测接下来T步的图信号。

图卷积,从基于空间的角度来看,它通过聚集和转换节点的邻域信息来平滑节点的信号,优点是,它是一个合成层,其过滤器位于空间中,并且支持多维输入。图卷积层可定义为其中代表带自循环的归一化后的邻接矩阵代表输入信号代表输出,代表参数矩阵

Li et al.2018年提出了一种扩散卷积层,其在时空建模中有效。他们用K个有限步模拟了图形信号的扩散过程。其扩散卷积层拓展为方程2的形式,结果是

Pk表示转移矩阵的幂级数。对于无向图,对于有向图,扩散过程有两个方向,向前和向后,前向转移矩阵和后向转移矩阵有了前向和后向转移矩阵,扩散图卷积层写为

自适应邻接矩阵:这种自适应邻接矩阵不需要任何先验知识,通过随机梯度下降进行端到端学习。这样,模型可以自己发现隐藏的空间依赖关系。通过随机初始化带有可学习参数的两个节点嵌入字典来实现这一点。自适应矩阵为E1命名为源节点嵌入,E2命名为目标节点嵌入

。通过将E1和E2相乘,我们得出源节点和目标节点之间的空间依赖权重。使用ReLU激活函数来消除弱连接,采用SoftMax函数对自适应邻接矩阵进行归一化处理。因此,归一化自适应邻接矩阵可以看作是隐藏扩散过程的转移矩阵。通过结合预定义的空间依赖和自学习的隐藏图依赖,提出了以下图卷积层

当图形结构不可用时,我们建议仅使用自适应邻接矩阵来捕获隐藏的空间依赖,即我们的图卷积属于基于空间的方法。我们在等式7中的图形卷积实际上被解释为聚合来自不同邻域阶的变换特征信息。

时间卷积层

我们采用扩展因果卷积作为时间卷积层(TCN),以捕捉节点的时间趋势。扩大的因果卷积网络通过增加层的深度,允许一个指数级大的感受野。与基于RNN的方法不同,扩展的因果卷积网络能够以非递归的方式处理长程序列,这有助于并行计算并缓解梯度爆炸问题。扩展的因果卷积通过在输入中填充零来保持时间因果顺序,因此对当前时间步的预测只涉及历史信息。作为标准1D卷积的一种特殊情况,扩展的因果卷积运算通过跳过一定步的值,在输入上滑动

图例为内核大小为2的扩展因果卷积。使用扩展因子k,它每k步选取输入,并对选定的输入应用标准1D卷积。

给定一个1D序列输入和过滤器带f的x的在时间步t上的扩展因果卷积操作表示为

,其中d是控制跳跃距离的扩展因子。通过按递增顺序堆叠带扩张因子的扩张的因果卷积层,模型感受野呈指数增长。它使扩展的因果卷积网络能够用更少的层捕获更长的序列,从而节省计算资源。

门控TCN:在递归神经网络中,门控机制至关重要。已证明其在控制时间卷积网络各层的信息流方面也很强大。一个简单的门控TCN只包含一个输出门,给定输入,有如下形式其中Θ1,Θ2,b,c是模型参数,是元素级积,g(·)是输出的激活函数,σ(·)是sigmoid函数,其决定了传递到下一层的信息的比率。我们在模型中采用门控TCN来学习复杂的时间依赖关系。

Graph WaveNet框架

Graph WaveNet框架由K个堆叠的时空层和一个输出层组成。时空层由一个图卷积层(GCN)和一个门控时间卷积层(Gated TCN)构成,门控TCN包含两个平行的时间卷积层(TCN-a和TCN-b)。输入首先通过线性层进行变换,然后传递给门控时间卷积模块(门控TCN),然后是图卷积层(GCN)。每个时空层都有剩余连接,并与输出层连接。通过叠加多个时空层,Graph WaveNet能够处理不同时间级别的空间相关性。在底层,GCN接收短期时间信息,而在顶层,GCN处理长期时间信息。实际上,图卷积层的输入h是大小为[N,C,L]的三维张量,其中N是节点数,C是隐藏维度,L是序列长度。我们将图卷积层应用于每个。使用平均绝对误差(MAE)作为Graph WaveNet的训练目标,定义为

我们Graph WaveNet输出作为一个整体,而不是通过T步迭代生成。它解决了训练和测试之间不一致的问题,因为模型在训练过程中学习对一个步骤进行预测,并且在推理过程中预计会对多个步骤产生预测。为了实现这一点,我们人为地将Graph WaveNet的感受野大小设计为输入的序列长度,以便在最后一个时空层中,输出的时间维度正好等于1。之后,我们将最后一层的输出通道数设置为步长T的一个因子,以获得所需的输出尺寸。

用于深层时空图建模的 Graph WaveNet相关推荐

  1. 基于空间方法的图神经网络模型_用于时空图建模的图神经网络模型 Graph WaveNet | 课程上新...

    课程概要 本课程来自集智学园图网络论文解读系列活动. 是对论文<Graph WaveNet for Deep Spatial-Temporal Graph Modeling>的解读. 时空 ...

  2. Graph WaveNet 深度时空图建模

     1.文章信息 本次介绍的文章是2019年发表在第28届人工智能国际联合会议论文集(IJCAI-19)的<Graph WaveNet for Deep Spatial-Temporal Grap ...

  3. 论文详解笔记:Graph WaveNet for Deep Spatial-Temporal Graph Modeling

    Graph WaveNet for Deep Spatial-Temporal Graph Modeling 一 作者介绍 本文的作者是悉尼科技大学的Zonghan Wu博士,师从IEEE membe ...

  4. 【交通流预测】《Graph WaveNet for Deep Spatial-Temporal Graph Modeling》论文详解

    文章目录 文章总结 一.Abstract 二.Introduction 三.Methodology 1. Problem Definition 2. Graph Convolution Layer 3 ...

  5. Graph WaveNet for Deep Spatial-Temporal Graph Modeling

    Graph WaveNet for Deep Spatial-Temporal Graph Modeling 时空图建模是分析系统中各组成部分的空间关系和时间趋势的一项重要任务.现有的方法大多捕捉固定 ...

  6. 【论文笔记】Graph WaveNet for Deep Spatial-Temporal Graph Modeling

    Graph WaveNet for Deep Spatial-Temporal Graph Modeling 摘要 现有模型大多是基于固定的图结构,但由于数据的损失可能导致某些true depende ...

  7. 《预训练周刊》第29期:Swin Transformer V2:扩大容量和分辨率、SimMIM:用于遮蔽图像建模的简单框架...

    No.29 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 本期周刊,我们选择了10篇预训练相关的论文,涉及图像处理.图像屏蔽编码.推荐系统.语言模型解释.多模态表征.多语言建模.推 ...

  8. Graph Wavenet 学习笔记

    Graph Wavenet 学习笔记 Graph Wavenet 学习笔记 当前研究的limitation 文章的主要贡献 采用的方法 图卷积层 a diffusion convolution lay ...

  9. 《预训练周刊》第29期:Swin Transformer V2:扩大容量和分辨率、SimMIM:用于遮蔽图像建模的简单框架

    关于周刊 本期周刊,我们选择了10篇预训练相关的论文,涉及图像处理.图像屏蔽编码.推荐系统.语言模型解释.多模态表征.多语言建模.推理优化.细胞抗原预测.蛋白结构理解和化学反应的探索.此外,在资源分享 ...

最新文章

  1. (multi)set的某些操作
  2. 辅助改方办理方法 计算机联锁,辅助所
  3. Modelsim+Debussy联合使用
  4. 第四节:python if语句用法
  5. android中点击按钮弹出一个编辑框,本人是在Button的基础上加了Dialog,Dialog添加了一个编辑框,怎么将Button上的显示文字变成...
  6. java线程池(ThreadPool)
  7. sklearn学习笔记(一):数据预处理
  8. 5G 基站为何建得比 4G 多?
  9. terminal采用公钥免密访问服务器
  10. 有限域f9的特征是多少_第四章有限域1.ppt
  11. 最新北京市生活常用电话一览表
  12. 【原创】我所认识的银行业务之旅(票据篇)
  13. RGB颜色值与十六进制颜色码转换及颜色码对照表
  14. 湘潭大学信息安全课作业答案4
  15. 百度迟到移动互联网:寻入口级产品 文化成挑战
  16. 【聚沙成塔】-MYSQL全文索引使用MATCH AGAINST
  17. 程序员代码面试指南刷题--第四章.打气球的最大分数
  18. 顶级赛事|2021 CCF大数据与计算智能大赛重磅来袭!
  19. 185电缆的接法图解_三相电缆线的接法图解
  20. 线程有哪些状态?创建、就绪、运行、阻塞和死亡

热门文章

  1. 媒体邀约:企业新品发布会如何邀约记者到现场采访报道?
  2. PostgreSQL:WAL日志归档策略
  3. mac m1配置frpc内网穿透
  4. 开源的抽奖助手小程序
  5. GcExcel v6.1 支持新的 ‘.sjs‘ 模板文件 ‘.xltx‘ 格式 Crack
  6. 简单导出rv1126工程环境
  7. Shiro集成kisso,搭建单点登录系统
  8. 多媒体短信服务----MMS
  9. Python 制作微信全家福
  10. html+css不换行的解决办法