文章目录

  • 图自动编码器(GAE)
  • 图递归神经网络(Graph RNN)和图强化学习(Graph RL)
    • 递归神经网络(RNN)
    • Relational recurrent neural networks(关系性循环神经网络)
    • Relational Deep Reinforcement Learning(关系性深度强化学习)

图自动编码器(GAE)

自编码器(AE)和变分自编码器(VAE)广泛应用于无监督学习中,它们适用于学习无监督信息的图节点表示。下表总结了本文所研究的GAE主要特征:
不同GAE之间的比较

可以看到,在本文所研究的10种GAE方法中,7种属于自编码器(AE)、3种属于变分自编码器(VAE)。

每种方法采用的降维方法也有所不同,主要包括L2-Reconstruction拉普拉斯特征映射(Laplacian Eigenmap)、递归Reconstruction、排序、GAN等等。

在可扩展性、节点特征以及其它改进方面也各不相同。除了上述两个主要分类外,也有一些进展值得讨论。
首先是对抗性训练方案,尤其是生成对抗网络(GAN),这是最近机器学习领域的一个热门话题。
GAN的基本思想是构建两个相关联的模型,一个判别器和一个生成器。生成器的目的是通过产生假数据来“欺骗”判别器,判别器的目的是区分样本是真实数据还是由生成器产生的假数据。然后,两个模型可以通过极大极小博弈进行联合训练,从而相互受益。

S. Pan等人 [83]将对抗训练方案作为一个额外的正则化项纳入GAE。整个架构如图9所示。具体来说,编码器用作生成器,判别器的目的是区分潜在表示是来自生成器还是来自先验分布。这样,自动编码器就被强制匹配先验分布以作为正则化。

除了前面提到的半监督方法和无监督方法之外,我们在这一节中还讨论了一些最新的高级方法。它们的主要特性如表所示。

图递归神经网络(Graph RNN)和图强化学习(Graph RL)

递归神经网络(RNN)

例如GRU或LSTM是建模序列数据的一个实际标准,在GNN中用于模拟节点状态。
You et al. [94]将Graph RNN应用于图生成问题。具体来说,他们采用两个RNN,一个用于生成新的节点,另一个用于以自回归的方式为新添加的节点生成边。结果表明,与传统的基于规则的图生成模型相比,这种分层RNN结构在具有可接受的时间复杂度的同时,能够有效地从输入图中学习。

动态图神经网络(Dynamic Graph Neural Network, DGNN)[95]提出利用 time-aware LSTM[100]来学习动态图中的节点表示。作者表明, time-aware LSTM可以很好地建模边形成的顺序和时间间隔,从而有利于图的广泛应用。

也可以将Graph RNN与其他架构(如GCN或GAE)结合使用。例如RMGCNN[96]将LSTM应用于GCN的结果,逐步重构图,如图10所示,旨在解决图的稀疏性问题。Dynamic GCN[97]应用LSTM在动态网络中收集不同时间片段的GCN结果,目的是获取空间和时间图信息。

Relational recurrent neural networks(关系性循环神经网络)

DeepMind和伦敦大学学院的这篇论文提出关系推理模块RMC,能够在序列信息中执行关系推理,在WikiText-103, Project Gutenberg 和 GigaWord 数据集上达到了当前最佳性能。

基于记忆的神经网络通过利用长时间记忆信息的能力来建模时序数据。然而,目前还不清楚它们是否有能力利用它们记得的信息进行复杂的关系推理。
在这篇论文中,DeepMind和伦敦大学学院的研究人员首先证实一种直觉想法,即标准的记忆架构在一些涉及关系推理的任务上很困难。然后,研究者通过使用一个新的记忆模块——Relational Memory Core(RMC)——来改进这种缺陷,该模块采用multi-head dot product attention来允许记忆交互。
最后,研究者在一系列任务上测试RMC,这些任务可以从跨序列信息的更强大的关系推理中获益,并且在RL领域(例如Mini PacMan)、程序评估和语言建模中显示出巨大的受益,在WikiText-103、Project Gutenberg和GigaWord数据集上获得state-of-the-art的结果。
论文地址:https://arxiv.org/abs/1806.01822

Relational Deep Reinforcement Learning(关系性深度强化学习)

近日,DeepMind 提出了一种「关系性深度强化学习」方法,并在星际争霸 2 中进行了测试,取得了最优水平。
论文链接:https://arxiv.org/abs/1806.01830

深度强化学习方法,它可以通过结构化感知和关系推理提高常规方法的效率、泛化能力和可解释性。该方法使用自注意力来迭代地推理场景中实体之间的关系并指导 model-free 策略。实验结果表明,在一项名为「方块世界」的导航、规划新任务中,智能体找到了可解释的解决方案,并且在样本复杂性、泛化至比训练期间更复杂场景的能力方面提高了基线水平。在星际争霸 II 学习环境中,智能体在六个小游戏中达到了当前最优水平——在四个游戏中的表现超越了大师级人类玩家。通过考虑架构化归纳偏置,我们的研究为解决深度强化学习中的重要、棘手的问题开辟了新的方向。
你可以参考:https://yobibyte.github.io/files/paper_notes/rdrl.pdf

图卷积网络:http://tkipf.github.io/graph-convolutional-networks/
关系RNN:https://arxiv.org/pdf/1806.01822v1.pdf
关系深度强化学习:https://arxiv.org/abs/1806.01830
关系归纳偏置:https://arxiv.org/pdf/1806.01203.pdf

GAE—图自编码器/Graph RNN/Graph RL相关推荐

  1. 图神经网络综述 Survey on Graph Neural Network

    图神经网络综述 Survey on Graph Neural Network 摘要:近几年来,将深度学习应用到处理和图结构数据相关的任务中越来越受到人们的关注.图神经网络的出现使其在上述任务中取得了重 ...

  2. 【ICLR 2018图神经网络论文解读】Graph Attention Networks (GAT) 图注意力模型

    论文题目:Graph Attention Networks 论文地址:https://arxiv.org/pdf/1710.10903.pdf 论文代码:https://github.com/Peta ...

  3. 图卷积网络GCN(Graph Convolution Network)(一)研究背景和空域卷积

    文章首发于个人站点: 图卷积网络GCN(Graph Convolution Network)(一)研究背景和空域图卷积 | 隐舍 公众号:[DreamHub] 由于文章篇幅较长,因此将其分解为三部分: ...

  4. 图自编码器的起源和应用

    ©PaperWeekly 原创 · 作者|刘昊东 学校|电子科技大学硕士生 研究方向|推荐系统,表示学习 Kipf 与 Welling 16 年发表的「Variational Graph Auto-E ...

  5. 【译】图上的深度学习综述 五、图自编码器

    Deep Learning on Graphs: A Survey Arxiv 1812.04202 自编码器(AE)及其变体被广泛用于无监督学习 [74],它适用于学习没有监督信息的图节点表示. 在 ...

  6. Date Structure: Graph --- Represent graph structure with adjacency list

    Date Structure: Graph Represent graph structure with adjacency list Basical Structure /* ---- 邻接表实现图 ...

  7. 一组图诠释CNN及RNN的区别

    CNN和RNN是深度学习中运用最多的两种深度学习网络结构,可能有些同学还不太清楚这两种网络的区别,今天刚好看到了一张图可以比较清楚的解释CNN及RNN的区别. 首先,CNN对于输入数据的维度约束是比较 ...

  8. MATLAB图自编码器

    通过MATLAB来实现图自编码器,用于高光谱图像特征的提取. 文章目录 前言 一.MATLAB相关知识 二.编写算法 1.图自编码器搭建 2.可视化相关参数 总结 前言 算法输入数据: 图节点属性矩阵 ...

  9. 图神经网络方法总结(Graph Neural Network)

    图神经网络方法(Graph Neural Network) 概要 近年来图神经网络受到大家越来越多的关注,在文本分类(Text classification),序列标注(Sequence labeli ...

  10. 异构图注意力网络(Heterogeneous Graph Attention Network)

    Heterogeneous Graph Attention Network 这篇论文将会发表在WWW 2019会议上. ABSTRACT GNN在深度学习领域表现出了强大的性能.但是,在包含不同节点和 ...

最新文章

  1. 无责任Windows Azure SDK .NET开发入门(二):使用Azure AD 进行身份验证
  2. sqlserver 安装_安装sqlserver
  3. .net中关键字new的用法
  4. AngularJS学习之旅—AngularJS Http(九)
  5. 本地第一次对接已经存在的github上的repository
  6. 发了篇paper,双非二本的她直博浙大
  7. java 泛型嵌套泛型_Java泛型嵌套
  8. Office 365身份认证管理-添加并验证联合认证域
  9. signature=8405d26e250ad07c44560263cb1d4fc0,Systems for analyzing microtissue arrays
  10. 系统架构技能之设计模式-抽象工厂模式
  11. 计算机仿真期末考试,2015年数学物理建模期末考试试题.docx
  12. 增强学习之一——Q-Learning公式
  13. java saxreader 生成xml_SAXReader解析xml文件demo
  14. arcgis地理配准
  15. 调试华为MML协议备忘
  16. Linux配置JavaWeb环境(JDK+Tmocat+Mysql+Nginx+Redis+IDEA部署)
  17. 资深大牛带你了解源码!带你轻松理解Android-Hook机制,已开源
  18. Java在编译到执行过程的编码问题
  19. MFC中简单图形的平移与简单旋转
  20. Ableton Live 10 Suite v10.1.42 WiN-MAC 音乐制作宿主软件

热门文章

  1. 审车的时候环保怎样安全通过_车审环保过不了如何处理
  2. linux xia复制命令,Linux常用命令整理
  3. MSDN Library - October 2001 精简方法
  4. netbeans配置JAVA环境_NetBeans IDE 8.0.1 安装说明
  5. node 生成随机头像_给微信设置卡通头像,再不怕撞脸!
  6. 快递柜智能柜C语言程序,智能快递柜的设计与实现_李浩然.pdf
  7. httpclient简单应用,登录开心网的例子
  8. Python3-爬虫登录开心网的账号,并且爬取个人主页内容
  9. 三消游戏(检查游戏是否死局)
  10. Swift 阳历转农历,农历转公历