译者 | 刘畅

出品 | AI科技大本营

头图 | CSDN付费下载自视觉中国

图神经网络(GNNs)是图学习中一种主流的技术。然而,对于GNN为什么在实际使用中很成功以及它们是否是优异性能所必需的技术,了解相对较少。

本文展示了许多标准的传导节点网络的分类基准结果,作者通过将忽略图结构的浅层模型与利用标签结构中相关性的两个简单后处理步骤相结合,可以超越或匹配SOTA的GNN的性能,这里主要有两个相关性(i)将训练数据中的残余误差带到测试数据中,用于矫正错误的“误差相关性”(error correlation),以及(ii)一个“预测相关性”,它可以平滑测试数据上的预测。本文称整个过程为矫正且平滑(Correct and Smooth, C&S),后处理步骤是通过对早期基于图的半监督学习方法的标准标签传导技术的简单修改来实现的。

本文的方法在各种基准测试上超过或接近于SOTA的GNNs的性能,并且它只需要一小部分的参数,运行速度更快。例如,本文方法在OGB产品数据集中以减少137倍的参数和100倍的训练时间超过了最著名的GNN性能。本文方法的性能突出展现了如何直接将标签信息纳入学习算法(如在传统技术中所做的那样),并产生简单而实质性的性能提升,也可以将技术融入大型GNN模型中,提供适度增益。

OGB结果的代码是:

https://github.com/Chillee/correctandsooth。

引言

随着神经网络在计算机视觉和自然语言处理方面的成功,现在有许多的图神经网络(GNN)来对关系性数据进行预测。这些模型已经取得了很大的成功,并且在开放的图基准排行榜上名列前茅。通常,GNN的方法主要是围绕着创建比基本结构更具表现力的体系结构,如图卷积网络(GCN)或GraphSAGE;例子如图注意力网络,图同构网络和各种深层模型。许多新GNN架构的想法都是从语言(例如注意力)或视觉(例如深层CNN)模型中的新架构改编而来的,希望能成功转化为图形。然而,随着这些模型变得越来越复杂,理解它们的性能增益是一个主要的挑战,并且将它们扩展到大型数据集是很困难的。

在本文中,我们将展示,通过组合更简单的模型,我们可以达到多大的程度,重点是了解在图学习中,特别是转化节点分类中,哪里有容易提高性能的机会。本文提出了一个包含三个主要部分的简单管道(pipeline)(图1):(i)使用忽略图结构的节点特征进行基础预测(例如,MLP或线性模型);(ii)校正步骤,它将训练数据中的不确定性传播到图中,以校正基础预测;以及(iii)对图上的预测进行平滑处理。步骤(ii)和(iii)只是后处理,使用的是经典的基于图的半监督学习方法,即标签传播。

图1 任意GNN模型,校正和平滑过程整体概述,并附带一个示例。

假设左侧簇属于橙色类,右侧簇属于蓝色类。我们使用mlp进行基础的预测,假设在本例中,图结构对所有节点都给出了相同的预测。然后,通过传递训练数据中的误差来校正基础的预测。最后,通过标签传递对校正后的预测进行平滑处理。

本文方法性能改进的一个主要来源是直接使用标签进行预测。这种想法并不是什么新鲜事,早期的基于扩散的半监督学习算法,如光谱图传感器、高斯随机场模型和标签扩散都使用了这一思想。然而,这些方法的动机是在点云数据上进行半监督学习,因此使用特征来构造图。从那时起,这些技术被用于仅从标签(即无特征)学习关系数据,但在GNNs中基本上被忽略了。

尽管如此,本文发现即使是简单的标签传播(忽略了特征)在许多基准测试中都表现得出奇地好。这就为组合两个预测能力的正交提供了动力,一个来自节点特征(忽略图结构),另一个来自直接在预测中使用已知标签。

最近的研究将GNN与标签传播以及马尔可夫随机场联系起来,并且一些技术在特征中使用了标签信息。然而,这些方法的训练成本仍然很高,而本文是以两种可理解的低成本方式使用标签传播。本文从一个忽略了图结构的模型的“基础预测”开始。之后,使用标签传播进行误差修正,然后平滑最终预测。这些后处理步骤基于这样一个事实,即连接节点上的错误和标签是正相关的。

总的来说,本文的方法表明,结合几个简单的思想,在传导节点分类中,无论是在模型大小还是在训练时间方面,成本都只占一小部分。例如,在OGB产品基准测试中,我们用少于两个数量级的参数和训练时间,超过了目前最著名的GNN方法。

然而,本文的目标并不是说当前的图学习方法很差或不合适。相反,本文的目标是强调在图学习中提高预测性能的更简单的方法,这样可以更好地理解性能增加的缘由。本文的主要发现是在学习算法中更直接地加入标签是非常关键的。通过将我们的想法与现有的GNN相结合,我们也看到了一些提升,尽管这些提升是微不足道的。但作者希望本文的方法能为其他的图学习任务,如归纳节点分类、链接预测和图预测提供一些思路。

方法

我们的方法从一个简单的基于节点特征的基础预测器开始,这个预测器不依赖于图的任何学习。之后,我们执行两种类型的标签传播(LP):一种是通过建模相关误差来修正基础的预测,另一种是平滑最终的预测结果。我们称这两种方法的组合是校正和平滑(C&S;图1)。LP(Label Propagation, 标签传递)只是一个后处理的步骤,本文的算法pipeline不是一个端到端的训练。此外,该图仅用于这些后处理步骤和增强特征的前处理步骤。而一般的基础预测方式不是这样的。与标准GNN模型相比,这使得训练变得更快且可扩展。此外,我们利用了LP(在没有特性的情况下,它本身的性能往往相当好)和节点特征。我们将看到,将这些补充的信息结合起来会产生很好的预测。

首先,我们使用一个不依赖于图结构的简单的基础预测器。这个预测器可以是线性的模型或者一个浅的多层感知器,接下来,我们通过合并标签来关联修正错误,从而提高基础预测器的精度。为了最终的预测,出于图中的相邻节点可能具有相似标签的考虑,作者进一步平滑了修正后的预测值。回顾整个处理的流程,就是从简单的基础预测Z开始,只使用节点特征,而不是图结构。然后,通过在训练数据上传递已知误差来估计误差,得到误差修正后的预测Z(r)=Z+^E。最后,作者将这些作为未标记节点上的得分向量,通过另一个LP步骤将其与已知标签相结合,得到平滑的最终预测。这就是Correct and Smooth(C&S)方法。

实验

为了证明本文方法的有效性,我们使用了九个数据集(表1)。Arxiv和Products数据集来自开放图基准数据集;Cora、Citeseer和Pubmed是三个经典的引文网络基准数据集;wikiCS是一个网络图。在这些数据集中,类标签是论文、产品或页面的种类,而特征是从文本派生出来的。本文还使用Rice 大学的Facebook社交网络,其中类标签是宿舍,特征是性别、专业和班级年份等属性,以及美国的地理数据集,类标签是2016年选举结果,特征是人口统计。最后,我们使用了一个欧洲研究机构的电子邮件数据集,其中的类标签是部门成员,没有特征。

具体的对比方法和结果如下图所示,其他更详细的实验步骤和对比结果,可以详细阅读论文。

结论

GNN模型正变得越来越有泛化能力,参数也越来越多,训练成本相应的也变得越来越高。本文的研究结果表明,我们应该探索其他提高性能的技术,例如标签传递和特征增强。特别是,标签传递和它的变体是一种可持续发展的想法。直接地将它们结合到图学习模型中就会带来很大的好处,而且本文已经证明这些方法可以使预测结果更好,训练更快。

更多精彩推荐
  • 隐私数据在隐私AI框架中的安全流动

  • 比Python 3.8快20%,Pyston v2正式发布

  • 一口气看完45个寄存器,CPU核心技术大揭秘

  • 在吗?我要讲件大事了,你绝对不知道CSDN公众号还有这个功能!错过后悔!

  • 离职后竟半夜偷溜回办公室写代码?一个为自由软件而战斗的程序员

性能超越图神经网络,将标签传递和简单模型结合实现SOTA相关推荐

  1. 华为诺亚ViG架构媲美CNN、Transformer,图神经网络也能用作CV骨干模型

    华为诺亚实验室的研究员发现图神经网络(GNN)也能做视觉骨干网络.将图像表示为图结构,通过简洁高效的适配,提出一种新型视觉网络架构 ViG,表现优于传统的卷积网络和 Transformer.在 Ima ...

  2. 图神经网络也能用作CV骨干模型,华为诺亚ViG架构媲美CNN、Transformer

    来源丨机器之心 华为诺亚实验室的研究员发现图神经网络(GNN)也能做视觉骨干网络.将图像表示为图结构,通过简洁高效的适配,提出一种新型视觉网络架构 ViG,表现优于传统的卷积网络和 Transform ...

  3. 【图神经网络】 - GNN的几个模型及论文解析(NN4G、GAT、GCN)

    文章目录 图神经网络 Neural Network for Graphs(NN4G) 论文信息 摘要 NN4G模型思想 Graph Attention Network(GAT) 论文信息 摘要 GAT ...

  4. 【CS224W】(task9)图神经网络的表示能力(GIN图同构模型)

    note ranking by discriminative power(input):sum-multiset > mean-distribution > max-set [基础部分]G ...

  5. 为什么要进行图学习?谈一谈逆势而上的图神经网络

    点击上方 蓝字关注我们 问一问近几年来逆势而上的技术有什么?相信你一定会说出来一个:图神经网络. 图神经网络将会在人工智能的各个领域起着非常重要的作用,虽然目前还没有完全成为各大顶会的焦点,但不可否认 ...

  6. PGL图学习之图神经网络ERNIESage、UniMP进阶模型[系列八]

    PGL图学习之图神经网络ERNIESage.UniMP进阶模型[系列八] 原项目链接:fork一下即可:https://aistudio.baidu.com/aistudio/projectdetai ...

  7. 屠榜大杀器UniMP!百度登顶图神经网络权威榜单三项榜首

    允中 发自 凹非寺 量子位 编辑 | 公众号 QbitAI 近日,百度在图神经网络领域取得新突破,提出融合标签传递和图神经网络的统一模型UniMP(Unified Message Passing),在 ...

  8. 性能超越最新序列推荐模型,华为诺亚方舟提出记忆增强的图神经网络

    作者 | Chen Ma, Liheng Ma等 译者 | Rachel 出品 | AI科技大本营(ID:rgznai100) 用户-商品交互的时间顺序可以揭示出推荐系统中用户行为随时间演进的序列性特 ...

  9. CV的未来是图神经网络?中科院软件所发布全新CV模型ViG,性能超越ViT

    点击上方"迈微AI研习社",选择"星标★"公众号 重磅干货,第一时间送达 转载自:新智元 后台回复"加群"进入-> CV 微信技术交流 ...

最新文章

  1. 报名 | 期末考后,快来打比赛赢万元奖金!(北京上海)
  2. 教学思路C#之入门五 数据类型转换
  3. C语言面试题分享(2)
  4. 构建强化学习_如何构建强化学习项目(第1部分)
  5. .NET Core全新路线图
  6. 利用官方支持为基于GitHub Pages的Hexo博客启用HTTPS
  7. 明晚8点,捷微团队QQ群公开课,讲解jeewx2.0版本maven环境的搭建入门!
  8. Web前端开发的四个阶段(小白必看)
  9. springcloud gateway ribbon使用_Github点赞接近 70k 的Spring Cloud学习教程+实战项目推荐!牛批!...
  10. OpenShift 4 之Istio-Tutorial (10) 访问白名单、黑名单
  11. Ubuntu 10.10 安装新版 Ubuntu One 客户端
  12. Jnotify文件监控的用法以及Jar文件导入的方法
  13. 《简约之美:软件设计之道》总结
  14. LaTeX 语法教程
  15. visio2010最新密钥
  16. 写一个加密程序对文件加密
  17. MTK平台修改Bootloader源代码,让Android设备一通电就自动开机
  18. 云计算网络,在数据中心之中主要有哪些优势?
  19. 检查一个字符串是否为回文 回文:正着念与反着念一样,例如:上海自来水来自海上;要求用户从控制台输入一个email地址,然后获取该email的用户名(@之前的内容)
  20. 计算机语言栏无法设置,win10系统修改语言栏设置的解决方案

热门文章

  1. DNS 到底怎么工作的? (How does dns work?)
  2. 【书籍下载链接】_2_第二轮_计算机专业书籍
  3. HDU 3507:Print Article
  4. 《关系营销2.0——社交网络时代的营销之道》一T表示Technology(技术)
  5. SQLServer------插入数据时出现IDENTITY_INSERT错误
  6. Hadoop API文档地址
  7. 基于Hadoop的MapReduce框架研究报告
  8. 自动驾驶汽车的规划与控制
  9. 电动车逆变器的基础知识
  10. 复旦 计算机 学硕 延毕,研究生招考呈现新趋势:非全日制招生遇冷 延期毕业现象越发明显...