AI圈可太 TM 魔幻了!

就在刚结束的KDD Cup 2021 和OGB 官方联合举办的第一届图神经网络竞赛OGB Large-Scale Challenge中,来自微软亚洲研究院(MSRA)和大连理工的团队力压DeepMind、百度等队伍,夺得图预测任务赛道第一名。

各位看官,您猜怎么着?

AI 科技评论发现在这场号称“地表最强图神经网络”之争的国际权威竞赛中,获得第一名的模型不是图神经网络模型,反而是 Transformer 模型?

兜兜转转又是你,Transformer 你是要上天吗?之前你从NLP强势跨界到CV,这次又是在图神经网络拿了个冠军,你是什么都能参与一脚吗?国足要是有你这精神该多好啊!

这究竟是肿么一回事呢?

我们先从这次KDD Cup 2021 和OGB 官方联合举办的大赛说起。

其中KDD Cup大赛大家都很熟悉了,它是由SIGKDD主办的数据挖掘研究领域的国际顶级赛事,从1997年开始,每年举办一次,是目前数据挖掘领域最具影响力的赛事。该比赛同时面向企业界和学术界,云集了世界数据挖掘界的顶尖专家、学者。

而今年,KDD Cup与OGB (Open Graph Benchmark)团队联合举办了第一届OGB-LSC比赛,提供来自真实世界的超大规模图数据。

在比赛的三个赛道中,图预测任务最受人瞩目(另外两个赛道为节点预测和关系预测):本次图预测任务发布了有史以来最大的有标注图数据集PCQM4M-LSC, 其中包含超过3,800,000个有标注分子图 (作为对比,ImageNet挑战赛包含1,000,000张标注图片,而在此之前最大的有标注图数据集大小不过约450,000个有标注分子图)。

另外根据本次大赛承办方,斯坦福大学Jure Leskovec教授回应,本次大赛总共有全球 500 多个顶尖高校和实验室队伍参赛,因此,无论是从参赛规模还是赛题难度上来讲,本届OGB-LSC竞赛都堪称为图神经网络领域的第一届「ImageNet」挑战赛。

赛题介绍

本次图预测竞赛的任务是对给定的2D结构分子图,预测由 DFT 计算的分子性质,如 HOMO-LUMO 能带隙。DFT (density functional theory, 密度泛函理论)基于量子物理力场,可以精确地预测多种分子性质。

然而,DFT的计算开销过于巨大,往往一个小分子的计算便需要耗费几个小时。因此,使用快速而准确的机器学习模型来近似DFT是非常热门的研究方向,并且有广泛的应用,如药物发现、材料发现等。

在此次比赛中,与其他队伍基于图神经网络的解决方案不同,来自MSRA机器学习组的研究员和实习生们直接使用 Transformer 模型对分子图数据进行处理,并力压DeepMind、百度、阿里巴巴蚂蚁金服等强劲对手,取得第一名的佳绩。

以下是该赛道榜单排名:

Transformer模型最早在NLP任务中被使用,并且逐渐在Speech、CV等任务中成为主流。然而,在图学习的领域各项任务的排行榜上,依然是传统图神经网络占据着主流。

但是谁又规定一定得是图神经网络才能做图学习呢?

所以说有意思的来了,在大连理工大学,普林斯顿大学,北京大学及微软亚洲研究院最新的论文《Do Transformers Really Perform Bad for Graph Representation?》中,研究人员们证明了Transformer实际上是表达能力更强的图神经网络,并且主流的图神经网络模型(GCN, GIN, GraphSage)可以看作是Transformer的特例!

论文地址:https://arxiv.org/abs/2106.05234

然而,过往将Transformer模型用到图结构数据的工作,表现并不尽人意,公认的图预测任务排行榜上依旧被传统GNN的变种们霸占着。

例如,此前最大的有标注图预测数据集OGBG-MolPCBA任务要求给定化学分子结构预测其60余种性质。在OGBG-MolPCBA的排行榜上并没有Transformer的身影。

此前最好的结果来自于GINE,在测试集上的AP指标为29.79%,而MSRA的研究人员和实习生们将Transformer模型应用到此数据集后,得到了31.39%的AP准确率。同时本次工作的研究人员们也在其他多个图预测排行榜中(OGB-LSC, OGB, Benchmarking-GNN)取得了最优成绩。

那么将Transfomer成功应用于图数据的关键难点在哪里呢?

作者们发现关键问题在于如何补回Transformer模型的自注意力层丢失掉的图结构信息!不同于序列数据(NLP, Speech)或网格数据(CV),图的结构信息是图数据特有的属性,且对图的性质预测起着重要的作用。

基于此,研究人员们在图预测任务上提出了Graphormer模型 —— 一个标准的Transformer模型,并且带有三种结构信息编码(中心性编码Centrality Encoding、空间编码Spatial Encoding以及边编码Edge Encoding),帮助Graphormer模型编码图数据的结构信息。

具体来讲,将Transformer模型应用到图数据时,其最主要的运算集中在自注意力层计算节点特征之间的相关性作为注意力机制的权重。然而对于图数据来说,衡量节点之间相关性的因素并不仅仅取决于节点特征,还包括了节点自身在图结构中的重要性(如社交网络中的名人节点),节点之间的空间关系(如六度空间理论)以及节点之间连边的特征(如边的距离、边的流量等)。

因此,MSRA的研究人员们在Graphormer模型中为以上几种信息设计了简洁而高效的编码来表示图数据的结构信息,并在自注意力层计算相关权重时引入三种结构编码,由此成功的将Transformer结构应用到了图数据上。

更多内容细节可以参看原论文。

专访问答

AI科技评论一向是国内报道 AI 学术科技前沿最早的媒体,这次也不会落后,为了弄清楚这个Graphormer模型背后都有哪些故事,我们编辑部特地联系并专访到了此次比赛MSRA团队的负责人——主管研究员郑书新博士。

AI科技评论:首先恭喜你们夺冠,能简单介绍一下Graphormer模型诞生的始末吗?你们从什么时候开始研究图神经网络的?

郑书新:非常感谢,取得最终的成绩离不开每一位队员的努力,以及很多朋友们的帮助。其实以前我们并不做GNN,相反Transformer和预训练做的多一些,但其实把Transformer应用到图数据的想法很早就有了。

在我们最新一篇PLP(Programming Language Processing)方向的ICML2021论文《How could Neural Networks understand Programs?》中,我们观察到一个很有意思的现象:

因为程序语言是天然具有两种结构的数据,即序列数据(程序文本)及图数据(控制流图等),因此在尝试理解程序语义时,研究人员们很明显地分为了两派:Transformer流派和GNN流派。Transformer流派的好处在于模型强大的表达能力,而GNN流派的优势在于可以捕捉图上的结构信息。

所以为了博采众长,我们当时采用的做法是使用Transformer模型,并设计了控制流编码来引入程序的图结构信息。

AI科技评论:你们是如何参与到这场比赛中的呢?

郑书新:参加KDD Cup也非常偶然。我记得在比赛注册截止日前几天,我们的一位实习生同学应承轩跑来跟我讲想参加这次的比赛,并用Transformer模型来做分子性质预测。

当时觉得虽然这次的比赛赛题很难,并且我们在图数据上的经验着实不算多,但考虑到此次比赛的题目很有实际的应用价值,我们一拍即合,当即开始组队报名参加比赛 (此处给承轩同学打个广告,他希望今年能申请到机器学习方向尤其是图数据方向的博士学位攻读)。

AI科技评论:祝承轩同学申请到心仪的实验室。请问如何理解 Transformer实际上是表达能力更强的图神经网络?以及主流的图神经网络模型(GCN, GIN, GraphSage)可以看作是Transformer的特例?

郑书新:上文已经对graphormer做了一定介绍,此外,我们还发现,在使用了结构编码后,当为模型选择适当的参数时,Transformer就可以表示主流的图神经网络,既GCN, GIN, GraphSage等可以看作Transformer的特例。

例如,令邻居节点的空间编码为0,其余节点的空间编码为负无穷,并让W_Q=W_K=0,W_K为单位矩阵,那么自注意力层的Softmax操作就可以恢复GNN中的MEAN aggregation操作。

AI科技评论:Graphormer是为了分子性质预测任务专门设计的吗?在其他领域有哪些应用?

郑书新:并不是。Graphormer中应用到的structural encodings都具有一般性,可以在任何一种图数据中应用。分子性质预测本身是非常有应用价值的问题,是很多前沿、热门领域的基础问题,例如药物分子发现、新型材料等等、蛋白质分子建模等等。此外,图数据的应用也广泛存在在我们的生活中,例如社交网络、知识图谱、时空预测、程序理解、自动驾驶点云等等,我们也期待Graphormer能在这些领域有所建树,大放异彩。

AI科技评论:此次你们在分子性质预测使用的数据集PCQM4M-LSC上夺冠的分数为0.1200 MAE,这是一个很好的分数吗?可以说GNN已经取代量子化学的方法了吗?

郑书新:还远远远远没有到取代的地步,还有很长的路要走。

这次比赛的单位是eV (电子伏),目前对于给定分子2D结构预测HOMO-LUMO energy gap 的误差最低能达到0.12eV左右,而给定DFT计算的3D结构能达到0.01eV左右。

虽然基于人工智能的方法可以让很多应用例如药物发现、材料发现等的过程大幅加速,但更多的还处在粗筛、辅助层面。而真正要取代传统的计算化学方法如DFT等,则至少要达到化学精度1kcal/mol = 0.043eV 左右(即通过化学实验计算方法也会存在的误差)。因此,从0.12eV到0.043eV还有很长的路要走。

不过就像CNN在ImageNet比赛中第一次崭露头角(2012年)一样,经过了学术界近十年的努力,ImageNet的Top 1 准确率已经从60%提升到了今天的90%。我相信,在学术圈的共同努力推动下,人工智能算法在计算化学、计算物理、可持续发展等众多交叉学科领域中将会扮演越来越重要的角色!

至此,Transformer自统治了NLP、Speech 与CV后,又在Graph数据上取得了惊人的效果。所以,Transformer在Graph上的应用前景有可能取代GNN吗?

作者也在文章最后指出了未来Transformer在图数据上应用需解决的一些问题,包括如何降低Graphormer的时间复杂度等。

这一点至于未来究竟如何,让我们拭目以待~

但是,文章之外,笔者真的想吐槽一句:Transformer ,求求你做个人吧!

看到Transformer这次在图领域取得了巨大成功,卷积&MLP模型又会在之后来凑一波热闹吗?

卷积&MLP模型内心会不会想对Transformer说一句:杀掉你, 我上我也行  

从局外人的角度说一句,兄弟模型们,格局要大啊,AI早晚会大一统的。

最后说一下本论文已开源且有视频讲解,如下:

代码地址:https://github.com/microsoft/Graphormer

视频讲解:https://www.youtube.com/watch?v=xQ5ltOOxoFg

福利时间

为了感谢大家长期以来的支持,这次我们为大家准备了“送书”活动!本次为大家带来谷歌大脑团队的资深工程师最新力著《JavaScript深度学习》3本(按阅读量赠书)这是一本前端工程师的 AI 入门书,TensorFlow.js 官方出品

图书特色

·  深度学习扛鼎之作《Python深度学习》姊妹篇

· 谷歌大脑团队官方解读 TensorFlow.js

·  前端工程师不可错过的 AI 入门书

参与方式如下:

  1. 文末点击在看~

  2. 公众号后台回复"JavaScript深度学习",即可参与抽奖!

(长按图片直达公号后台)

本次活动将于6月25日19:00开奖,获奖读者将获赠正版图书1本,获奖后,扫码联系我这边,第一时间给您寄送!!!

Transformer杀疯了!力压DeepMind、百度,在GNN大赛夺冠相关推荐

  1. Transformer 杀疯了,图像去雨、人脸幻构、风格迁移、语义分割等通通上分

    前段时间 Transformer 已席卷计算机视觉领域,并获得大量好评,如『基于Swin-Transformer』.『美团提出具有「位置编码」的Transformer,性能优于ViT和DeiT』.『L ...

  2. 首次力压 macOS!Linux 杀疯了!!

    "2022 年是 Linux 桌面版之年." 一位来自亚马逊 K8s 团队的程序员在自己最新的博客上这样写道. 何出此言? 原来是根据 Stack Overflow 2022 年开 ...

  3. 北大美女学霸力压大神何恺明新作MAE!怒摘12个SOTA,灵感竟来自16年前CVPR论文...

      视学算法报道   编辑:小咸鱼 好困 [新智元导读]近日,北大校友.约翰·霍普金斯大学博士生提出了一种新的方法:MaskFeat,力压大神何恺明的新作MAE,摘下12个SOTA! 什么叫卷? CV ...

  4. 后生可畏!中国军团称霸阅读理解竞赛RACE:微信AI称王,高中生力压腾讯康奈尔联队(附资料)...

    本文经AI新媒体量子位(公众号ID:qbitai )授权转载,转载请联系出处 本文约4000字,建议阅读5分钟. 本文为你介绍了由CMU语言技术研究所发起RACE数据集活动中,中国军团雄霸天下的情况. ...

  5. 华为“杀疯了”:发布“摸鱼”神器10余款新品

    或许,​你已经快被华为智慧办公产品包围了. 在笔记本电脑上"刷手机"是一种什么感觉? 比如摸鱼时间,坐在工位上的你可以在电脑上一键打开"开心消消乐",而其他人只 ...

  6. 北大美女学霸力压何恺明新作MAE 怒摘12个SOTA,灵感竟来自16年前CVPR论文

    对白的算法屋分享 来源 | 新智元 编辑 | 小咸鱼 好困 **[导读]**近日,北大校友.约翰·霍普金斯大学博士生提出了一种新的方法:MaskFeat,力压大神何恺明的新作MAE,摘下12个SOTA ...

  7. 微软杀疯了!全家桶嵌入ChatGPT,云平台Azure强到发指

    [导读]微软又双叒出大招了!ChatGPT即将整合进Azure,谷歌一个月惨遭Triple Kill 2023刚开年,微软就杀疯了! 搜索引擎必应.办公全家桶Office.云计算平台Azure,相继加 ...

  8. 半个月3篇Nature/Science,95后曹原3年8篇顶刊,网友:杀疯了杀疯了

    金磊 萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI "曹原又中了1篇Science!" "你听错了吧,上周不是中的Nature吗?还是2篇." & ...

  9. 中国年度AI省市格局:北广上稳居前三,江苏四川力压浙江,山西转型“挖数据”增速迅猛...

    允中 发自 凹非寺 量子位 报道 | 公众号 QbitAI 中国数字经济发展哪省强? 从云计算的维度,前五分别是:上海.北京.广东.浙江和湖北. 按照AI维度,前五则是:北京.广东.上海.江苏和四川. ...

最新文章

  1. Java项目:员工管理系统(前后端分离+java+vue+Springboot+ssm+mysql+maven+redis)
  2. html禁用自动完成,html – 如何禁用所有主流浏览器的自动完成功能
  3. 黑马数据库html阶段考试,黑马web阶段web试题学生版.docx
  4. ASP.NET Core依赖注入最佳实践,提示技巧
  5. android 自定义海报,Android仿海报工厂(完)
  6. leetcode71 (2022.1.6)
  7. 淘宝天猫店铺装修问题与技巧性经验汇总
  8. 牛,碉堡了:GitHub 加速神器
  9. Python学习视频教程大全
  10. 多轴机械人运动学正逆解,简单粗暴!!!!!!
  11. 2022.10.30 英语背诵
  12. 分享一个自己做的一个3DM手机客户端
  13. pytorch学习笔记(八):PytTorch可视化工具 visdom
  14. mysql和ES对比
  15. java同步锁售票_线程同步锁之火车站售票案例
  16. 技美 百人计划 (图形)1.1渲染流程
  17. GB/T 28181-2022
  18. Hive 中的复合数据结构简介以及一些函数的用法说明
  19. 智能养殖监控系统实现蛋鸡养殖规模化
  20. 解决Ranorex在测试执行过程中,当执行完调用外界库的方法后并没有执行其他的操作?

热门文章

  1. html met详解转
  2. 最完整代码的用php备份mysql数据库
  3. 让你工作变得更加有趣
  4. Alpha版验收通过
  5. 用python解“逆序三位数”问题
  6. java 修改wav文件头_使用Java聲音API從WAV文件中修剪開頭和結尾
  7. excel按季度分类汇总_Excel数据透视不会,分类汇总来帮忙,强的不是一点,学会它,错不了...
  8. numpy之argmax()函数
  9. 转载 干货 | 陪伴我学习NLP、知识图谱的那些资源(教程+书籍+网站+工具+论文...可以说很全面了)
  10. HMM -GMM 理清不错