中科院华为诺亚提出ViG:一种全新的骨干网络,性能不输CNN、ViT!
点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
点击进入—> CV 微信技术交流群
梦晨 发自 凹非寺
转载自:量子位(QbitAI)
用图神经网络(GNN)做CV的研究有不少,但通常是围绕点云数据做文章,少有直接处理图像数据的。
其实与CNN把一张图片看成一个网格、Transformer把图片拉直成一个序列相比,图方法更适合学习不规则和复杂物体的特征。
现在,中科院与华为诺亚方舟实验室等提出一种全新的骨干网络,把图片表示成图结构数据,让GNN也能完成经典CV三大任务。
论文一出,立即引起GNN学者广泛关注。
有人认为GNN领域积累多年的技巧都将涌入这一新方向,带来一波研究热潮。
该来的总要来的。
新架构ViG命名上致敬了ViT,论文标题也采用同一句式,点出了核心思想:
An Image is Worth Graph of Nodes
论文:http://arxiv.org/abs/2206.00272
开源地址(即将开源):
https://github.com/huawei-noah/CV-Backbones
https://gitee.com/mindspore/models
在研究团队看来,图结构是一种更通用的数据结构。甚至网格和序列可以当作图结构的特例,用图结构来做视觉感知会更加灵活。
图数据由节点和边组成,如果把每个像素都看作节点计算难度过于大了,因此研究团队采用了切块(patch)方法。
对于224x224分辨率的图像,每16x16像素为一个Patch,也就是图数据中的一个节点,总共有196个节点。
对每个节点搜索他们距离最近的节点构成边,边的数量随网络深度而增加。
接下来,网络架构分为两部分:
一个图卷积网络(GCN),负责处理图数据、聚合相邻节点中的特征。
一个前馈神经网络(FFN),结构比较简单是两个全连接层的MLP,负责特征的转换。
传统GCN会出现过度平滑现象,为解决这个问题,团队在图卷积层前后各增加一个线性层,图卷积层后再增加一个激活函数。
实验表明,用上新方法,当层数较多时ViG学习到的特征会比传统ResGCN更为多样。
同算力成本下不输CNN和ViT
为了更准确评估ViG的性能,研究团队设计了ViT常用的同质结构(isotropic)和CNN常用的金字塔结构(Pyramid)两种ViG网络,来分别做对比实验。
同质架构ViG分为下面三种规格。
与常见的同质结构CNN、ViT与MLP网络相比,ViG在同等算力成本下ImageNet图像分类的表现更好。
金字塔结构的ViG网络具体设置如下。
同等算力成本下,ViG也与最先进的CNN、ViT和MLP相比,性能也能超越或表现相当。
在目标检测和实例分割测试上,ViG表现也与同等规模的Swin Transformer相当。
最后,研究团队希望这项工作能作为GNN在通用视觉任务上的基础架构,Pytorch版本和Mindspore版本代码都会分别开源。
点击进入—> CV 微信技术交流群
ICCV和CVPR 2021论文和代码下载
后台回复:CVPR2021,即可下载CVPR 2021论文和代码开源的论文合集
后台回复:ICCV2021,即可下载ICCV 2021论文和代码开源的论文合集
后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF
目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer6666,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群▲扫码或加微信: CVer6666,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
中科院华为诺亚提出ViG:一种全新的骨干网络,性能不输CNN、ViT!相关推荐
- #今日论文推荐#中科院华为诺亚提出ViG:一种全新的骨干网络,性能不输CNN、ViT
#今日论文推荐#中科院&华为诺亚提出ViG:一种全新的骨干网络,性能不输CNN.ViT 用图神经网络(GNN)做CV的研究有不少,但通常是围绕点云数据做文章,少有直接处理图像数据的. 其实与C ...
- 【深度学习】去掉softmax后Transformer会更好吗?复旦华为诺亚提出SOFT:轻松搞定线性近似...
作者丨happy 编辑丨极市平台 导读 本文介绍了复旦大学&华为诺亚提出的一种新颖的softmax-free的Transformer-SOFT.所提SOFT显著改善了现有ViT方案的计算效率 ...
- #今日论文推荐# 用GNN做CV三大任务的新骨干,同计算成本性能不输CNN、ViT与MLP|中科院华为诺亚开源
#今日论文推荐# 用GNN做CV三大任务的新骨干,同计算成本性能不输CNN.ViT与MLP|中科院&华为诺亚开源 用图神经网络(GNN)做CV的研究有不少,但通常是围绕点云数据做文章,少有直接 ...
- 去掉softmax后Transformer会更好吗?复旦华为诺亚提出SOFT
作者丨happy 编辑丨极市平台 论文链接:https://arxiv.org/pdf/2110.11945.pdf 代码链接:https://github.com/fudan-zvg/SOFT 项 ...
- NeurIPS 2021 Transformer部署难?北大华为诺亚提出Vision Transformer的后训练量化方法...
关注公众号,发现CV技术之美 本文分享 NeurIPS 2021 论文『Post-Training Quantization for Vision Transformer』,由北大&华为诺亚联 ...
- 当CNN遇见Transformer!华为诺亚提出CMT:新视觉Backbone
点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 转载自:AIWalker 标题&作者团队 CMT: Convolutional Neural Net ...
- 自注意力机制_与SENet互补提升,华为诺亚提出自注意力新机制:Weight ExcitationECCV2020...
↑ 点击蓝字 关注极市平台作者|Happy 编辑丨极市平台 极市导读 注意力机制.动态卷积最近几年被研究得非常透了,不过前述方法大多聚焦于特征图层面,而该文则是从权值角度出发提出了一种非常有意思的机制 ...
- 与SENet互补提升,华为诺亚提出自注意力新机制:Weight Excitation|ECCV2020
作者|Happy 编辑丨极市平台 导读 注意力机制.动态卷积最近几年被研究得非常透了,不过前述方法大多聚焦于特征图层面,而该文则是从权值角度出发提出了一种非常有意思的机制.该文所提方法仅作用于训练阶 ...
- 太强啦!华为诺亚ViG架构媲美CNN、Transformer(重磅开源)
来源:机器之心 华为诺亚实验室的研究员发现图神经网络(GNN)也能做视觉骨干网络.将图像表示为图结构,通过简洁高效的适配,提出一种新型视觉网络架构 ViG,表现优于传统的卷积网络和 Transform ...
最新文章
- Java类加载机制详解【java面试题】
- c++用一级运算比较大小_1.1.2 python基本数据类型与运算符
- javascript 嵌入python_通过Python将区块链数据嵌入Javascript,这是正确的方法吗?
- pythonrgb高精度浮点运算类型_python实现RGB字符串,按24位对齐后输出对应Integer行数字...
- BZOJ3312: [Usaco2013 Nov]No Change
- 下:比拼生态和未来,Spark和Flink哪家强?
- 解决安卓4.4webview的兼容性问题
- 合并两个有序数组(C语言)
- 计算机网络-读书笔记
- 在PS中如何设计个人logo
- jay chou歌词 文本下载数据下载
- VC6.0快捷键一览表
- 【3D游戏建模全流程教学】在Maya中制作小岛模型
- 【mysql】mysql 中 text,longtext,mediumtext 字段类型的意思, 以及区别
- Java+MySQL基于ssm的物理竞赛管理系统
- 华为与复旦大学合作开发全国首个医学人工智能课程
- vscode配置内存,解决窗口出现故障
- 雷蛇 笔记本 装linux,顺应民意:雷蛇考虑开发Linux版Blade游戏本
- GitHub标星10.8K!快速搭建私人网盘
- 【Mysql】大量数据查询时的优化相关知识