来源:机器之心

来自清华大学和南开大学的研究者提出了一种新型大核注意力(large kernel attention,LKA)模块,并在 LKA 的基础上构建了一种性能超越 SOTA 视觉 transformer 的新型神经网络 VAN。

作为基础特征提取器,视觉骨干(vision backbone)是计算机视觉领域的基础研究课题。得益于卓越的特征提取性能,CNN 成为过去十年中不可或缺的研究课题。在 AlexNet 重新开启深度学习十年之后,通过使用更深的网络、更高效的架构、更强的多尺度能力,社区已取得多项突破以获得更强大的视觉骨干和注意力机制。由于平移不变性和共享滑动窗口策略,CNN 对于具有任意大小输入的各种视觉任务是有效的。更先进的视觉骨干网络通常会在各种任务中带来显著性能提升,包括图像分类、对象检测、语义分割和姿势估计。

同时,选择性注意力是处理视觉中复杂搜索组合的重要机制。注意力机制可以看作是基于输入特征的自适应选择过程。自从提出完全注意力网络以来,自注意力模型(即 Transformer)迅速成为了 NLP 领域的主导架构。近年来,Dosovitskiy 等人提出 ViT,它将 transformer 骨干引入计算机视觉,并在图像分类任务上优于 CNN。得益于强大的建模能力,基于 transformer 的视觉骨干迅速占领了各种任务的排行榜,包括对象检测和语义分割等。

尽管自注意力机制最初是为 NLP 任务而设计的,但近来已经席卷了计算机视觉领域。然而,图像的 2D 特性为在计算机视觉中应用自注意力带来了三个挑战:

  • 将图像视为一维序列会忽略它们的二维结构;

  • 二次复杂度对于高分辨率图像来说太昂贵了;

  • 只捕捉空间适应性而忽略通道适应性。

近日,来自清华大学胡事民团队和南开大学程明明团队提出了一种新型大核注意力(large kernel attention,LKA)模块,在避免上述问题的同时实现了自注意力中的自适应和长距离相关性。该研究还进一步提出了一种基于 LKA 的新型神经网络,命名为视觉注意力网络(VAN)。在图像分类、目标检测、语义分割、实例分割等广泛的实验中,VAN 的性能优于 SOTA 视觉 transformer 和卷积神经网络。

  • 论文地址:https://arxiv.org/abs/2202.09741

  • 项目地址:https://github.com/Visual-Attention-Network

图 1:VAN 与其他模型在 ImageNet-1K 验证集上的 Top-1 准确率结果比较。

论文一作为清华大学计算机系博士生国孟昊,主要研究方向为计算机视觉、计算机图形学、深度学习。他也是计图的开发者之一,曾在国际会议 / 期刊 ICLR/IPMI/CVMJ 上发表论文。

胡事民,清华大学计算机科学与技术系教授,主要从事计算机图形学、智能信息处理和系统软件等方面的研究。研制并开源了第一个我国高校自主的深度学习框架——计图(Jittor),计图是一个完全动态编译(Just-in-time),基于元算子融合和统一计算图的深度学习框架。计图支持 30 多种的骨干网络,并且开源了多个模型库:对抗生成网络、图像语义分割、检测与实例分割、点云分类、可微渲染等。

程明明,南开大学教授,计算机系主任,他的主要研究方向是计算机视觉和计算机图形学,他发表的论文谷歌引用 2 万余次,单篇最高引用 4000 余次。

方法

大核注意力

注意力机制可以看作是一个自适应选择的过程,它可以根据输入特征选择鉴别特征并自动忽略噪声响应。注意力机制的关键步骤是生成注意力图,指出不同点的重要性。因此需要了解各点之间的关系。

有两种众所周知的方法可以在不同点之间建立关系。第一种是采用自注意力机制来捕获长距离依赖。第二种是使用大核卷积来建立相关性并产生注意力图,这种方式还是有明显的弊端的,大核卷积带来了大量的计算开销和参数。

为了克服上述缺点并利用自注意力和大核卷积的优点,该研究提出分解大核卷积操作来捕获长距离关系。如下图 2 所示,大核卷积可以分为三个部分:空间局部卷积(depth-wise 卷积)、空间长距离卷积(depth-wise 空洞卷积)和通道卷积(1×1 卷积)。

下表 1 给出了 LKA 结合卷积和自注意力的优点。

视觉注意力网络(VAN)

VAN 具有简单的层次结构,包括四个阶段,并逐步降低输出空间分辨率,即 H/4 × W/4 、H/8 × W/8 、H/16 × W/16 和 H /32 × W/32 。其中,H 和 W 代表输入图像的高度和宽度。随着分辨率的降低,输出通道的数量也在增加。输出通道 C_i 的变化如下表 2 所示。

如下图 3 (d) 所示,该研究首先对输入进行下采样,并使用步幅数来控制下采样率。

实验

该研究通过定量和定性实验来证明 VAN 的有效性。其中,在 ImageNet-1K 图像分类数据集、COCO 目标检测数据集和 ADE20K 语义分割数据集上进行了定量实验,并在 ImageNet 验证集上使用 Grad-CAM 来可视化类激活映射(CAM)。

该研究首先用消融实验证明 LKA 的每个组成部分都是至关重要的。为了快速获得实验结果,该研究选择 VAN-Tiny 作为基线模型,实验结果如下表 4 所示。

通过以上分析,研究者发现 LKA 可以利用局部信息,捕捉长距离依赖,在通道和空间维度上都具有适应性。此外,实验结果证明 LKA 的所有组成部分都有助于完成识别任务。虽然标准卷积可以充分利用局部语境信息,但它忽略了长距离依赖和适应性。而自注意力虽然可以捕获长距离依赖,且在空间维度上具有适应性,但它忽略了局部信息和在通道维度上的适应性。

研究者还将 VAN 与现有方法进行了比较,包括 MLP、CNN 和 ViT,结果如下表 5 所示。在相似的参数和计算成本下,VAN 优于常见的 CNN(ResNet、ResNeXt、ConvNeXt 等)、ViT(DeiT、PVT 和 Swin-Transformer 等)和 MLP(MLP -Mixer、ResMLP、gMLP 等)。

可视化类激活映射(CAM)是一种可视化鉴别区域(注意力图)的流行工具。该研究采用 Grad-CAM 来可视化 ImageNet 验证集上由 VAN-Base 模型生成的注意力。下图 4 的结果表明,VAN-Base 可以清晰地聚焦在目标对象上,可视化直观地证明了 VAN 的有效性。

如下表 6 和表 7 所示,在目标检测和实例分割任务上,该研究发现在 RetinaNet 1x 和 Mask R-CNN 1x 设置下,VAN 以较大的优势超越了基于 CNN 的方法 ResNet 和基于 transformer 的方法 PVT。

此外,如下表 8 所示,相比于 SOTA 方法 Swin Transformer 和 ConvNeXt,VAN 实现了更优的性能。

下表9给出了语义分割任务的结果,基于 VAN 的方法优于基于 CNN 的方法(ResNet、ResNeXt),优于基于transformer的方法(PVT、PoolFormer、PVTv2)。

重磅!DLer-计算机视觉&Transformer群已成立!

大家好,这是计算机视觉&Transformer论文分享群里,群里会第一时间发布最新的Transformer前沿论文解读及交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、视频超分、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如Transformer+上交+小明)

将大核卷积分三步,清华胡事民、南开程明明团队全新视觉骨干VAN,超越SOTA ViT和CNN...相关推荐

  1. 把大核卷积拆成三步,清华胡事民团队新视觉Backbone刷榜了,集CNN与ViT优点于一身...

    梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 在视觉任务上,CNN.ViT各有各的优势和劣势. 于是,以经典Backbone为基础.细节上相互借鉴,成了最近一个热门研究方向. 前有微软Swin ...

  2. 南大周志华清华胡事民入围院士候选!计算机领域共计7人

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 明敏 发自 凹非寺 量子位 报道 | 公众号 QbitAI 2021 ...

  3. 2021中科院院士候选名单出炉:清华胡事民、南大周志华等人在列

    8 月 1 日,中国科学院公布了 2021 年院士增选的初步候选人名单,清华大学计算机科学与技术系教授胡事民.南京大学人工智能学院院长周志华等 191 人进入了该名单. 这份名单分为数学物理.化学.生 ...

  4. 求职信分三步 面试结束后别忘写一封感谢信

    求职信分三步 面试结束后别忘写一封感谢信 如果把得到面试机会比作求职成功的第一步,那么写好求职信则是和招聘单位双方沟通的第一道桥梁.万宝盛华的HR告诉求职者,一封求职信的好与坏绝对影响您能否得到面试的 ...

  5. 清华大学胡事民是计算机视觉,ResNet也能用在3D模型上了,清华「计图」团队新研究已开源...

    鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 用AI处理二维图像,离不开卷积神经网络(CNN)这个地基. 不过,面对三维模型,CNN就没有那么得劲了. 主要原因是,3D模型通常采用网格数 ...

  6. 清华大学胡事民是计算机视觉,清华团队将Transformer用到3D点云分割上后,效果好极了丨开源...

    萧箫 发自 凹非寺量子位 报道 | 公众号 QbitAI 当Transformer遇上3D点云,效果会怎么样? 一个是当下最热门的模型(NLP.图像领域表现都不错),另一个是自动驾驶领域.机器人抓取等 ...

  7. 清华大学胡事民是计算机视觉,ResNet也能用在3D模型上了,清华“计图”团队新研究已开源...

    鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI 用AI处理二维图像,离不开卷积神经网络(CNN)这个地基. 不过,面对三维模型,CNN就没有那么得劲了. 主要原因是,3D模型通常采用网格数 ...

  8. arXiv爆款:想了解Attention就看它!清华计图胡事民团队出品

    博雯 发自 凹非寺 量子位 报道 | 公众号 QbitAI 清华计图胡事民团队的这篇注意力机制的综述火了! 在上周的arXiv上,这是最热的一篇论文: 推特以及GitHub上也有不低的热度: 而这篇论 ...

  9. 计算机图形学 opengl版本 第三版------胡事民 第四章 图形学中的向量工具

    计算机图形学 opengl版本 第三版------胡事民 第四章  图形学中的向量工具 一   基础 1:向量分析和变换   两个工具  可以设计出各种几何对象 点和向量基于坐标系定义 拇指指向z轴正 ...

最新文章

  1. 你还在百度这些代码吗?
  2. javacript实现不被浏览器拦截打开新窗口
  3. 手把手配置Linux透明防火墙
  4. mac下安装nginx和php
  5. windows server 2008 (五)web服务器的搭建和部署
  6. css文字溢出部分在另一个div显示(代码篇)
  7. 最好的计划是略有闲余的计划,用于缓冲必然出现的错误与突发事件(转)
  8. Java高并发编程详解系列-ThreadGroup介绍
  9. python三维网格图_python-3D网格之间的Hausdorff距离
  10. CCPC2020太原理工获得一枚奖牌
  11. python arp_在python上发出ARP请求
  12. (十七)用JAVA编写MP3解码器——解码Layer1
  13. SQL Server分页3种方案比拼[转]
  14. 前端获取小程序二维码参数_微信小程序实现带参分享并消息卡片获取参数
  15. 2022年黑马程序员火爆全网的自学Java必刷教程(价值2w+的教程免费分享)
  16. 苹果系统升级服务器,苹果操作系统升级 正式挥别PowerPC
  17. 2018年总结,踩踩这条即将溜掉的狗尾巴 ~
  18. 年终个人对公司所提的建议
  19. 华为网吧服务器型号,网吧服务器价格
  20. 文本对抗:《Semantically Equivalent Adversarial Rules for Debugging NLP Models》

热门文章

  1. 我的Android进阶之旅------gt;Java全角半角的转换方法
  2. Receive本地下载安装方法
  3. Android之关于图表
  4. 利用 Cloudera 实现 Hadoop (一)
  5. win7 dll怎么在xp运行_win7电脑安装软件提示缺少vcruntime140.dll如何解决
  6. Linux学习(一)--目录结构
  7. 19.删除链表的倒数第N个结点
  8. 一文读懂PID控制算法
  9. 机器学习数学原理 霍夫丁不等式
  10. 一周AI创业:MIT博士领衔星药科技获新融资,自动驾驶再掀资本狂潮