声明

本人是来自 γ 星球的外星人

为了学习地球的深度学习知识的,好回去建设自己的家乡

每周不定期更新自己的论文精读笔记,中心思想是两个字 --- 易懂

没啥事的兄弟姐妹们,可以和我探讨外星知识哦~

本文旨在,简单概括综述,并不会详细介绍某个模型

相关经典架构,大家可以查看原文中相关章节的参考文献或 CSDN 直接搜索架构名字都可以

我们确实希望这篇评论论文可以帮助读者在深入探索之前更好地理解 Vision Transformer


论文题目:A Survey of Visual Transformers

论文链接:https://arxiv.org/abs/2111.06091

发表时间:2021年11月


Abstract

Transformer是一种基于注意力的编解码体系结构,它彻底改变了自然语言处理领域。受这一重大成就的启发,最近在将 Transformer 体系结构应用于计算机视觉(CV)领域方面进行了一些开创性的工作,这些工作已经证明了它们在各种CV任务中的有效性。凭借具有竞争力的建模能力,与现代卷积神经网络(CNN)相比,visual Transformers 在 ImageNet、COCO 和 ADE20k 等多个基准上取得了令人印象深刻的性能。

在本文中,我们对三个基本的 CV 任务(分类、检测和分割)的100多种不同 Vision Transformer进行了全面的回顾,其中提出了一种分类法,根据它们的动机、结构和使用场景来组织这些方法。由于培训设置和面向任务的不同,我们还对这些方法在不同配置上进行了评估,以便进行简单直观的比较,而不仅仅是各种基准。此外,我们还揭示了一系列重要但尚未开发的方面,这些方面可能使 Transformer 从众多体系结构中脱颖而出,例如,松散的高层语义嵌入,以弥合视觉和顺序转换器之间的差距。最后,对未来的研究方向提出了三点建议。

I. INTRODUCTION

如图所示,Transformer 已逐渐成为自然语言处理 (NLP) 的主要深度学习模型

Vision Transformer 的简单分类(包括三个部分:分类、检测和分割)

II. ORIGINAL TRANSFORMER

A. Attention Mechanism

第一步: query 和 key 进行相似度计算,得到权值

第二步:将权值进行归一化,得到直接可用的权重

第三步:将权重和 value 进行加权求和

B. Multi-Head Attention Mechanism

将输入线性投影到多个特征子空间中,并由多个独立的注意力头(层)并行处理。 结果向量被连接并映射到最终输出

C. Position-wise Feed-Forward Networks

然后将 MHSA (多头自注意力机制)的输出馈送到两个连续的前馈网络 (FFN),其中 ReLU 为激活函数

D. Positional Encoding

由于 Transformer / Attention 同时且相同地对输入嵌入进行操作,因此忽略了序列的顺序。为了利用顺序信息,常见的解决方案是将额外的位置向量附加到输入,因此术语 “位置编码”。位置编码有多种选择。例如,典型的选择是不同频率的正弦和余弦函数

E. Transformer Model

显示了 Transformer 模型的整体编码器-解码器架构

III. TRANSFORMER FOR CLASSIFICATION

Visual Transformer Backbone 的分类(最好用彩色查看)

A. Original Visual Transformer

经典架构:ViT 

B. Transformer Enhanced CNN

经典架构:VTs、BoTNet

C. CNN Enhanced Transformer

经典架构:DeiT、ConViT、CeiT、LocalViT、CPVT、ResT、CoAtNet

D. Local Attention Enhanced Transformer

经典架构:TNT、Swin Transformer、Twins、ViL、VOLO

Swin Transformer 架构图

E. Hierarchical Transformer

经典架构:T2T-ViT、PVT、PiT、CvT

F. Deep Transformer

经典架构:CaiT、DeepViT、Refiner

G. Transformers with Self-Supervised Learning

经典架构:iGPT、BEiT、MoCo v3、DINO

H. Discussion

最近在 ImageNet-1k 基准上的视觉 Transformer 的比较

包括 ViT、DeiT、BoTNet、VTs、ConViT、CeiT、LocalViT、TNT、Swin、PiT、T2T-ViT、PVT、CvT、DeepViT、CaiT、Cross ViT。

(a) 上述模型的气泡图,输入分辨率为 224*224,大小表示 GFLOPs;

(b) ViT 与高分辨率输入的比较;

(c) ImageNet-21k 上一些预训练模型的准确率图。


ViT 在 IMAGENET-1K、CIFAR-10 和 CIFAR-100 上的 TOP-1 精度比较。(最好看原文的图)

IV. TRANSFORMER FOR DETECTION

在本节中,详细介绍了用于对象检测的视觉 Transformer,可以将其分为两类:作为颈部的 Transformer 和作为主干的 Transformer。

A. Transformer Neck

1) The Original Detector

2) Transformer with Sparse Attention

经典架构:Deformable DETR、ACT

Deformable DETR架构图如下

3) Transformer with Spatial Prior

经典架构:SMCA、Conditional DETR、Two-Stage Deformable DETR、Efficient DETR

4) Transformer with Redesigned Structure

经典架构:TSP、YOLOs

5) Transformer Detector with Self-Supervised Learning

经典架构:UP-DETR

B. Transformer Backbone

经典架构:Mask-R-CNN、RetinaNet、DETR

C. Discussion

比较了经典 Transformer 的性能,如下表Ⅱ、Ⅲ

V. TRANSFORMER FOR SEGMENTATION

Transformer以两种方式被广泛应用于分割:基于补丁的 Transformer 和基于查询的 Transformer。后者可以进一步分解为带对象查询的转换器和带掩码嵌入的转换器。

A. Patch-Based Transformer

经典架构:SETR、TransUNet、Segformer

B. Query-Based Transformer

查询是在 Transformer 解码器的输入和输出处的可学习嵌入。与补丁嵌入相比,查询嵌入可以更“公平”地整合每个补丁的信息

1) Transformer with Object Queries

经典架构:Panoptic DETR、Cell-DETR、VisTR、QueryInst

2) Transformer with Mask Embeddings

经典架构:ISTR、SOLQ、Max-DeepLab、Segmenter、Maskformer

Maskformer架构图如下

C. Discusion

相关架构对比结果

VI. DISCUSSION AND CONCLUSION

A. Summary of Recent Improvements

基于上述比较和讨论,我们现在想对三个基本任务的最新改进进行简要总结,如下所示。

1)对于分类,深层分层 Transformer 主干可有效降低计算复杂度并避免深层中的特征过度平滑,同时,低层卷积足以捕获低级特征,可以显着增强鲁棒性并降低浅层的计算复杂度。此外,卷积投影和局部注意力机制都可以提高 Transformer 的局部性。 前者也可能是一种用位置编码代替的新方法。

2)对于检测,Transformer 颈部受益于编码器-解码器结构,其计算量少于仅编码器的 Transformer 检测器。因此,解码器是必要的,但由于其收敛速度较慢,因此需要很少的堆栈。此外,稀疏注意力有利于降低计算复杂度并加速 Transformer 的收敛,而空间先验有利于Transformer 的性能,收敛速度稍快。

3)对于分割,编码器-解码器 Transformer 模型可以通过一系列可学习的掩模嵌入将三个分割子任务统一为掩模预测问题。 这种无盒方法在多个基准测试中实现了最新的.此外,基于盒子的Transformer 的特定混合任务级联模型被证明在实例分割任务中获得更高的性能。

B. Discussion on Visual Transformer

尽管有大量的视觉 Transformer 模型和应用程序,但对视觉 Transformer 的“本质”理解仍然是低效的。 因此,我们将重点关注一些关键问题,以帮助解决读者的困惑。

1) How Transformer Bridge The Gap Between Language and Vision

Transformer 最初是为机器翻译任务设计的。在语言模型中,一个句子的每个词都被作为一个基本单元,表示高级、高维的语义信息。这些词可以嵌入到低维向量空间表示中,因此称为词嵌入。 在视觉任务中,图像的每个像素都是低级、低维的语义信息,与嵌入特征不匹配。 因此,转移到视觉任务的关键是构建图像到矢量的转换并保持图像的特征。例如,ViT 通过强松弛条件将图像转换为具有多个低级信息的补丁嵌入,而 Early Conv 和 CoAtNet 利用卷积来提取高级信息并减少补丁中的冗余特征

2) The Relationship Between Transformer, Self-Attention and CNN

Transformer 由两个关键组件组成:一个 self-attention 层聚合令牌的关系,一个 position-wise FFN 提取输入的特征。尽管 Transformer 具有强大的全局建模能力但卷积可以有效处理低级特征 增强 Transformer 的局部性,并通过 padding 附加位置特征。

3) Learnable Embeddings in Different Visual Tasks

C. Future Research

Visual Transformer 方法取得了巨大的进步,并显示出接近或超过 SOTA CNN 方法在多个基准上的记录的有希望的结果。但是,该技术还不够成熟,无法颠覆卷积在 CV 领域的主导地位。

D. Conclusion

在 ViT 在 CV 任务中展示了其有效性之后,Vision Transformer 受到了相当大的关注,并削弱了 CNN 的主导地位。 在本文中,我们全面回顾了一百多个 Transformer 模型,这些模型先后应用于各种视觉任务,包括分类、检测和分割。 对于每项任务,都提出了一个特定的分类法来组织最近开发的 Transformer 方法,并在各种流行的基准上评估它们的性能。 通过我们对这些方法的综合分析和系统比较,本文提供了显着改进的总结,讨论了视觉 Transformer 的三个基本问题,并进一步提出了未来投资的几个潜在研究方向。

我们确实希望这篇评论论文可以帮助读者在深入探索之前更好地理解 Vision Transformer

【论文笔记】A Survey of Visual Transformers(完结)相关推荐

  1. CLIP论文笔记--《Learning Transferable Visual Models From Natural Language Supervision》

    CLIP论文笔记--<Learning Transferable Visual Models From Natural Language Supervision> 1.Introducti ...

  2. [论文笔记] A Survey of Software Refactoring(TOSE, 2004)第一部分

    Time:8 hours Timespan:Dec 8 – Dec 14 (杂事多,断断续续看了一周,终于把这篇综述看完了) Tom Mens, Tom Tourwé (2004). A Survey ...

  3. Transformer综述大全(2)【A Survey of Visual Transformers】

    Transformer 4 TRANSFORMER FOR DETECTION目标检测 1Transformer Neck 1)原始检测器 2)稀疏关注的Transformer 3)空间先验Trans ...

  4. Transformer综述大全(1)【A Survey of Visual Transformers】

    Transformer 1 Introduction 2 原始Transformer 1注意力机制Attention Mechanism 2多头注意力机制Multi-Head Attention Me ...

  5. 论文笔记Understanding and Diagnosing Visual Tracking Systems

    最近在看目标跟踪方面的论文,看到王乃岩博士发的一篇分析跟踪系统的文章,将目标跟踪系统拆分为多个独立的部分进行分析,比较各个部分的效果.本文主要对该论文的重点的一个大致翻译,刚入门,水平有限,如有理解错 ...

  6. [论文笔记|sonar+VIO]:Sonar Visual Inertial SLAM of Underwater Structures

    摘要 为了适应水下声呐传感器的数据,本文提出了一种最先进的视觉-惯性状态估计方案(OKVIS)的扩展.水下领域在可用视觉数据的质量方面提出了独特的挑战;因此,利用声呐数据增强外传感器能改善水下结构的重 ...

  7. 论文笔记目录(ver2.0)

    1 时间序列 1.1 时间序列预测 论文名称 来源 主要内容 论文笔记:DCRNN (Diffusion Convolutional Recurrent Neural Network: Data-Dr ...

  8. 【读点论文】A Survey on Vision Transformer,2022年华为诺亚最新综述研究,从发展到任务,整体到局部。ViT有研究价值在于有很多问题还没有解决,真理是阶段性的产物

    A Survey on Vision Transformer Abstract transformer最早应用于自然语言处理领域,是一种主要基于自注意机制的深度神经网络.由于其强大的表示能力,研究人员 ...

  9. [论文笔记] DETR 论文笔记

    DETR 论文笔记 End-to-End Object Detection with Transformers(ECCV 2020) 摘要 引言 相关工作 集合预测 DETR 模型 集合预测损失(Ob ...

最新文章

  1. 沉痛悼念游戏开发大神毛星云
  2. 融合机器人技术和神经科学的神经工程未来与挑战
  3. php和python对比-PHP和Python性能比较:放弃PHP改用Python
  4. python对excel操作简书_Python实现EXCEL常用操作——pandas简介
  5. 浅谈C++中内存分配、函数调用和返回值问题
  6. 发货100全功能网站/绿色版
  7. 拼多多股价创历史新高:市值再度逼近京东
  8. 【干货】推荐技术分享-多业务融合推荐实践与思考.pdf(附50页ppt下载链接)
  9. delete函数的动态解析
  10. (转)关于Android中为什么主线程不会因为Looper.loop()里的死循环卡死?引发的思考,事实可能不是一个 epoll 那么 简单。...
  11. 阿里云OSS上传、下载、STS授权(Java篇)
  12. java编程语言基础
  13. 2021年塔城某施工项目招标公告
  14. mac电脑如何装双系统Linux,苹果电脑双系统怎么装【详细教程分享】
  15. 安装IBM HTTP SERVER
  16. 数据库原理-并发控制(2-封锁)
  17. 三只松鼠3次方新品魅力何在?
  18. TX2 用文件IO的方式操作GPIO
  19. Aspose.CAD使用教程:使用 C# 将 DGN 转换为 JPEG、PNG 或 TIFF 图像
  20. 如何使用cocos2dx 制作一个多向滚屏坦克类射击游戏-第二部分

热门文章

  1. 电脑小白win7wifi共享热点设置,包括无法启动承载网络组或资源出问题,共享出问题,设备出问题等的解决方案
  2. 不解压查看linux文件
  3. 安徽三连学院计算机考试,2017年3月安徽三联学院计算机等级考试报名时间
  4. 基于神经网络算法的鱼类迁徙轨迹拟合研究
  5. 哈尔滨理工大学软件与微电子学院第八届程序设计竞赛同步赛(高年级)题解(全)
  6. 互相关注!互相伤害啊!!
  7. vue数据恢复_SQL Server 数据库备份还原和数据恢复
  8. 操作系统复习(十五)——缓冲区管理与磁盘调度算法
  9. iconfont使用详细步骤
  10. Android中使用Apache Commons Codec找不到类或者方法错误