链接:https://www.zhihu.com/question/525167811

编辑:深度学习与计算机视觉

声明:仅做学术分享,侵删

作者:陈小康
https://www.zhihu.com/question/525167811/answer/2419797948

  1. 从文中的 Tab.4, Tab.5 的结果来看,同样是 IN-21K 预训练,ViT-base 和 Swin-base 差距还挺大的。这波结果做上去主要还是靠 Masked Image Modeling 预训练。

2. 对于 hierarchical-backbone 的预训练,SimMIM 简单地做了尝试。虽然没有对"学习表征"和"解决 pre-text task" 做好解耦 (我们之前的工作 CAE 证明了,预训练阶段对”学习表征“和”解决 pre-text task“这两个功能的彻底分离能学到更好的表征),但相比于有监督学习还是提升很明显的 (见 SimMIM 的 Tab.7,文中只做了分类任务),证明了 MIM 也能比较好地扩展到 hierarchical-backbone。另一方面,hierarchical-backbone 在计算量方面也是比较有优势的,比较好奇 ViT 和 hierarchical-backbone 做公平对比结果会怎样,例如,都用 MIM 算法进行自监督预训练

作者:九亿少年酒后的梦
https://www.zhihu.com/question/525167811/answer/2417273999

总结起来,拿Swin来做backbone的话,window size的self-attention就够了,没有必要用shift,用一个普通的带shortcut的卷积来代替shift操作就行了。就是attention+convolution效果极好。跟我们的CVPR 2022 paper CMT: Convolutional Neural Networks Meet Vision Transformers (https://arxiv.org/pdf/2107.06263.pdf) 的核心思想一致,就是往transformer里面加点带残差的卷积=YYDS。

作者:吴紫屹
https://www.zhihu.com/question/525167811/answer/2419178401

只想提一个小点:

对于 Table 4/5 的结果还挺意外的,MAE pretrained ViT 会比 supervised pretrained ViT/Swin 都要好。虽然早有文章 (e.g. MoCo) 达到了 SSL pretraining beats supervised pretraining in downstream tasks,但 IN1K MAE 能超过 IN21K supervised 还是挺神奇的,尤其看 Table 4,同样在 ViT 上超过了3-4个点。

不过转念一想似乎似乎也不是不合理,supervised pretraining 所使用的分类任务,更多是要求模型学习到 invariant feature,而 MAE 学习到的 content-aware feature 或许对于检测更重要?这么说 MAE 这类 reconstruction-based SSL 方法做 work 之后,或许大家选用检测/分割的 backbone 就会从分类预训练变成生成式预训练了。

We are also curious about the influence of MAE on hierarchical backbones. This is largely beyond the scope of this paper, as it involves finding good training recipes for hierarchical backbones with MAE
MAE enjoys the efficiency benefit from plain ViT by skipping the encoder mask token [23]. Extending this strategy to hierarchical backbones is beyond the scope of this paper

最后就是,非常好奇 Swin-Transformer + MAE 的性能,文中也说了因为 hierarchical Transformer 不能丢弃 masked tokens,所以想结合还需要精心设计。不过即使是 Swin + naive MAE 在 IN1K 也取得了超过 IN21K 的性能,或许说明 MAE 确实是更适合检测这一下游任务的预训练方法。期待之后有工作 (或许已经有了但我没看到?) 可以专门研究 hierarchical Transformer + reconstruction-based pretraining。

作者:Choas
https://www.zhihu.com/question/525167811/answer/2418730248

个人觉得这篇文章非常棒,又提供了一个SOTA的基线。大佬们总是把我们犹豫的问题做的很彻底,而且做的很好。以前我也在想VIT到底适不适合做Detection,但却迟迟没有做实验。

顺带一提的是,作者比较的[17]是我所在团队的工作。

我们这个工作预计今年也会进一步完善发出来,并会在ViTDet上做结合试试,希望可以进一步突破LVIS。所以也期待ViTDet快点开源出来233。

作者:kinredon
https://www.zhihu.com/question/525167811/answer/2422611315

有很多答主已经把 ViTDet 解析得很好了,这篇文章主要说明了层次化结构(FPN)对 ViT 来说其实是非必要的。作者提出 ViTDet 仅利用 ViT 最后的单层特征进行简单的下采样和上采样达到类似 FPN 的效果。

结构对比可以看下图:

实验结果:

但个人认为,这篇文章的意义不仅仅在于不使用 FPN,而核心是有效地解耦 backbone 和 detection head,再深层次一点是解耦预训练和下游任务,backbone 的设计不再依赖下游任务。

想想最开始无监督预训练的的兴起,大家都想通过给模型喂海量未标记的数据,学习通用的视觉语言模型,视觉研究者都想复制 Bert 在 nlp 里面的成功。从最开始的 ImageNet 有监督 pretrain,到后来无监督的生成式学习和对比学习。MoCo 和 SimCLR 超过有监督 pretrain 彻底带火无监督对比学习。

虽然后面出来了许多对比学习工作,但心中难免有个疑问,为啥在 nlp 里面 mask auto encoder 这么有用,在 cv 里面不太行?这个随着 Vision Transformer 的兴起,MAE 做到了这件事,给出了非常惊艳的效果(具体可以见原文的case)。当初 MAE 出来的时候和同学讨论过 MAE 为什么是基于 ViT 而不是 Swin,大家也都想见见 MAE 在 Swin 上的效果。我个人认为是因为 ViT 足够简单,是的足够简单!ViT 是最简单的 Vision Transformer,引入最少的归纳偏置(inductive bias),简单到拥有通用的建模能力,足够的 capacity,对 big model 和 data 扩展性以及更好地链接 Vision and Language。

但之前工作都在改进 ViT,向里面加入一些 prior,其中 Swin 引入 CNN 设计的一些特性,获得了足够惊人的结果。现在 ViTDet 告诉你其实这样层次化设计其实是非必要的,解偶预训练和下游任务的模型设计。那下一步要往哪发展呢?个人认为有几个方面:

  • 继续研究更强大的,更data-efficient 的基于 VIT 的无监督预训练模型;

  • 多任务学习:以 ViT 为基础特征提取器,设计下游任务 Head,实现多任务学习,甚至可以把现有的主流视觉任务都集成在一起;

  • 跨模态学习等等

相信接下来会有一些很不错的工作。

☆ END ☆

如果看到这里,说明你喜欢这篇文章,请转发、点赞。微信搜索「uncle_pn」,欢迎添加小编微信「 woshicver」,每日朋友圈更新一篇高质量博文。

扫描二维码添加小编↓

如何看待Meta(恺明)最新论文ViTDet:如何看待Meta(恺明)论文ViTDet:只用ViT做backbone的检测模型?...相关推荐

  1. 何恺明组新论文:只用ViT做主干也可以做好目标检测

    来源:机器之心 本文约3100字,建议阅读5分钟 arXiv上上传了一篇新论文,证明了将普通的.非分层的视觉 Transformer 作为主干网络进行目标检测的可行性. 做目标检测就一定需要 FPN ...

  2. 何凯明团队又出新论文!北大、上交校友教你用ViT做迁移学习

    视学算法报道   编辑:LRS 好困 小咸鱼 [新智元导读]何凯明团队又发新论文了!这次他们研究的是如何将预训练好的ViT迁移到检测模型上,使标准ViT模型能够作为Mask R-CNN的骨干使用.结果 ...

  3. 目标检测论文解读复现【NO.24】改进 YOLOv5s 的轨道障碍物检测模型轻量化研究

    前言 此前出了目标改进算法专栏,但是对于应用于什么场景,需要什么改进方法对应与自己的应用场景有效果,并且多少改进点能发什么水平的文章,为解决大家的困惑,此系列文章旨在给大家解读最新目标检测算法论文,帮 ...

  4. 如何看待何恺明最新一作论文Masked Autoencoders?

    来源 | 知乎问题 地址 | https://www.zhihu.com/question/498364155 编辑 | 机器学习算法与自然语言处理 原问题:如何看待何恺明最新一作论文Masked A ...

  5. 大道至简,何恺明最新一作火了:让计算机觉视觉通向大模型!

    何恺明,清华大学本科,港中文博士 来源 | 知乎,MLNLP编辑 https://www.zhihu.com/question/498364155 原问题:如何看待何恺明最新一作论文Masked Au ...

  6. 何恺明时隔2年再发一作论文:为视觉大模型开路,“CVPR 2022最佳论文候选预定”...

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 杨净 明敏 雷刚 发自 凹非寺 量子位 报道 | 公众号 QbitA ...

  7. 何恺明最新工作:简单实用的自监督学习方案MAE,ImageNet-1K 87.8%

    作者丨happy 编辑丨极市平台 本文首发于极市平台,转载须经授权并注明来源 论文链接:https://arxiv.org/pdf/2111.06377.pdf 恺明出品,必属精品!这篇文章延续了其一 ...

  8. 何凯明团队又出新论文!联合北大、上交用ViT做迁移学习,效果惊人!

    ‍ 转自:新智元 [导读]何凯明团队又发新论文了!这次他们研究的是如何将预训练好的ViT迁移到检测模型上,使标准ViT模型能够作为Mask R-CNN的骨干使用.结果表明,与有监督和先前的自我监督的预 ...

  9. 2018 年度 ML、NLP 会议论文大盘点:周明、张潼、孙茂松数据亮眼

    2018 年度 ML.NLP 会议论文大盘点:周明.张潼.孙茂松数据亮眼 统计数据覆盖 ACL.EMNLP.COLING.TACL.NeurIPS.ICML.ICLR. AAAI 等 12 个会议/期 ...

最新文章

  1. 《乐高EV3机器人搭建与编程》——2.2 颜色设计
  2. 3台廉价服务器支撑200万TPS的消息中间件
  3. php签名墙代码,我们是一家人(签名墙)
  4. 酷友观点/经验:支付接口返回数据接收地址,session数据丢失(或者说失效)的问题浅析(原创文章)...
  5. java 返回语句_Java:“缺少返回语句”
  6. Atitit 个人 企业 政府 等组织 财政收入分类与提升途径attilax总结 v2
  7. 异常的分类以及什么异常触发回滚
  8. 计算机无法搜索照片,电脑上照片查看器无法打开照片
  9. TabLayout+ViewPager实现tab切换
  10. 迪杰斯特拉算法(邻接表求解)
  11. 吊炸天的CNNs,这是我见过最详尽的图解!(下)
  12. 干货全拿走-用Excel获取上证指数等50+股指行情及历史数据
  13. 小科普:什么是5G垂直行业?
  14. (原創) 如何破解ModelSim 6.1f? (IC Design) (ModelSim)
  15. android javapoet 翻译
  16. 银行系统(万里长征始于足下)
  17. 破解验证码(2)滑动验证码
  18. nba app android,NBA app官方版
  19. 软件测试基础知识面试题目(25题英文题目)
  20. 辐射度算法(radiosity)原理

热门文章

  1. 劳易测条码阅读器50138195 BCL 95 M0/R2
  2. Ubuntu更改左上角的桌面文字,自定义名称
  3. 30岁改行还来得及吗?
  4. 阻尼系数对控制系统的影响
  5. 毕业季——找工作必备APP
  6. Centos 7安装FSL
  7. 纪念SlingShot 矩阵快速幂 构造矩阵
  8. PaxosStore解读
  9. 驱动调试(三)oops确定函数PC
  10. CSS中表格介绍,表格相关的样式以及长表格的使用