点击上方“视学算法”,选择加"星标"或“置顶

重磅干货,第一时间送达

来源丨机器之心

编辑丨极市平台

导读

预训练模型是否也能只需要很少的样本就能完成任务?

Transformer 架构的强大性能不仅在 NLP 领域成为了主流,也在代替卷积神经网络 CNN,成为视觉识别的一个方向(ViT)。一些 transformer 模型已经取得了有竞争力的结果,但因为缺乏典型的卷积归纳偏差使得它们比普通 CNN 需要更多的训练数据。

在南京大学吴建鑫团队近日提交的一篇论文中,研究者研究了如何使用有限数据训练 ViT,由于可以捕获特征对齐和实例相似性,新方法展现了优势。

在各种 ViT 主干下的 7 个小型数据集上从头开始训练之后,该研究获得了最先进的结果。研究者还讨论了小数据集的迁移能力,发现从小数据集学习的表示甚至可以改善大规模 ImageNet 的训练。

论文链接:https://arxiv.org/abs/2201.10728

Transformer 近来已广泛用于视觉识别,替代了卷积神经网络(CNN)。视觉 Transformer(ViT)是一种直接继承自自然语言处理的架构,但适用于以原始图像 patch 作为输入的图像分类。ViT 及其变体获得了可与 CNN 媲美的结果,但却需要更多的训练数据。

例如,在 ImageNet(128 万张图像)上训练时,ViT 的性能比具有相似容量的 ResNet 差。一个可能的原因可能是 ViT 缺乏 CNN 架构中固有的某些理想属性,这使得 CNN 非常适合解决视觉任务,例如局部性、平移不变性和层次结构。因此,ViT 通常需要比 CNN 更大量的数据进行训练。

为了缓解这个问题,很多工作都尝试将卷积引入 ViT。这些架构具有两种范式的优点,注意力层对远程依赖进行建模,而卷积则强调图像的局部属性。实验结果表明,这些在 ImageNet 上训练的 ViT 在该数据集上优于类似大小的 ResNet。

然而,ImageNet 仍是一个大规模数据集,当在小数据集(例如 2040 张图像)上训练时,这些网络的行为仍不清楚。该研究从数据、计算和灵活性的角度进行了分析,证明不能总是依赖如此大规模的数据集。

该论文探究了如何使用有限的数据从头开始训练 ViT。

该研究首先执行自监督预训练,然后对同一目标数据集进行监督微调,与(Cao et al.,2021)等人的方法类似。该研究重点关注自监督的预训练阶段,方法基于参数实例判别(parametric instance discrimination)。

从理论的角度分析,参数实例判别不仅可以捕获 positive pair 之间的特征对齐,还可以找出实例之间的潜在相似性,这要归功于最终可学习的全连接层 W。实验结果进一步验证了研究者的分析,该研究的方法比非参数方法实现了更好的性能。

众所周知,在大规模数据集上,高维全连接层的实例判别会受到大量 GPU 计算、内存过载和收敛速度慢的影响。由于该研究专注于小型数据集,因此不需要针对大型数据集的复杂策略。相反,该研究对小数据设置采用小分辨率、多裁剪和 CutMix 的方法,并且研究者还从理论和实验的角度对其进行了分析。

该研究将这种方法命名为带有 Multi-crop 和 CutMix 的实例判别(Instance Discrimination with Multi-crop and CutMix,IDMM)。实验结果表明,在 7 个小型数据集上从头开始训练多种 ViT 主干网络,实现了 SOTA 结果。例如,该研究在 flowers 数据集(含 2040 张图像)上从头开始训练模型,结果达到 96.7% 的准确率,这表明使用小数据集训练 ViT 是完全可以的。

此外,该研究首先分析了小数据集的迁移能力,并发现:即使在小型数据集上进行预训练,ViT 也具有良好的迁移能力,甚至可以促进对大规模数据集(例如 ImageNet)的训练。(Liu et al.,2021)也研究了使用小型数据集训练 ViT,但他们专注于微调阶段,而南大的这项研究专注于预训练阶段,并且南大的方法取得了更好的结果,其中在 flowers 数据集上获得的最佳准确率为 56.3%。

总的来说,该研究的主要贡献包括:

  • 提出了用于自监督 ViT 训练的 IDMM,即使在 7 个小型数据集上对各种 ViT 主干网络从头开始训练也能获得 SOTA 结果;

  • 对于在处理小数据时为什么应该更注重参数实例判别,该研究给出了损失角度的理论分析。此外,展示了 CutMix 等策略应如何从梯度的角度缓解不频繁更新的问题;

  • 该研究通过实验表明,投影 MLP 头对于非参数方法(例如,SimCLR)是必不可少的,但对于参数实例判别而言却不是,这要归功于实例判别中最终可学习的全连接层;

  • 分析了小数据集的迁移能力,发现即使在小数据集上进行预训练,ViT 也具有良好的迁移能力。

具体方法如上图所示,输入图像 x_i (i = 1, · · · , N) 被传至神经网络 f(·) 中,得到输出表征 z_i = f(x_i) ∈ R^d ,其中 N 表示实例总数。然后使用全连接层 W 进行分类,类数等于用于参数实例判别的训练图像总数 。随后将 w_j ∈ R^d 表示第 j 类的权重,W = [w_1| . . . |w_N ] ∈ R^(d×N) 包含所有 n 个类的权重。

因此有,其中第 j 类的输出是。最后,将 O^(i) 被传到 softmax 层以获得有效的概率分布 P^(i)。

损失函数为:

其中上标 i 代表对实例求和,下标 c 代表对类求和。

实验结果

研究者在实验中使用了 7 个小型数据集,具体如下表 1 所示。

为什么要从头开始训练

为什么要直接在目标数据集上从头开始训练呢?研究者从以下三个方面进行了解答

  • 首先是数据。当前的 ViT 模型往往是在大规模数据集(如 ImageNet 或更大)上预训练,然后在各种下游任务中微调。典型卷积归纳偏差的缺失也使得这些模型比常见 CNN 更需要数据。因此,探究是否可以针对某个可用图像有限的任务从头开始训练 ViT 模型非常重要;

  • 其次是计算。大规模数据集、大量 epoch 和复杂的骨干网络,这些组合在一起意味着 ViT 训练的计算成本非常高。这种现象导致 ViT 模型成为少数机构研究人员才能使用的「特权」;

  • 最后是灵活性。下游微调范式之前的预训练有时会变得非常麻烦。例如,我们可能需要为同一个任务训练 10 个不同的模型,并将它们部署到不同的硬件平台,但在大规模数据集上预训练 10 个模型是不切实际的。

从头开始训练的结果

研究者提供了从头开始训练的结果。

在下表 2 和下图 4 中,研究者首先将 IDMM 与用于 CNN 和 ViT 的流行 SSL 方法进行了比较。公平起见,所有方法都预训练了 800 个 epoch,然后微调了 200 个 epoch。可以看出,即使从头开始训练,SSL 预训练也很有用,并且所有 SSL 方法的性能都比随机初始化好。

表 2:不同预训练方法之间的比较。

图 4:在花数据集上与不同 SSL 方法进行比较。所有模型都经过了同样 epoch 数的预训练和微调。

接着,研究者微调模型更长的 epoch,以获得更好的结果。具体来讲,他们使用 IDMM 初始化权重,先在 224x224 分辨率下微调了 800 个 epoch,然后在 448x448 分辨率下微调了 100 个 epoch。如下表 3 所示,当在这 7 个数据集上从头训练所有这些 ViT 模型时,IDMM 实现了 SOTA 结果。

小型数据集上的迁移能力

在下表 5 中,研究者评估了在不同数据集上预训练模型的迁移准确率。可以看到,即使在小型数据集上进行预训练,ViT 也具有良好的迁移能力。与 SimCLR 和 SupCon 相比,IDMM 在所有这些数据集上的迁移准确率也更高。即使预训练数据集和目标数据集不在同一个域中,研究者也可以获得非常好的结果。

在下表 6 中,研究者将 IDMM 与各种 SSL 方法以及不同主干下的监督基线方法进行了比较。结果显示,IDMM 比这些竞品方法有很大的优势,在 SIN-10k 上学到的表征可以在迁移到其他数据集时作为一个很好的初始化。

此外,研究者还探究了当在 ImageNet 上训练时,是否可以从 10,000 张图像的预训练中受益。从下表 7 可以看到,使用从 10,000 张图像中学到的表征作为初始化,可以大大加快训练过程,最终在 ImageNet 上实现了更高的准确率(提升约 1%)。

消融实验

最后,研究者对不同的组件进行了消融实验。所有实验使用 PyTorch 完成,并且在 ImageNet 实验中使用了 Titan Xp GPU,在小型数据集实验中使用了 Tesla K80.

如下表 8 所示,研究者提出的所有策略都很有用,策略的结合使用更是实现了 SOTA 结果。

在下表 9 中,所有方法在 SIN-10k 上预训练了 800 个 epoch,然后在迁移到目标数据集时微调了 200 个 epoch。

该工作中,研究者对于 IDMM 的局限性进行了探讨,在像 DeiT 这样的架构上从头开始训练这些小型数据集时,模型仍有改进的空间。还有哪些属性对于小型数据集预训练起到关键作用?这还有待未来的进一步研究。

如果觉得有用,就请分享到朋友圈吧!

点个在看 paper不断!

只需2040张图片,训练视觉Transformer:南大吴建鑫团队提出IDMM相关推荐

  1. 南大周志华团队开源深度森林软件包DF21:训练效率高、超参数少,普通设备就能跑 | AI日报...

    中国学者研发新型电子纹身,实现8倍延展,有望用于医疗.VR和可穿戴机器人等领域 可穿戴设备,已经成为我们生活中极为常见的一种设备,它们体积轻巧.佩戴方便.检测数据齐全,但也存在一个很明显的缺点--无法 ...

  2. 86.2%准确率!LV-ViT:训练视觉Transformer的技巧合集

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 作者丨happy   审稿丨邓富城 转载自丨极市平台 导读 本文探索了用于提升ViT性能的各种训练技巧.通过 ...

  3. 12层的bert参数量_只需一个损失函数、一个超参数即可压缩BERT,MSRA提出模型压缩新方法...

    来自武汉大学.北京航空航天大学和微软亚洲研究院的这项研究为模型压缩提供了新方向. 机器之心报道,参与:魔王. 论文链接:https://arxiv.org/pdf/2002.02925.pdf 这篇论 ...

  4. cad2010多个文件并排显示_并排查看Excel工作表只需1个小动作,工作效率大涨百倍!...

    本文作者丨可可(小 E 背后的小仙女) 本文由「秋叶 Excel」原创发布 如需转载,请在公众号发送关键词「转载」查看说明 很多人都知道,有时在屏幕上并排查看起两个文件的内容,是一项非常顺畅和方便的操 ...

  5. 只需三步就能做出可视化大屏的python工具,真香!

    今天我就来给大家介绍一款非常便利的可视化工具--big_screen,直接传入数据即可,有了它,小白也能做数据大屏 相比与Plotly.Matplotlib.Pyecharts等可视化库,或者一些商用 ...

  6. 只需5秒,快速完成电脑大文件复制的技巧

    一.实现要求: 把实训安装软件压缩包.zip从D盘快速复制到E盘 二.操作开始: 1.在桌面新建一个记事本文件 2.打开记事本输入内容后并保存(如图所示): copy D:\工作软件\实训\实训安装软 ...

  7. 2040张图片训练出的ViT,准确率96.7%,连迁移性能都令人惊讶 | 南京大学

    晓查 发自 凹非寺 量子位 | 公众号 QbitAI ViT在计算机视觉领域取得了巨大的成功,甚至大有取代CNN之势. 但是相比CNN,训练ViT需要更多的数据,通常要在大型数据集JFT-300M或至 ...

  8. 如何将二维空间先验注入到ViT中? UMA港理工阿里提出SP-ViT,为视觉Transformer学习2D空间先验知识!...

    关注公众号,发现CV技术之美 本篇分享论文『SP-ViT: Learning 2D Spatial Priors for Vision Transformers』,曼海姆大学&香港理工& ...

  9. GAN做衣服只需几天,完美生成复古小黑裙

    MIT研究人员开发了一种能够设计出独特黑色小礼服的AI,使用GAN来生成图像,经过设计师的剪裁后,制作出非常有设计感的衣服. GAN终于可以干掉服装设计师了. 麻省理工学院的两位研究人员开发了一种能够 ...

最新文章

  1. 某微信公众号2019 SAP模块精华帖汇总
  2. docker内外连通ros_docker容器内的ros外设使用与远程配置
  3. 读取中文目录(python)
  4. Spring Boot MyBatis配置多种数据库
  5. 吴恩达机器学习 —— 2.7 计算图
  6. clip许可证设备id与绑定设备不匹配_LINUX SPI通用字符设备模型介绍(SPI模块分析结束篇)...
  7. 高速收发器之8B/10B编码
  8. 零拷贝的基本原理及使用Java通过零拷贝实现数据传输
  9. 成功破解电信限制路由器方法
  10. NVIDIA驱动重装经历
  11. Pyts入门之时间序列的分解---奇异谱分析(七)
  12. vite中antdesign-vue3的使用
  13. 牛!各大公司【薪资待遇】一览,我心动了
  14. 学习分布式存储应该从哪几方面着手?
  15. Rational Quanlity使用体验
  16. 银河麒麟操作系统以root用户登录的方法
  17. Netty 客户端与网络调试助手通信实验
  18. 带你彻底搞懂MyBatis的底层实现之缓存模块(Cache)-吊打面试官必备技能
  19. 图像采集——偏振光源消除镜面反光
  20. 【开源电路】STM32F401RCT6开发板

热门文章

  1. 青少年编程竞赛交流群周报(第042周)
  2. 【组队学习】【26期】图神经网络
  3. 技术图文:Python魔法方法之属性访问详解
  4. 算法基础知识科普:8大搜索算法之AVL树(中)
  5. GitLab 上市,市值高达 149 亿美元!GitHub 的头号劲敌来了
  6. Graph + AI 2021中国峰会:TigerGraph与行业共探图与AI应用前景
  7. “去了太空就别回来了!”贝索斯还没“上天”,就遭美国 5 万多人请愿:不准重返地球...
  8. 设计一款编程语言有多难?
  9. 华为昇腾AI全栈知识深入解读,师资培训沙龙深圳场圆满落幕!
  10. AI又进阶!除了鉴别PS图片,还能一键卸妆