近日,谷歌大脑团队公布了Vision Transformer(ViT)进阶版ViT-G/14,参数高达20亿的CV模型,经过30亿张图片的训练,刷新了ImageNet上最高准确率记录——90.45%,此前的ViT取得的最高准确率记录是 88.36%,不仅如此,ViT-G/14还超过之前谷歌提出的Meta Pseduo Labels模型。

Vision Transformer模型的缩放规律

在多项基准测试中,ImageNet, ImageNet-v2和VTAB-1k,ViT-G/14的表现都刷新了记录。

例如,在几张照片的识别挑战中,准确率提高了五个百分点以上。研究人员随后训练了多个更微型的模型版本,以寻找架构的缩放规律(scaling law),结果观察到性能遵循幂律函数(power-law function),类似于用于NLP的Transformer模型。

2017年由谷歌首次引入的 Transformer 架构迅速成为最受欢迎的NLP深度学习模型设计,其中 OpenAI的GPT-3是最著名的。OpenAI 去年发布的一项研究描述了这些模型的缩放规则(Scaling rules)。

OpenAI 通过训练几个不同规模的可比模型,改变训练数据的数量和处理能力,开发了一个用于评估模型准确性的幂律函数。此外,OpenAI 发现更大的模型不仅性能更好,而且计算效率也更高。

与 NLP 模型不同,大多数SOTA的 CV 深度学习模型,采用的是卷积神经网络架构(CNN)。2012年, 一个CNN模型赢得了ImageNet竞赛,CNN因此声名鹊起。

随着Transformer最近在 NLP 领域的成功,研究人员已经开始关注它在视觉问题上的表现; 例如,OpenAI 已经构建了一个基于 GPT-3的图像生成系统。

谷歌在这个领域一直非常活跃,在2020年年底使用他们专有的 JFT-300M 数据集训练了一个600m 参数的 ViT 模型。

△ 去年10月,谷歌大脑团队发布了Vision Transformer(ViT)

而新的ViT-G/14模型使用 JFT-3B 预先训练,JFT-3B是升级版数据集,包含大约30亿张图片。

研究团队改进了 ViT 架构,增加了内存使用,使模型能够适应单个 TPUv3核心。研究人员在预先训练的模型上使用少量和微调的迁移学习来评估 ViT-G/14和其他较小模型的性能。这些发现被用来创建缩放规则,类似于 NLP 规则:

根据幂律函数,缩放更多的计算、模型和数据可以提高准确性;

在较小的模型中,准确性可能是一个障碍;

大型数据集有助于大型模型。

目前,ViT-G/14得分在 ImageNet 排行榜上排名第一。下面的八个得分最高的模型同样是由谷歌的研究人员创建的,而第十个模型来自Facebook。

作者团队

本次论文团队成员是此前发布ViT模型的4名成员,其中,第一作者是Xiaohua Zhai (翟晓华)。

https://sites.google.com/site/xzhai89/home

翟晓华目前是谷歌大脑研究员。研究领域为深度学习和计算机视觉。兴趣范围包括表征学习、迁移学习、自监督学习、生成模型、跨模态感知。

根据他的个人网站提供的信息,2009年,翟晓华本科毕业于南京大学,2014年取得北京大学计算机科学博士学位。

另外,论文作者Alexander Kolesnikov,同为谷歌大脑研究员,研究领域包括人工智能、机器学习、深度学习和计算机视觉。

毕业于奥地利Institute of Science and Technology Austria (IST Austria),博士论文为Weakly-Supervised Segmentation and Unsupervised Modeling of Natural Images(自然图像的弱监督分割和无监督建模)。

另一名作者Neil Houlsby,研究领域为机器学习、人工智能、计算机视觉和自然语言处理。

第四名作者Lucas Beyer,是一名自学成才的黑客、研究科学家,致力于帮助机器人了解世界、帮助人类了解深度学习。

刷新ImageNet最高分!谷歌大脑华人研究员发布超强Transformer相关推荐

  1. 20亿参数+30亿张图像,刷新ImageNet最高分!谷歌大脑华人研究员领衔发布最强Transformer...

    来源:新智元本文约1300字,建议阅读5分钟 视觉Transformer进阶. 近日,谷歌大脑团队公布了Vision Transformer(ViT)进阶版ViT-G/14,参数高达20亿的CV模型, ...

  2. 刷新ImageNet最高分!谷歌发布最强Transformer

    点上方计算机视觉联盟获取更多干货 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:新智元 AI博士笔记系列推荐 周志华<机器学习>手推笔记正式开源!可打印版本附pdf下载链接 近日 ...

  3. 谷歌大脑计划研究员Chris Olah的博客

    谷歌大脑计划研究员Chris Olah的博客 博客地址:http://colah.github.io/.文章写的很不错,生动形象... 其中的一篇译文:理解 LSTM 网络http://www.jia ...

  4. ViT作者、谷歌大脑研究员翟晓华:大规模视觉表征学习

    智源导读:从2020年,Transformer开始在CV领域大放异彩.ViT(Vision Transformer)是Google在2020年提出的直接将transformer应用在图像分类的模型,后 ...

  5. 20亿参数,大型视觉Transformer来了,刷新ImageNet Top1,All you need is money!

    视学算法报道 转载自:机器之心 编辑:杜伟.陈萍 2020 年 10 月,谷歌大脑团队提出将标准 Transformer 应用于图像,提出了视觉 Transformer(ViT)模型,并在多个图像识别 ...

  6. 20亿参数,大型视觉Transformer来了,刷新ImageNet Top1

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 来自:机器之心 2020 年 10 月,谷歌大脑团队提出将标准 Transformer ...

  7. 「干货」谷歌大脑:元学习最新进展与挑战(40 PPT下载)

    https://www.toutiao.com/a6651792282443842055/ 2019-01-29 13:51:18 [新智元导读]Hugo Larochelle是谷歌大脑的研究员.深度 ...

  8. 谷歌新模型刷新ImageNet纪录,第一作者是上海交大毕业生谢其哲

    2019-11-14 01:43:36 鱼羊 发自 凹非寺  量子位 报道 | 公众号 QbitAI 谷歌的EfficientNet进化之后,又刷新了ImageNet纪录. 这个叫Noisy Stud ...

  9. 从16.6%到74.2%,谷歌新模型刷新ImageNet纪录,第一作者是上海交大毕业生谢其哲...

    鱼羊 发自 凹非寺  量子位 报道 | 公众号 QbitAI 谷歌的EfficientNet进化之后,又刷新了ImageNet纪录. 这个叫Noisy Student的新模型,将ImageNet图像分 ...

最新文章

  1. 使用JAVA开发微信公众平台(一)——环境搭建与开发接入
  2. GPU profile优化
  3. css 自动换行_前端必备!20个CSS小技巧
  4. 程序员学历要求越来越高,薪酬天花板犹如发际线,原因很简单!
  5. IOS 学习笔记 2015-04-15 手势密码(原)
  6. php 对象转数组_PHP的垃圾回收机制-PHP高级面试题+详解
  7. 浅谈JS、Ajax、JQuery之间的关系
  8. Spring-tx-TransactionInterceptor类
  9. Bashtop – Linux的资源监视工具(亲测)
  10. Java程序员常用开发工具有哪些?
  11. 残缺、时间一起的爱情
  12. PRML_4章 线性模型分类笔记
  13. Matlab数字图像处理——图像增强
  14. 今天第一次来这里开博,大家多多指教
  15. 计算机打印机无法扫描,打印机无法扫描 打印机无法扫描怎么办 4种原因及解决方法...
  16. PCI驱动开发学习笔记(一)
  17. 重要的产品分析模型:AARRR模型
  18. 微博蓝V认证怎么做?(微博企业认证)
  19. 乌班图好玩的命令_Ubuntu实用命令大全
  20. 云计算技术体系结构由这四点组成

热门文章

  1. Accessing tools within a VB6 program - AE中使用VB调用Geoprocessing
  2. 用C语言解“BCD解密”问题
  3. Java中山脉的绘制---递归方法
  4. 激活函数GELU()
  5. python pip whl 安装
  6. No module named ‘jieba‘ python3.7
  7. 切换JAVAC的方法
  8. 《预训练周刊》第24期:Infinite-former:无限记忆变换器、2500万悟道科研基金开始申请
  9. 谷歌创始人“退位”,印度CEO独挑大梁
  10. 2022年清华大学大数据研究中心 | 招募夏季学期《大数据实践课》合作企业