来源:arxiv

编辑:Priscilla 好困&新智元

【导读】谷歌大脑与CMU华人团队提出全新图像+文本预训练模型SimVLM,在最简单的模型结构与训练方式下也能在6个多模态基准领域达到SOTA,与现有VLP模型相比泛化能力更强。

近年来,视觉-语言预训练(vision-language pretraining, VLP)取得了快速进展。

各个研究团队也提出了很多方法,但很大一部分都需要将图像区域特征回归的对象检测或标记作为预训练目标的一部分,如LXMERT等。

这些方法需要有强大的物体检测模型,如Fast(er) R-CNN,而所需训练集则要事先进行数据的标注,因此建立训练流水线的成本也会随之增加,模型的可扩展性也会降低。

另一方面,也有研究也提出了利用多种跨模态损失函数作为训练目标的一部分,如图像-文本匹配等。

这些函数经常与图像标注生成、MLM(masked language modeling)等其它目标混合在一起,形成复合预训练损失,导致不同损失和数据集之间难以平衡,从而令优化程序变得复杂。

为此,卡内基梅隆大学和谷歌大脑的团队提出了一个全新的图像-文本预训练模型SimVLM(Simple Visual Language Model)。

https://arxiv.org/pdf/2108.10904.pdf

SimVLM模型与现有的VLP模型有三大区别:

  1. 只使用了单一的预训练损失,是当前最简化的VLP模型;

  2. 只使用了弱监督,极大地降低了对预训练数据的要求;

  3. 使生成模型具备了极强的零样本能力,包含零样本跨模态迁移和开放式视觉问答(VQA)。

不仅如此,SimVLM在不使用任何trick和额外数据的情况下,同时在6种多模态基准上达到了SOTA,证明即使是最简单的架构和训练方式都能在多模态领域取得极佳的效果。

作者甚至发推直言:「PrefixLM is all you need for VLP!」

SimVLM

与之前的工作不同,SimVLM通过利用大规模弱监督来降低训练复杂度,并使用单个前缀语言建模目标进行端到端训练。

在不使用额外数据或针对特定任务的定制的情况下,生成的模型显着优于以前的预训练方法,并在包括VQA (+3.74% vqa-分数)、NLVR2(准确度+1.17%)、SNLI-VE(准确度+1.37%)和图像标注任务(平均CIDEr分数+10.1%)。

模型使用PrefixLM来保留视觉语言表征。PrefixLM与标准的语言模型不同,它能够对prefix序列应用双向注意力(如x<Tp),并只对剩余的标记进行自回归分解(如x≥Tp)。

直观地说,图像可以被认为是其文本描述的前缀,因为它们经常出在文本之前。

因此,对于一个给定的图像-文本对,将长度为Ti的图像特征序列预置到文本序列中,并强制模型对长度为Tp≥Ti的前缀进行采样,只计算文本数据的语言模型损失。

与之前的VLP方法相比,论文提出的方法不仅有MLM中的双向语境表征,而且还可以进行类似于LM的文本生成。

SimVLM模型

用PrefixLM训练图像-文本对的例子:对于纯文本的语料库,可以直接删除图像块,只使用文本标记。

结果分析

在零样本图像标注方面,SimVLM不仅能够捕捉现实世界的概念,而且还能提供对视觉输入的详细描述。

(a)零样本图像标注 (b)零样本跨模态德语图像标注 (c)生成式VQA (d)零样本视觉文本补全 (e)零样本开放式VQA。

解码后的样本能够解释有多个物体的复杂场景(如有饮料的桌子);而且模型还显示出对细粒度抽象的理解,如具体的汽车品牌和型号(如阿斯顿-马丁);甚至在对人类来说可能很棘手的挑战性图片上表现得很稳健,比如抽象的图片。

结果表明,模型能够学习到广泛的现实世界的概念,并能在零样本的情况下进行概括。

此外,研究团队对一组多样化的视觉-语言基准进行系统实验,包括视觉问答、图像标注、视觉推理和多模态翻译等。

不仅将SimVLM模型作为预训练微调范式中的通用VL表征学习进行检查,而且还研究了其对开放式VL理解的零样本泛化。

经过实验前的准备与微调,从数据中可以看出,SimVLM明显优于所有现有模型,并且在所有任务上都实现了SOTA。这表明SimVLM的生成式预训练方法非常有效,而且表征弱监督的简单框架足以学习高质量的多模态表征。

常见VL基准上视觉-语言预训练方法的单一模型结果

SimVLM的零样本性能与CoCo上的完全监督基准相当,在概念丰富的NoCaps基准上具有强大的泛化能力,比预训练模型获得的分数更高。

在CoCo和NoCaps上的不同测试结果

作者在GLUE基准测试中将SimVLM与现有的VLP模型进行了比较,结果显示,SimVLM的性能优于现有的VLP方法,与BERT性能相当,表明SimVLM具有良好的语言理解能力。

BERT与其他VLP在GLUE基准上的单一文本任务性能比对

与SOTA表征学习方法相比,对ImageNet分类的线性评估。

此外,作者根据上图的线性评估计算ImageNet上的top-1准确率。

结果显示,SimVLM模型也学习了高质量的图像表征。

所有实验都表明,SimVLM能够有效地捕获特定于模态的信息,为弱监督下更强的视觉语言理解奠定了坚实的基础。

团队介绍

王子瑞,论文一作,卡内基梅隆大学语言技术研究所的博士生在读。

此前在卡内基梅隆大学获得了计算机科学和数学的学士学位。

项目曾在SuperGLUE数据集上获得了第一个高于人类的SOTA性能(超过90分)。

研究方向为迁移学习,元学习,自然语言处理,计算机视觉。

Jiahui Yu,谷歌大脑的高级研究科学家。

于2020年在伊利诺伊大学厄巴纳-香槟分校获得博士学位。在2016年在中国科技大学获得了学士学位。

读博士期间曾在微软亚洲研究院、Face++/Megvii、Adobe Research、Snap Research、Jump Trading、百度研究院、Nvidia Research和谷歌大脑工作。

研究兴趣是序列建模(语言,语音,视频,金融数据),机器感知(视觉),生成模型(GANs),和高性能计算。

(Adams) Wei Yu,谷歌大脑的研究科学家。

毕业于卡内基梅隆大学,在2015年获得了自然语言处理的硕士学位,2019年获得机器学习的博士学位。

Zihang Dai,谷歌大脑的研究科学家。

本科就读于清华大学,并于2013年获得学士学位。2016年在卡内基梅隆大学获得计算机科学硕士学位,2020年获得博士学位。

Yuan Cao,谷歌大脑的研究科学家。

曾就读于上海交通大学电子工程专业,在2005年获得学士学位,2008年获得硕士学位。

2015年在约翰斯·霍普金斯大学获得博士学位。

Yulia Tsvetkov,华盛顿大学计算机科学与工程学院助理教授,于2016年获得卡内基梅隆大学博士学位。

参考资料:

https://arxiv.org/pdf/2108.10904.pdf

推荐阅读

  • 【重磅】斯坦福李飞飞《注意力与Transformer》总结,84页ppt开放下载!

  • MLP进军下游视觉任务!目标检测与分割领域最新MLP架构研究进展!

  • 北京大学智能计算与感知实验室招收博士、硕士、本科实习生

  • 博士申请 | 香港中文大学LaVi实验室招收2022年秋季入学博士生、硕士生

  • 周志华教授:如何做研究与写论文?(附完整的PPT全文)

  • 都2021 年了,AI大牛纷纷离职!各家大厂的 AI Lab 现状如何?

  • 常用 Normalization 方法的总结与思考:BN、LN、IN、GN

  • 注意力可以使MLP完全替代CNN吗? 未来有哪些研究方向?

重磅!DLer-计算机视觉&Transformer群已成立!

大家好,这是计算机视觉&Transformer论文分享群里,群里会第一时间发布最新的Transformer前沿论文解读及交流分享会,主要设计方向有:图像分类、Transformer、目标检测、目标跟踪、点云与语义分割、GAN、超分辨率、视频超分、人脸检测与识别、动作行为与时空运动、模型压缩和量化剪枝、迁移学习、人体姿态估计等内容。

进群请备注:研究方向+学校/公司+昵称(如Transformer+上交+小明)

???? 长按识别,邀请您进群!

地表最强VLP模型!谷歌大脑和CMU提出极简弱监督模型相关推荐

  1. CVPR 2019 | 旷视研究院提出极轻量级年龄估计模型C3AE

    全球计算机视觉三大顶级会议之一 CVPR 2019 将于当地时间 6 月 16-20 日在美国洛杉矶举办.届时,旷视研究院将带领团队远赴盛会,助力计算机视觉技术的交流与落地.在此之前,旷视每周会介绍一 ...

  2. 谷歌大脑联手Hinton提出SimCLR新框架,疯狂提升自监督学习性能 | 北邮毕业生一作...

    点上方蓝字视学算法获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 编辑:Sophia 计算机视觉联盟  报道  | 公众号 CVLianMeng 转载于 :新智元 BERT和T5之类的自然 ...

  3. 谷歌大脑联手Hinton提出SimCLR新框架,疯狂提升自监督学习性能

    本文转载自新智元. 来源:google 编辑:张佳.白峰.鹏飞 [导读]Hinton团队新作SimCLR似乎打开了自监督学习的大门,自监督学习的效果到底如何?最近Google发表了一篇博客,介绍了他们 ...

  4. CVPR 2019 | 旷视提出极轻量级年龄估计模型C3AE

    点击我爱计算机视觉标星,更快获取CVML新技术 旷视成都研究院提出一个极其简单但是高效.基于上下文信息的级联性年龄估计模型 --C3AE.  论文名称:C3AE: Exploring the Limi ...

  5. ViT作者、谷歌大脑研究员翟晓华:大规模视觉表征学习

    智源导读:从2020年,Transformer开始在CV领域大放异彩.ViT(Vision Transformer)是Google在2020年提出的直接将transformer应用在图像分类的模型,后 ...

  6. 告别深度学习炼丹术!谷歌大脑提出“权重无关”神经网络

    来源:新智元 本文约5600字,建议阅读10+分钟. 无需权重训练!谷歌再向深度学习炼丹术发起"攻击". [ 导读 ]神经网络训练中"权重"有多重要不言而喻.但 ...

  7. 多大、谷歌大脑获ICML 2021杰出论文奖,田渊栋、陆昱成获荣誉提名!

    转自:机器之心 刚刚,ICML 2021揭晓了本届杰出论文奖和杰出论文荣誉提名奖,来自多伦多大学.谷歌大脑的研究获得了杰出论文奖,包括田渊栋.陆昱成在内的多位学者获得了杰出论文荣誉提名奖.此外,高通副 ...

  8. 是你的数据还不够强!谷歌大脑「数据增强」开源,大神QuocLe出品

    你的数据还不够强. 玩深度学习的人都知道,AI算法大部分是数据驱动.数据的质量一定程度上决定了模型的好坏. 这就有了深度学习天生的一个短板:数据不够多.不够好. 而数据增强就是解决这一问题的有效办法. ...

  9. 图解谷歌大脑丶城市大脑丶全球脑与互联网大脑的关系

    人类很早就朦胧的发现社会组织具有神经系统的特征.19世纪到20世纪,一些前瞻的哲学家们开始不断将科技与脑进行了关联,提出了"器官映射","社会神经网络",&qu ...

最新文章

  1. mac下软件包管理brew
  2. 调整Kali Linux的锁屏时间
  3. 用Java写一个植物大战僵尸简易版!
  4. JavaWeb基础—dbutils的简单入门
  5. MapTask、ReduceTask并行度决定机制
  6. make[1]: *** [objs/Makefile:445: objs/src/core/ngx_murmurhash.o] Error
  7. LeetCode Binary Tree PostorderTranversal
  8. Oracle 插入时间时 ,报错:ORA-01861: 文字与格式字符串不匹配
  9. P2661 信息传递
  10. vb6 怎么把一个数组的 0 值 去掉_解决逆向查找问题?VLOOKUP、CHOOSE、IF,索引数组,轻松解决...
  11. python万能头文件_c++的‘万能头文件’真的万能吗?
  12. C++入门——实现十字消除游戏
  13. STM32L031 BMI160 陀螺仪检测到移动向单片机发送中断
  14. Unity 文字转语音
  15. python蜂鸣器_Python与硬件学习笔记:蜂鸣器(转)
  16. wamp中mysql连接数据库_wamp链接到数据库
  17. iOS开发:图标生成器Prepo 的使用
  18. 计算机ntc中国教育考试网,中国教育考试网ntcecf1.neea.edu.cn-2018河北教师资格证成绩查询网址...
  19. 互联网创业公司如何规模化研发团队?
  20. swift MT报文处理相关资料

热门文章

  1. nginx生产环境常用功能include 、虚拟主机别名、rewrite、nginx status详细解析
  2. Linux mysql 5.6: ERROR 1045 (28000): Access denied for user 'root'@'localhost' (usin
  3. UVA 11491 Erasing and Winning 奖品的价值 (贪心)
  4. 使用Global.asax在ASP.NET中记录错误日志
  5. 同时更改一条数据_数据库中的引擎、事务、锁、MVCC(二)
  6. php xml 动态添加数据,php向xml中添加数据一例
  7. Java中 多态的理解
  8. chineseocr
  9. Class.forName( )你搞懂了吗?——转
  10. SVN commit,update用法