作者 | 青暮、陈大鑫

编辑 | 青暮

你上一次听到用Transformer生成图像,应该还是iGPT刚问世的时候吧?当时OpenAI用GPT-2来分类和补全图像,取得了令人惊艳的成果。遗憾在于,iGPT生成的图像最大只有64x64像素。

现在,我要告诉你,最上面这张图像也是Transformer生成的,分辨率有1280x460之高。合成这张图像的模型名叫VQGAN,而且,它能做的事情远不止于此。

先看看VQGAN和iGPT的对比,前者生成的图像明显高清得多。

VQGAN还能用语义图引导生成样本:

用深度图引导生成样本:

用姿态图引导合成样本:

用类别引导合成样本:

随机合成样本:

执行超分辨率任务:

说了那么多,它们的共同点是啥?

当然是高清啦!

最后再展示一些用语义图引导合成的样本,从上往下的分辨率分别是:1280×832、1024×416、1280×240。

没错,都是百万像素级别的。

VQGAN功能多,生成的图像又高清,就用下图来总结一下。

本文提出的Transformers统一了广泛的图像合成任务。图中展示了在不同条件输入和数据集上的256×256合成结果,所有这些结果都是用同样的方法获得的,即VQGAN——利用基于CNN的有效归纳偏置,并结合Transformer结构的表达能力。

  • 第一行:在ImageNet上进行无条件训练来补全图像。

  • 第二行:以深度图为条件生成图像。

  • 第三行:语义图引导合成。

  • 第四行:姿态图引导合成。

  • 第五行:类别引导合成。

然后,我们来比较一下模型尺寸。iGPT提出了四个模型,即iGPT-S、iGPT-M、iGPT-L、iGPT-XL,参数数量分别为76M、455M、14 亿、68亿,而VQGAN的参数数量则在85M到470M之间。

如下表所示,作者在多个数据集上(比如CIFAR-10、DeepFashion等)训练了不同大小的模型,表中列出了模型的超参数。

超参数列表

参数数量远低于iGPT,生成的图像分辨率又远高于iGPT,VQGAN是怎么做到的?

我们先从Transformer的发展历史谈起。

1

Transformer:从NLP走向CV

Transformer最初应用于自然语言处理(NLP)任务,并带来了显着的进步。

例如,“Attention is all you need”首先提出了仅基于注意力机制的用于机器翻译和英语选区解析任务的Transformer。

BERT通过共同在左和右上下文进行条件预处理,以通过未标记文本训练Transformer,BERT在当时的11个NLP任务上获得了SOTA。

OpenAI在45TB数据上预训练了基于巨型Transformer的GPT-3模型,该模型具有1,750亿个参数,并且无需微调即可在各种类型的下游自然语言任务上实现出色的性能。

这些基于Transformer的模型都显示了强大的表示能力。受此启发,最近人们开始将Transformer扩展到计算机视觉(CV)任务。

CNN曾经是计算机视觉网络架构的基本组成部分,但Transformer显示出了替代CNN的潜力。

iGPT训练序列Transformer来自回归地预测像素,并在图像分类任务上与CNN取得相近结果。

ViT将纯Transformer直接应用于图像补丁序列,并在多个图像识别基准上获得了SOTA。

除了基本的图像分类,Transformer还被用于解决更多的计算机视觉问题,例如目标检测、语义分割、图像处理和视频理解,并且都得到了出色的结果。

基于Transformer的视觉模型如雨后春笋般冒起,下表按照应用场景对视觉Transformer模型进行了分类。

视觉Transformer的代表性工作。

其中主要的研究主题包括基本图像分类、高级视觉、低级视觉和视频处理。

高级视觉处理是指对图像关键内容的标记,例如目标检测、语义分割和车道检测。

人们已经提出了许多用于解决高级视觉任务的Transformer模型,例如DETR、deformable  DETR用于目标检测,以及Max-DeepLab用于语义分割。

低级图像处理的典型应用包括超分辨率、图像去噪和风格迁移。在这个领域很少使用到Transformer,不过近期华为诺亚、北大等在论文“Pre-Trained Image Processing Transformer”中提出了IPT模型,在降噪、去雨、超分等底层视觉任务上刷榜,再次刷新人们认知。

此外,由于视频的顺序特性,Transformer可以自然地应用于视频。

与传统的CNN或RNN相比,Transformer开始在这些任务上显示出具有竞争力的性能。

下图展示了视觉Transformer关键工作的时间表,相信未来会有越来越多的优秀工作将被刻在里程碑上。

Transformer的里程碑,视觉Transformer模型为红色。

那么,Transformer能取代CNN的秘密在哪里呢?

2

不一定要完全替代CNN

CNN由于可以搭配GPU进行有效的并行卷积计算而获得了无数成功。此外,CNN也具有平移不变性和局部敏感性的归纳偏置。但是,后者也决定了卷积神经网络只能关注局部信息的网络结构。

它的这种计算机制导致了它在文本信息处理上难以捕捉和存储长距离的依赖信息,也就是缺乏对数据本身的整体把握。人们一方面想扩大卷积核、增加通道数来捕捉长期依赖,一方面还害怕由于扩大模型所导致的维度灾难。

相比之下,Transformer背后的Self Attention除了兼具并行计算的优点,还能挖掘长距离依赖,不受优先考虑局部相互作用的归纳偏置的限制,从而具有很强的表达性。此外,由于不存在这种限制,自注意力机制还能根据任务目标和自注意力层的位置来学习最合适的归纳偏置。

在“ON THE RELATIONSHIP BETWEEN SELF-ATTENTION AND CONVOLUTIONAL LAYERS”这篇发表在ICLR 2020的论文中,作者提出了理论和经验证据,表明自注意力层可以(并且确实)像卷积层那样起作用:

  • 从理论上讲,存在建设性的证据,表明自注意力层可以表示任何卷积层。具体来说,使用相对位置编码的单个多头自注意力层可以重新参数化以表示任何卷积层。

  • 实验表明,仅使用自注意力的架构的前几层确实学习了如何在每个查询像素周围加入网格状模式。

所以,自注意力机制和卷积层是很相似的。

人们近期一直在探索极端的替代方案,就是用Transformer完全替代CNN。

然而,对于高分辨率的输入来说,自注意力机制层的计算量很大,因此它只适用于较小的空间维度输入的数据场景。比如,iGPT补全的图像最大只有64x64像素,而于2018年提出的“Image Transformer”生成的也是分辨率很低的图像,如下图所示。

这是因为,自注意力机制相对于CNN存在普遍性,也意味着它必须学习所有的关系,而CNN被设计成利用图像中强局部相关性的先验知识。因此,由于考虑了所有成对的相互作用,Transformers表达能力的增加相应地带来了计算成本的二次增加。因此,目前的Transformers SOTA模型由于高耗能和高耗时,为将其扩展到处理高分辨率图像带来了根本性的问题。

那么,除了完全替代,还有其它方案吗?

3

Transformer倾向于学习卷积结构

实际上,基于自注意力机制和卷积层的相似性,Transformer和CNN也可以结合应用,今天要介绍的这篇论文就采用了这样的思想。

此外,这也是第一个语义引导生成百万像素图像的Transformer架构。

论文:Taming Transformers for High-Resolution Image Synthesis

论文链接:https://arxiv.org/pdf/2012.09841.pdf

项目主页:https://compvis.github.io/taming-transformers/

作者受到上文提到的“Transformers倾向于学习卷积结构”的现象的启发,提出了这个问题:“我们是否在每次训练视觉模型时,必须从头开始重新学习已知的关于图像局部结构和规律性的所有知识,或者我们是否能够有效地编码归纳偏置,同时仍然保持Transformers的灵活性?”

作者假设低层次的图像结构是由局部连通性即卷积结构来描述的,而这种结构假设在更高的语义层次上不再有效。

进一步说,CNN不仅表现出很强的局部性偏差,而且通过在所有位置使用共享的权值,还表现出对空间不变性的偏差。而如果需要对输入进行更全面的理解,这些偏差将变得无效。

高分辨率图像合成需要一个能够理解图像全局组件的模型,使其能够生成局部真实和全局一致的模式。因此,本文不是用像素来表示图像,而是将其表示为codebook的感知丰富的图像成分的合成。

这些思想综合起来就是,卷积和Transformer架构可以共同用于建模视觉世界的组成性质:我们使用卷积方法高效地学习上下文丰富的视觉部分的codebook,然后学习其全局组成的模型。这些组合中的远程交互需要一个富有表达力的Transformer 架构来对其一致的可视部分上的分布进行建模。

此外,作者利用对抗性的方法来确保局部部分的字典捕获感知上重要的局部结构,以减轻用Transformer架构建模低层统计的需要。从而让Transformers专注于其独特的优势——建模远程关系——使其能够生成高分辨率图像。作者提出的公式通过调节有关所需目标类别或空间布局的信息,可以直接控制生成的图像内容。

通过学习如3.1节所述的高效的编码,可以显著缩短合成的描述长度,从而能够有效地用3.2节中描述的Transformer架构在图像中建模它们的全局相互关系。在下图中总结的这种方法能够在无条件和有条件的设置中生成真实和一致的高分辨率图像。

作者使用卷积VQGAN来学习上下文丰富的视觉部分的codebook,codebook的组件随后用自回归transformer 架构来建模。离散的codebook提供了这些架构之间的接口,基于patch的判别器实现了强大的压缩能力,同时保持了较高的感知质量。该方法引入了卷积方法在基于transformer的高分辨率图像合成中的有效性。

VQGAN编码解码器的高级结构。网络的设计遵循“Denoisingdiffusionprobabilisticmodels”中提出的架构,没有跳跃连接(skip-connections)。对于判别器,本文使用了一个基于patch的模型,参见“Image-to-ImageTranslationwithConditionalAdversarialNetworks”。其中

实验证明,本文的方法保留了Transformers的优点,并优于以前基于卷积结构和codebook的SOTA方法。

参考文献:

https://arxiv.org/pdf/2012.12556v1.pdf

https://cdn.openai.com/papers/Generative_Pretraining_from_Pixels_V2.pdf

https://arxiv.org/pdf/1802.05751.pdf

https://arxiv.org/pdf/1911.03584.pdf

https://arxiv.org/abs/2012.00364

重磅!DLer-AI顶会交流群已成立!

大家好,这是DLer-AI顶会交流群!首先非常感谢大家的支持和鼓励,欢迎各位加入DLer-AI顶会交流群!本群旨在学习交流人工智能顶会(CVPR/ICCV/ECCV/NIPS/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)写作与投稿事宜。包括第一时间发布论文信息和公开演讲视频,以及各大会议的workshop等等。希望能给大家提供一个更精准的研讨交流平台!!!

添加请备注:AI顶会+学校/公司+昵称(如CVPR+上交+小明)

???? 长按识别添加,即可进群!

Transformer又来搞事情!百万像素高清图轻松合成,效果迷人相关推荐

  1. 一加7t人脸识别_一加7T系列国行版开启预约 谷歌Pixel 4系列高清图曝光

    据一加手机官方消息,一加7T系列国行版已经开启预约,全新系列将于10月15日正式发布. 一加7T采用6.55英寸,分辨率为2400×1080的AMOLED显示屏,具有90Hz刷新率.峰值亮度为1000 ...

  2. 【iOS-cocos2d-X 游戏开发之十六】Cocos2dx编译后的Android自动使用(-hd)高清图设置自适应屏幕...

    本篇主要介绍Cocos2dx项目开发过程中或者说项目务必遇到的一些知识点(ps.貌似Himi博客写的都是务必的 :tx:  Himi认为写别人没写的才更容易吸引人不是-) OK,不多说废话,第一个介绍 ...

  3. 分享一套高级Java笔试题(实拍高清图)

    转载自 分享一套高级Java笔试题(实拍高清图) 下面是部分分享原图

  4. 啥是原神?女友说想要全角色语音+表情包,顺手用python把高清图也整下来了

    原神全角色中日语音+表情包+高清图 人生苦短 我用python 表情包部分: 1. 素材来自: 2. 准备模块 3. 调用浏览器驱动 4. 页面滚动 5. 保存数据 5. 效果 全角色语音+高清彩图部 ...

  5. (元)黄公望---富春山居图(中国十大传世名画之八) 高清图下载

    <富春山居图> 高清图下载: 元.黄公望<富春山居图>.jpg <富春山居图>是元朝画家黄公望的作品,是黄公望为无用师所绘,以浙江富春江为背景,全图用墨淡雅,山和水 ...

  6. 仿微博、微信、qq 点击缩略图, 查看高清图 UI 组件

    TransferImage 项目地址:Hitomis/TransferImage  简介:仿微博.微信.qq 点击缩略图, 查看高清图 UI 组件 更多:作者   提 Bug    标签: Image ...

  7. python爬取王者荣耀皮肤高清图

    python爬取王者荣耀皮肤高清图 前期准备,导入模块 requests json os 进入王者荣耀官网,进入游戏壁纸页面,f12进入开发者模式,按照下图找到这个json文件,用于对图片的数据请求. ...

  8. DayDayUp:上海地铁线路高清图、1~17号地铁线路各站点名称及对应路线集合之详细攻略

    DayDayUp:上海地铁线路高清图.1~17号地铁线路各站点名称及对应路线集合之详细攻略 目录 上海高清地铁线路图集合 1.实时查询地铁线人流量拥挤度 1.1.网页端查询 1.2.手机APP端查询 ...

  9. 高清电脑壁纸桌面图片|到高图随心换高清图

    每天和电脑手机打交道的现代人,壁纸作为手机\电脑的第一印象,想一张好看的壁纸可以让你的心情变得十分愉悦,亦或是此刻的壁纸图片代表了此刻的心情!好看的壁纸随处都有,但未必时自己想要的哪一款,这个时候到高 ...

最新文章

  1. EntityFramework用法探索(一)DatabaseFirst
  2. C语言实现简单的面向对象例子
  3. python二级多少分过_python二级操作题与分析(2)
  4. OpenCASCADE:Foundation Classes数据类型
  5. ubuntu14.04的键盘失灵解决方案
  6. Android Volley框架的使用(二)
  7. java内容寻址_java – 获取方法对象而不按名称寻址方法
  8. 敏捷开发般若敏捷系列之七:重新认识敏捷与CMMI
  9. Shell学习笔记一
  10. Castle IOC容器构建配置详解(二)
  11. MaxCompute助力小影短视频走向全球化
  12. 神策分析 2.1 重磅上线!报警诊断、多主体分析、渠道追踪等赋能企业数字化经营...
  13. 信号与系统在仿真中的离散化
  14. APP功能测试点汇总
  15. Mac下挂载NTFS硬盘
  16. AVPlayer就可以播放在线音频
  17. ParameterizedTypeReference使用
  18. 使用python预测基金_使用python先知3 1创建预测
  19. **组播PIM-SM详解****
  20. Python实现淘宝秒杀

热门文章

  1. 预写式日志(Write-Ahead Logging (WAL))
  2. jQuery JavaScript库达到新的里程碑
  3. jwplayer使用
  4. Java基类共同属性设置_java – 你有一个Hibernate实体的基类吗?
  5. 样本不均衡SMOTE算法代码实列
  6. java同步队列与阻塞队列
  7. udacity车道线检测GIT库
  8. Hashtable类
  9. 青源LIVE第23期|ACL最佳论文一作许晶晶:机器翻译中的词表学习问题研究
  10. Science公布2020十大科学突破,AI预测蛋白结构等上榜 | AI日报