视学算法报道  

编辑:好困 小咸鱼 LRS

【新智元导读】微软亚洲研究院、北京大学强强联合提出了一个可以同时覆盖语言、图像和视频的统一多模态预训练模型——NÜWA(女娲),直接包揽8项SOTA。其中,NÜWA更是在文本到图像生成中完虐OpenAI DALL-E。

太卷了,太卷了!

在几年前,要说AI能直接用一段文字描述生成清晰的图像,那可真是天方夜谭。

结果现在,Transformer的出现彻底带火了「多模态」这一领域。

照着文字「脑补」图像居然都不稀奇了!

更夸张的是,竟然有AI已经可以用文字描述去生成一段视频了,看上去还挺像模像样的。

这个AI不仅看文字描述可以生成视频,给它几幅草图,一样能「脑补」出视频来!

这么秀的AI出自何方神圣啊?

答案是微软亚洲研究院+北京大学强强联合的研究团队!

最近,微软可谓是跟OpenAI「干」上了。

前脚刚推出取得了40多个新SOTA的Florence「佛罗伦萨」吊打CLIP,横扫40多个SOTA。

后脚就跟着放出NÜWA「女娲」对标DALL-E。

今年1月,OpenAI官宣了120亿参数的GPT-3变体DALL-E。

论文地址:https://arxiv.org/pdf/2102.12092.pdf

DALL-E会同时接收文本和图像作为单一数据流,其中包含多达1280个token,并使用最大似然估计来进行训练,以一个接一个地生成所有的token。

这个训练过程让DALL-E不仅可以从头开始生成图像,而且还可以重新生成现有图像的任何矩形区域,与文本提示内容基本一致。

从文本「一个穿着芭蕾舞裙遛狗的萝卜宝宝」生成的图像示例

同时,DALL-E也有能力对生成的图像中的物体进行操作和重新排列,从而创造出一些根本不存在的东西,比如一个「一个长颈鹿乌龟」:

这次,MSRA和北大联合团队提出的统一多模态预训练模型——NÜWA(女娲),则可以为各种视觉合成任务生成新的或编辑现有的图像和视频数据。

论文地址:https://arxiv.org/pdf/2111.12417.pdf

GitHub地址:https://github.com/microsoft/NUWA

为了在不同场景下同时覆盖语言、图像和视频,团队设计了一个三维变换器编码器-解码器框架,它不仅可以处理作为三维数据的视频,还可以适应分别作为一维和二维数据的文本和图像。

此外,论文还提出了一个3D邻近注意(3DNA)机制,以考虑视觉数据的性质并降低计算的复杂性。

在8个下游任务中,NÜWA在文本到图像生成、文本到视频生成、视频预测等方面取得了新的SOTA。其中,在文本到图像生成中的表现直接超越DALL-E。

同时,NÜWA在文本引导的图像和视频编辑任务中显示出优秀的zero-shot能力。

NÜWA模型支持的8种典型视觉生成任务

8大SOTA效果抢先看

文字转图像(Text-To-Image,T2I)

草图转图像(SKetch-to-Image,S2I)

图像补全(Image Completion,I2I)

用文字指示修改图像(Text-Guided Image Manipulation,TI2I)

文字转视频(Text-to-Video,T2V)

视频预测(Video Prediction,V2V)

草图转视频(Sketch-to-Video,S2V)

用文字指示修改视频(Text-Guided Video Manipulation,TV2V)

NÜWA为啥这么牛?

NÜWA模型的整体架构包含一个支持多种条件的adaptive编码器和一个预训练的解码器,能够同时使图像和视频的信息。

对于图像补全、视频预测、图像处理和视频处理任务,将输入的部分图像或视频直接送入解码器即可。

NÜWA的结构概述

模型支持所有文本、图像、视频输入,并将他们统一视作token输入,所以可以定义一个统一的向量表示X,维度包括高度h、宽度w,时间轴上的token数量s,每个token的维度d。

文本天然就是离散的,所以使用小写后的byte pair encoding (BPE)来分词,最终的维度为1×1×s×d中。因为文本没有空间维度,所以高度和宽度都为1。

图像输入是连续的像素。每个图像输入的高度为h、宽度为w和通道数为c。使用VQ-VAE训练一个编码把原始连续像素转换为离散的token,训练后B[z]的维度为h×w×1×d作为图像的表示,其中1 代表图像没有时序维度。

视频可以被视为图像的一种时序展开,最近一些研究如VideoGPT和VideoGen将VQ-VAE编码器中的卷积从2D扩展到3D,并能够训练一种针对视频输入的特殊表征。

但这种方法无法使图像和视频的表示统一起来。研究人员证明了仅使用2D VQ-GAN 就能够编码视频中的每一帧,并且能生成时序一致的视频,结果表示维度为h×w×s×d,其中s代表视频的帧数。

对于图像素描(image sketch)来说,可以将其视为具有特殊通道的图像。

H×W的图像分割矩阵中每个值代表像素的类别,如果以one-hot编码后维度为H×W×C,其中c是分割类别的数目。通过对图像素描进行额外的VQ-GAN训练,最终得到图像embedding表示维度为 h×w×1×d。同样地,对于视频草图的embedding维度为h×w×s×d。

基于统一的3D表示,文中还提出一种新的注意力机制3D Nearby Self-Attention (3DNA) ,能够同时支持self-attention 和cross-attention。

3DNA考虑了完整的邻近信息,并为每个token动态生成三维邻近注意块。注意力矩阵还显示出3DNA的关注部分(蓝色)比三维块稀疏注意力和三维轴稀疏注意力更平滑。

不同的三维稀疏注意力机制的比较

基于3DNA,文中还引入了3D encoder-decoder,能够在条件矩阵Y 为h'×w'×s'×d^{in}的情况下,生成h×w×s×d^{out} 的目标矩阵C,其中Y和C由三个不同的词典分别考虑高度,宽度和时序维度。

然后将条件C和一个堆叠的3DNA层输入到编码器中来建模自注意力的交互。

解码器也是由3DNA层堆叠得到,能够同时计算生成结果的self-attention和生成结果与条件之间的cross-attention。

最终的训练包含了三个目标任务Text-to-Image(T2I), Video Prediction (V2V) 和Text-to-Video(T2V),所以目标函数包含三部分。

对于T2I和T2V任务,C^text表示文本条件。对于V2V任务,由于没有文本输入,所以c为一个常量,单词None的3D表示,θ表示模型参数。

实验结果

文本转图像(T2I)

作者使用FID-k和Inception Score(IS)来分别评估质量和种类,并使用结合了CLIP模型来计算语义相似度的CLIPSIM指标。

公平起见,所有的模型都使用256×256的分辨率,每个文本会生成60张图像,并通过CLIP选择最好的一张。

可以看到,NÜWA以12.9的FID-0和0.3429的CLIPSIM成绩,明显地优于CogView。

在MSCOCO(256×256)数据集上与SOTA的定量比较

尽管XMC-GAN的FID分数为9.3,但与XMC-GAN的论文中完全相同的样本相比,NÜWA生成的图像更加真实。特别是在右下角的那个例子中,男孩的脸更清晰,气球也是正确的。

在MSCOCO(256×256)数据集上与SOTA的定性比较

文本转视频(T2V)

作者在Kinetics数据集上与现有的SOTA进行了比较,其中,在FID-img和FID-vid指标上评估视觉质量,在生成视频的标签准确性上评估语义一致性。

显然,NÜWA在上述所有指标上都取得了SOTA。

在Kinetics数据集上与SOTA的定量比较

此外,对于生成未见过的文本来说,NÜWA在定性比较中显示出了强大的zero-shot能力,如「在游泳池打高尔夫球」以及「在海上跑步」。

在Kinetics数据集上与SOTA的定性比较

图像补全(I2I)

作者定性地比较了NÜWA的zero-shot图像补全能力。

在只有塔的上半部分的情况下,与Taming Transformers相比,NÜWA在对塔的下半部分进行补全时,展现出更丰富的想象力,自主添加了建筑、湖泊、鲜花、草地、树木、山脉等等。

以zero-shot方式与现有SOTA进行定性比较

视频预测(V2V)

作者在BAIR数据集上进行了定量比较,其中,Cond.表示预测未来帧的帧数。

为了进行公平的比较,所有的模型都使用64×64的分辨率。尽管只给了一帧作为条件(Cond.),NÜWA仍将FVD的SOTA得分从94±2推至86.9。

在BAIR(64×64)数据集上与SOTA的定量比较

草图转图像(S2I)

通过定性比较在MSCOCO上的表现可以看到,与Taming-Transformers和SPADE相比,NÜWA生成的图像种类更多,有的甚至连窗户上的反射也清晰可见。

在MSCOCO数据集上与SOTA的定性比较

用文本引导图像修改(TI2I)

作者以zero-shot的方式对NÜWA和现有SOTA进行了定性的比较。

与Paint By Word相比,NÜWA表现出了很强的编辑能力,在不改变图像其他部分的情况下,产生了高质量的结果。这得益于通过对各种视觉任务进行多任务预训练而学到的真实世界的视觉模式。

比如在第三个例子中,由NÜWA生成的蓝色卡车更加逼真,而且后方的建筑物也没有产生奇怪的变化。

另一个优点是NÜWA的推理速度,只需要50秒就能生成一幅图像,而Paint By Words在推理过程中需要额外的训练,并需要大约300秒才能收敛。

以zero-shot方式与现有SOTA进行定性比较

结论

文章提出了一种统一的预训练模型NÜWA,这个女娲不光能补天,也能造图,可以为8个视觉合成任务生成新的或操作现有的图像和视频。

还提出了一个通用的3D encoder-decoder框架,能够同时覆盖文本、图像和视频。能同时考虑空间和时序维度的3D nearby-sparse attention机制。

这也是迈向人工智能平台的重要一步,能够让计算机拥有视觉,并辅助内容创作者生成一些人类想象力以外的事。

P.S. 本文截图由ReadPaper自动截取生成(还挺好用,狗头)。

参考资料:

https://arxiv.org/abs/2111.12417

https://github.com/microsoft/NUWA

点个在看 paper不断!

图像、视频生成大一统!MSRA+北大全华班「女娲」模型怒刷8项SOTA,完虐OpenAI DALL-E...相关推荐

  1. 一个模型通杀8大视觉任务,图像、视频生成大一统!MSRA+北大全华班「女娲」模型...

    来源:新智元 太卷了,太卷了!微软亚洲研究院.北京大学强强联合提出了一个可以同时覆盖语言.图像和视频的统一多模态预训练模型--NÜWA(女娲),包揽8项SOTA,完虐OpenAI DALL-E! 照着 ...

  2. MSRA、北大的女娲:图像视频生成的大一统模型

    点击上方"机器学习与生成对抗网络",关注星标 获取有趣.好玩的前沿干货! 新智元 编辑:好困 小咸鱼 LRS [新智元导读]微软亚洲研究院.北京大学强强联合提出了一个可以同时覆盖语 ...

  3. AI版「女娲」来了!文字生成图像、视频,8类任务一个模型搞定

    来源丨机器之心 作者丨陈萍.小舟 AI会是未来的「造物者」吗? 近来,视觉合成任务备受关注.几天前英伟达的 GauGAN 刚刚上新了 2.0 版本,现在一个新视觉合成模型 Nüwa(女娲)也火了. 相 ...

  4. AAAI 2023 | 基于多模态标签聚合的视频检索模型TABLE,多项SOTA

    ©作者 | QQ浏览器搜索技术中心.腾讯PCG ARC Lab 来源 | 机器之心 近年来,互联网短小视频内容的爆发式增长,对视频 - 文本检索(Video-Text Retrieval)的能力提出了 ...

  5. Python爬取B站5000条视频,揭秘为何千万人看「哪吒」流泪

    导读:<哪吒>看哭了无数人!有很多小朋友,一开始他们还被太乙真人的滑稽,逗得哈哈笑.到了哪吒成魔要杀父亲.跪别父母.因为宿命不得以和敖丙为敌时,影院里突然安静下来. 人们喜欢<哪吒& ...

  6. 视频:3D打印的高超音速「客机」发动机测试

    Hermeus公司所开发的Chimera发动机可实现涡轮联合循环,这意味着它是涡轮喷气发动机和冲压喷气发动机的混合体.在这两种模式之间切换的能力使Hermeus的Quarterhorse飞机能够从常规 ...

  7. 单张人像生成视频!中国团队提出最新3D人脸视频生成模型,实现SOTA

    来源:IEEE 编辑:新智元 [导读]稀疏人脸特征点生成的人脸图像视频通常会遇到图像质量损失.图像失真.身份改变,以及表情不匹配等问题.为此作者使用重建出的三维人脸动态信息来指导人脸视频的生成.结果显 ...

  8. 单张人像生成视频!中国团队提出FaceAnime:最新3D人脸视频生成模型

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 转载自:新智元 |  来源:IEEE 编辑:好困 [导读]稀疏人脸特征点生成的人脸图像视频通常会遇到图像质量 ...

  9. 「乾坤」学霸同保送!双胞胎帅哥一起上北大,哥哥本科发表2篇SCI

    视学算法报道   编辑:桃子 [新智元导读]有一种「默契」叫一起上北大.近日,一对双胞胎兄弟双双圆梦北大,哥哥李世乾被保送至北大信息科学技术学院直博,弟弟李世坤被保送至北大工学院.2022年,「乾坤」 ...

最新文章

  1. 什么阻碍了人工智能在制造业的应用?
  2. 面试环节:在浏览器输入 URL 回车之后发生了什么?(超详细版)
  3. 全新的 flow.ci Dashboard 上线
  4. hihoCoder1233(2015北京网络赛H题)
  5. eclipse 启动后maven插件报错
  6. 看反病毒专家对EICAR检测代码的专业解读
  7. iOS开发出错whose view is not in the window hierarchy!的解决
  8. 欧洲语言学习统一标准C1C2音频,北京通州区有没有西班牙语培训班(为何选择西班牙语)...
  9. c:\program files\microsoft visual studio\vc98\mfc\include\afxv_w32.h(14) : fatal error C1189:
  10. Python3制作百度文库免费下载器
  11. Silverlight4启动无法调试
  12. VLD(Visual LeakDetector)内存泄露库的使用
  13. 光纤接口类型及光纤收发器指示灯图解
  14. php中in array函数_php中in_array函数的用法
  15. 简易图片打像素标签工具
  16. 游戏服务器是什么怎么租用
  17. 5. C++ 抽象类
  18. java web编程技术解题与实验指导_javaweb编程技术实验指导书
  19. css文件插入背景音乐,关注css背景音乐代码
  20. 关于大学生课余时间分配利用的调查报告

热门文章

  1. C语言之数组中你所不在意的重要知识
  2. 突然想起99年的那次离别
  3. 用 Python 制作数据大屏,超简单
  4. 22个案例详解Pandas数据分析/预处理时的实用技巧,超简单
  5. 7000 字 23 张图,Pandas一键生成炫酷的动态交互式图表
  6. 应用在大规模推荐系统,Facebook提出组合embedding方法 | KDD 2020
  7. 不止Markov决策过程,全景式分析强化学习研究内容
  8. PCA、LDA、MDS、LLE、TSNE等降维算法的Python实现
  9. 深度学习在人脸检测中的应用 | CSDN 博文精选
  10. 崛起的Python,真的影响了76万人?