https://www.toutiao.com/a6678477083334672903/

鱼羊 发自 纽凹非寺

量子位 报道 | 公众号 QbitAI

比起自己埋头写论文,聊聊自己感兴趣的方向,期待一下旁人的智慧,或许也是个不错的主意。

谷歌大脑研究员Augustus Odena最近有了新的想法,不是再写一篇GAN方面的论文,而是推荐几个他感兴趣的研究方向,看看别人在这些主题上都能写出什么样精彩的文章。

Augustus Odena是谷歌大脑机器学习方面的专家,2016年他开始发表生成对抗网络(GAN)领域的论文,不仅跟GANs之父Goodfellow有过密切的合作,其关于GAN的论文也频频登上机器学习国际顶会的舞台,可谓是GAN这一研究领域的一线大牛。

就在近日,大牛在distill上发表了一篇新的文章,没讲什么新研究,只是提出了关于GAN的七个问题。

大牛希望通过这七个问题,能向大家阐明他对于GAN这个研究课题的看法。而对于研究人员来说,大牛指路,简直就是把灵感源泉送到眼前,还不得赶紧多吸几口灵气?

七个问题,七种方向

问题1 GAN和其他生成模型之间的基本权衡是什么?

Problem 1 What are the trade-offs between GANs and other generative models?

问题2 GAN能为哪种分布建模?

Problem 2 What sorts of distributions can GANs model?

问题3 如何让GAN在非图像数据上表现良好?

Problem 3 How can we Scale GANs beyond image synthesis?

问题4 我们何时能够证明GAN是全局收敛的?

Problem 4 What can we say about the global convergence of the training dynamics?

问题5 我们该如何评估GAN,又该在何时使用它而非其他生成模型?

Problem 5 How should we evaluate GANs and when should we use them?

问题6 GAN训练如何按批大小进行扩展?

Problem 6 How does GAN training scale with batch size?

问题7 GAN与对抗样本之间的关系是什么?

Problem 7 What is the relationship between GANs and adversarial examples?

这些问题其实一直以来也是研究者们关心的重点,不过仅仅提出问题显然不是大牛的追求。Augustus Odena通过提问题的方式对GAN的研究背景进行了总结,同时也给出了一些解决问题的参考方向。

在Augustus Odena看来,GAN已经进入了一个发展的瓶颈期,现在是时候来梳理梳理这一研究领域的发展目标了。

来看看他都是如何总结的吧。

总结一:GAN是否会被取代

GAN并不等同于生成模型,但由于GAN在图像生成方面表现实在太突出,在网络上几乎成为了“网红”一般的存在。

但事实上,生成模型是研究的热点没错,GAN却并不是唯一的方向。GAN的提出者Goodfellow就说过,如果不能找到稳定训练GAN的方法,GAN有可能会被其他的结构取代。

Augustus Odena提到除了GAN以外,目前还有另外两种比较流行的生成模型:流模型和自回归模型。最近的研究成果表明,这些模型具有不同的性能特征和权衡。GAN并行高效但不可逆;流模型允许精确的对数似然计算和精确推理,但效率低;自回归模型可逆且高效,但不并行。

这也就带来了第一个问题:GAN和其他生成模型之间的基本权衡是什么?

Augustus Odena认为研究更多的模型能帮助解决这个问题,尤其是一些混合模型,比如混合GAN/流模型。他觉得在这个方向上还有很多值得发掘的东西。

总结二:用GAN给指定分布建模有多难

大多数GAN研究侧重于图像合成,人们往往都是用MINIST、CIFAR-10、STL-10、CelebA和Imagenet这样的数据集来训练GAN。而哪些数据集更容易建模,总有一些坊间传闻,但如果想要验证这些结论,那就复杂了。

Augustus Odena指出,与任何科学一样,GAN也希望有一个简单的理论来解释实验结果。 于是问题二就来了:我们怎么才能知道用GAN建模有多难?

大牛建议从两个方面着手:

合成数据集——通过研究合成数据集来探究哪些特征会影响学习性能

修改现有的理论结果——尝试修改现有理论结果的假设来解释数据集的不同属性

总结三:GAN只能合成图像吗

GAN在图像合成领域的成绩有目共睹,而在图像合成之外,Augustus Odena提到了三个主要受到关注的领域:文本,结构化数据,音频。

(快速生成高保真音频的新方法GANsynth, Jesse Engel, 2019)

在无监督音频合成方面GAN是比较成功的,但在其他方面还是乏善可陈。那么如何才能使GAN在非图像数据上表现得更好呢?这就是第三个问题。

是采取新的训练技术,还是从先验信息入手?大牛表示都不容易,这个问题的解决,也许得仰仗基础研究的进展了。

总结四:GAN的收敛问题

Augustus Odena还对GAN的收敛问题的研究进展进行了总结。

GAN的收敛问题一直备受关注。与其他神经网络不同,GAN的训练过程是在同时优化发生器和鉴别器,让两个AI相互对抗。模型不收敛的问题会使它变得不稳定。

大牛总结了三条技术路线,目前都有所突破,但都还没有研究完成。

简化假设——简化关于发生器和鉴别器的假设

使用正常神经网络技术——应用分析正常神经网络(非凸的)的技术来回答有关GAN收敛的问题

博弈论——用博弈论的概念对GAN训练进行建模

总结五:GAN的评估问题

关于GAN的评估,有很多提案但大多难成共识。这些建议包括:

  • 初始分数和FID
  • MS-SSIM
  • AIS
  • 几何分数
  • 精确率和召回率
  • 技能等级

这还只是GAN评估方案的一小部分,尽管初始分数和FID相对受欢迎,但GAN的评估显然不是一个一成不变的问题。

Augustus Odena认为如何评估GAN的困惑来源于对何时使用GAN的不解,于是他把两个问题捆绑在一起,先考虑GAN的适用性,再在这样的背景下去进行评估。

GAN很适合用来处理感知任务,它在图像合成、图像转换上的成绩已经证明了这一点。所以问题就变成了在感知任务的处理上我们如何评估GAN?

一个简便的方法就是分类器双样品测试(C2STs),这个方法的主要问题是,哪怕发生器只是产生了一个很小的缺陷,它都会主导评估结果。

大牛想了想,觉得这件事还是得由人来主导。为了降低成本,可以用机器来预测人类的判断结果,不过在预测结果不确定的时候,还是需要真人介入。

总结六:GAN训练如何按批大小进行扩展

大部分GAN中的鉴别器只是一个图像分类器,如果瓶颈在于梯度噪声,那么增加批大小就能加速训练。但是GAN有一个不同于分类器的瓶颈:它的训练过程是不稳定的。

Augustus Odena于是提出了第六个问题:GAN训练如何按批大小进行扩展?梯度噪声在GAN的训练过程中扮演什么样的角色?是否可以修改GAN训练,使其随批处理大小更好地实现扩展?

他指出了三个解决方案,其中,他认为在批大小非常大的时候,Optimal Transport GANs会是不错的选择。而异步SGD也是一个值得关注的方法。

总结七:鉴别器的对抗鲁棒性会如何影响GAN训练

众所周知,图像分类器会受到对抗样本的影响:对抗样本与真实样本的区别几乎无法用肉眼分辨,但是却会导致模型进行错误的判断。

由于GAN的鉴别器就是图像分类器,所以它也可能遭遇对抗样本的问题。

Augustus Odena提到,尽管有大量关于GAN和对抗样本的文献,但它们之间的关系却没有得到多少研究。

那么问题就来了:GAN和对抗样本之间有什么样的关系?鉴别器的对抗鲁棒性会如何影响GAN的训练结果?

Augustus Odena认为这个研究课题很有价值。对生成模型的蓄意攻击已经被证明是可行的,而遭到“意外攻击”的可能性虽然比较小,但也没有决定性的证据证明发生器不会产生对抗样本。

看完这些内容,你是否思路清晰了一些?总之,每一个问题都包含了大量的背景知识,听大牛讲那生成对抗网络的过去未来,总是没有坏处。

而大牛本人也表示,他很希望看到其他领域的研究者也能写写类似的文章,帮助大家梳理思路。

传送门

大牛文章:

https://distill.pub/2019/gan-open-problems/

— 完 —

关于GAN的七个问题:谷歌大脑工程师带你梳理生成对抗网络相关推荐

  1. GAN之父NIPS 2016演讲现场直击:全方位解读生成对抗网络的原理及未来(附PPT)

    机器之心原创 作者:机器之心分析师加号.吴攀 当地时间 12 月 5 日,机器学习和计算神经科学的国际顶级会议第 30 届神经信息处理系统大会(NIPS 2016)在西班牙巴塞罗那开幕.OpenAI ...

  2. 生成对抗网络gan原理_中国首个“芯片大学”即将落地;生成对抗网络(GAN)的数学原理全解...

    开发者社区技术周刊又和大家见面了,萌妹子主播为您带来第三期"开发者技术联播".让我们一起听听,过去一周有哪些值得我们开发者关注的重要新闻吧. 中国首个芯片大学,南京集成电路大学即将 ...

  3. 终于有人把生成对抗网络(GAN)讲明白了

    导读:简而言之,机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术,而本文的主角--生成对抗网络则是深度学习中的一种分类. 作者:史丹青 来源:大数据DT(ID:hzdashuju) ...

  4. 『一起学AI』生成对抗网络(GAN)原理学习及实战开发

     参考并翻译教程:https://d2l.ai/chapter_generative-adversarial-networks/gan.html,加入笔者的理解和心得 1.生成对抗网络原理 在Col ...

  5. GAN(生成对抗网络) 解释

    GAN (生成对抗网络)是近几年深度学习中一个比较热门的研究方向,它的变种有上千种. 1.什么是GAN GAN的英文全称是Generative Adversarial Network,中文名是生成对抗 ...

  6. 深度学习框架PyTorch入门与实践:第七章 AI插画师:生成对抗网络

    生成对抗网络(Generative Adversarial Net,GAN)是近年来深度学习中一个十分热门的方向,卷积网络之父.深度学习元老级人物LeCun Yan就曾说过"GAN is t ...

  7. 生成对抗网络的损失函数如何设计_生成对抗网络(GAN)

    GAN的全称是 Generative Adversarial Networks,中文名称是生成对抗网络.原始的GAN是一种无监督学习方法,巧妙的利用"博弈"的思想来学习生成式模型. ...

  8. 七个不容易被发现的生成对抗网络(GAN)用例

    像许多追随AI发展的人一样,我无法忽略生成建模的最新进展,尤其是图像生成中生成对抗网络(GAN)的巨大成功.看看下面这些样本:它们与真实照片几乎没有区别! 从2014年到2018年,面部生成的进展也非 ...

  9. 一文看懂「生成对抗网络 - GAN」基本原理+10种典型算法+13种应用

    生成对抗网络 – Generative Adversarial Networks | GAN 文章目录 GAN的设计初衷 生成对抗网络 GAN 的基本原理 GAN的优缺点 10大典型的GAN算法 GA ...

最新文章

  1. werkzeug中服务器处理请求的实现
  2. JS-String方法
  3. 小波的秘密9_图像处理应用:图像增强
  4. ITK:将内核应用于非零图像中的每个像素
  5. 单片机8×8点阵显示简单汉字的程序_LED显示屏的显示原理原来是这样,科技实现梦想...
  6. 基于 WPF 模块化架构下的本地化设计实践
  7. 数据库表命名 单数复数_数据是还是数据是? “数据”一词是单数还是复数?
  8. 用法 stl_C++STL 容器篇
  9. 查看Centos7 系统位数
  10. 近一个月来的学习总结(今天的你比昨天的你进步了吗?)
  11. C语言小项目——动手打造属于自己的C语言IDE
  12. fw313r手机登录_迅捷(FAST)fw313r路由器手机设置教程
  13. 一款好看的 html 后台管理系统模板
  14. 第二十四讲 一阶常微分方程组
  15. GitHub-demo:Image-Stitching
  16. python实用案例合集
  17. 物联网导论-自动识别技术
  18. MATLAB标定工具箱的使用_camera calibration for matlab
  19. 计算机考研A区211大学,三本学生调剂A区211大学,自己的一些调剂经验供大学参考...
  20. 爬虫-某直播平台图片批量爬取url并下载

热门文章

  1. tensorflow.transpose() 举例
  2. a.cmd 文件里的内容
  3. 用c语言编写心里测试,求各位大神赐教!我做了一个“心理测试的答题卷”编程,总共有1...
  4. 《预训练周刊》第34期:使用图像级监督检测两万个类别、BigScience寻求建立强大的开放语言模型...
  5. 「预训练-调优」范式的未来
  6. Ubuntu18.04+RTX 2080Ti+CUDA 10.0 +cuDNN+PyTorch搭建深度学习环境
  7. 基于2-channel network的图片相似度判别
  8. TensorFlow练习24: GANs-生成对抗网络 (生成明星脸)
  9. 构建可以查找相似图像的图像搜索引擎的深度学习技术详解
  10. ​比9种SOTA GNN更强!谷歌大脑提出全新图神经网络GKATs