目录

1. NIPS 2016 Tutorial: Generative Adversarial Networks

2. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks(DCGAN)

3. Wasserstein GAN(WGAN)

4. Improved Training of Wasserstein GANs(WGAN-GP)

5. On the Regularization of Wasserstein GANs(WGAN-LP)

6. Is Generator Conditioning Causally Related to GAN Performance?

7. Neural Photo Editing with Introspective Adversarial Networks

8. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium

9. Spectral Normalization for Generative Adversarial Networks

10. Generalization and Equilibrium in Generative Adversarial Nets (GANs)


1. NIPS 2016 Tutorial: Generative Adversarial Networks

这是Ian Goodfellow的一个教程,介绍了GANS的重要性、它们的工作原理、与它们相关的研究前沿以及将GANS与其他方法结合起来最前沿的视觉模型。本教程首先介绍GANS的应用实例。然后,Ian Goodfellow对GANS和其他模型,如变分编码器进行了比较。Goodfellow后来解释了生成器和判别器是如何工作的,并且还描述了它们之间的关系。接下来,Goodfellow给出了改进GANS性能的一些技巧和窍门,以及与GANS相关的一些研究前沿。他还提及了GANS面临的问题,比如模式崩塌。最后,Goodfellow提出了一些实际操作和解决方法。

Paper link: https://arxiv.org/abs/1701.00160

2. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks(DCGAN)

这篇论文描述了一种使卷积GAN训练更加稳定的新型结构——深度卷积生成网络(DCGAN)。研究人员给出了这种结构的一些指导方针,例如为更深的结构移除全连接的隐藏层,为生成器和鉴别器使用 batch normalisation,在生成器中为除输出层之外的所有层使用ReLU,以及在鉴别器中的所有层使用LeakyReLU。

Paper link: https://arxiv.org/abs/1511.06434

3. Wasserstein GAN(WGAN)

本文提出了一种Wasserstein GAN(WGAN)来优化GANs的训练过程。借助于WGAN,作者避免了模式崩塌等问题,并提供了可以调试和超参数搜索的学习方式,使用weight clipping来进行了一个Lipschitz约束,但是将在下一篇文章中看到另一种技术,将改进这部分。

Paper link: https://arxiv.org/abs/1701.07875

4. Improved Training of Wasserstein GANs(WGAN-GP)

这篇论文发现,有时WGAN可能会出现不满意的结果,如产生不好的例子,不能收敛等。这是由于上面提到的weight clipping的使用。在这个工作中,研究人员提出了一种替代weight clipping命名梯度惩罚的方法,把这种结构称为WGAN-GP,并表明这种技术的使用极大地提高了WGAN的性能。

Paper link:https://arxiv.org/abs/1704.00028

5. On the Regularization of Wasserstein GANs(WGAN-LP)

为了提升GAN训练的稳定性,这篇论文提出了一种新的惩罚项来加强Lipschitz约束。他们把这种结构称为WGAN-LP,并且在他们的实验中,他们把它与上面提到的WGAN-GP进行比较。

Paper link: https://arxiv.org/abs/1709.08894

下面的论文提出了新的技术和结构,可以作为最前沿的tricks 来使生成式对抗网络的训练变得稳定。

6. Is Generator Conditioning Causally Related to GAN Performance?

本文提出了一种重要的技术Jacobian Clamping。通过该技术的帮助,研究者提供了GAN生成器的conditioning 和由这些GAN生成器表示的模型的“质量”之间存在因果关系的证据。

Paper link: https://arxiv.org/abs/1802.08768

7. Neural Photo Editing with Introspective Adversarial Networks

在这篇论文中,作者提出了感知图像编辑器(Neural Photo Editor),它是一个图像编辑界面,可以用生成神经网络的能力来对图像进行比较大的语义层面的合理修改。为了解决达到准确重建而不损失特征性质,作者提出了内省对抗式网络(Introspective Adversarial Network),该网络将GAN和VAE创新地结合在一起。通过使用基于权重分享的扩张卷积(weight-shareddilated convolutions)计算块,该模型可以有效的获得远程依赖(long-rangedependencies),并且通过正交正则化(Orthogonal Regularization)这样一个新的权重正则化方法,提升了泛化表现。作者在CeleA,SVHN和CIFAR-100数据库上验证了模型的有效性,并且产生了具有高视觉保真度的样例和重构图片。

Paper link: https://arxiv.org/abs/1609.07093

8. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium

在这篇论文中, 作者引入两种基于时间尺度的跟新规则,它们被证明可以收敛到稳定的局部纳什均衡。

Paper link: https://arxiv.org/abs/1706.08500

9. Spectral Normalization for Generative Adversarial Networks

这篇文章提出一种称为spectral normalization的新的权重归一化技术,以稳定GAN鉴别器的训练。

在高维空间中,鉴别器做出的密度比例估计往往不准确,而且在训练中非常不稳定,生成器网络也难以学到目标分布的多模态结构。更糟糕的是,当生成的和目标数据分布区域不相交的时候,就存在着一个能完美区分生成的数据和目标数据的鉴别器。一旦遇到了这样的状况、训练出了这样的鉴别器,生成器的训练就基本停滞了,因为这样产生的鉴别器的关于输入的导数就成了0。这种情况让作者们思考如何引入一些新的限制,避免训练出这样的鉴别器。在这篇论文中,作者们提出了一种新的权重正则化方法,称作“spectral normalization”(光谱标准化),它可以稳定鉴别器网络的训练过程。这种正则化方法的性质很让人喜欢:

(1)只需要调节Lipschitz常数一个超参数,而且想到达到令人满意的模型表现也不需要反复调试仅有的这一个参数;
(2)方法的实现非常简单,额外的计算开销也很小。

Paper link: https://arxiv.org/abs/1802.05957

10. Generalization and Equilibrium in Generative Adversarial Nets (GANs)

泛化能力是衡量生成模型好坏的一个重要标准,本文指出 JS 散度、Wasserstein 距离都不能很好地衡量模型的泛化能力,为此,文中提出了一种基于 discriminator 的 neural network divergence/distance,用于衡量模型的泛化能力。此外作者还证明了 WGAN 的纯策略纳什均衡解的存在性,并提出MIX+GAN(混合策略 GAN)的训练模式,该模式在实际训练中更稳定,并且证明了混合策略纳什均衡解的存在性。

Paper link: https://arxiv.org/abs/1703.00573

GAN论文阅读路线图,更快地通过大量阅读入门GAN相关推荐

  1. java和php哪个运行更快,java和php哪个入门快?-php教程

    跟着互联网的高速倒退,愈来愈多的人开端抉择处置较量争论机行业,而想要处置相干工作的话,理解相干编程言语也是必备的一项技艺.可是有不少冤家正在抉择要学习的编程言语时就被难到了,想晓得哪一种言语入门更快, ...

  2. 2018最佳GAN论文回顾(上)

    我很高兴今年参加了一个研究项目,这要求我必须熟悉大量用于计算机视觉方面的深度学习领域的资料.我对过去两.三年内取得的进展感到惊讶,这真的非常令人兴奋和鼓舞,所有不同的子领域,如图像修复.对抗性样本.超 ...

  3. 2018值得一看的GAN论文回顾

    ↑ 点击上方[计算机视觉联盟]关注我们 (文中所有论文联盟已打包,回复关键词[GAN]即可获取!) 我很高兴今年参加了一个研究项目,这要求我必须熟悉大量用于计算机视觉方面的深度学习领域的资料.我对过去 ...

  4. 泊松流生成模型:兼顾质量与速度,比扩散模型更快更好?

    来源:公众号 机器之心 授权 来自MIT的研究者提出了一种新的生成模型,名为泊松流模型 .它在图像生成质量.生成速度和鲁棒性上比扩散模型更好.本文已被NeurIPS 2022接收. 引言 扩散模型最早 ...

  5. ECCV2022 | 生成对抗网络GAN论文汇总(图像转换-图像编辑-图像修复-少样本生成-3D等)...

    图像转换/图像可控编辑 视频生成 少样本生成 图像外修复/结合transformer GAN改进 新数据集 图像增强 3D 图像来源归属分析 一.图像转换/图像可控编辑 1.VecGAN: Image ...

  6. GAN 生成对抗网络论文阅读路线图

    路线图按照下面四个准则构建而成:  ●  从提纲到细节  ●  从经典到前沿  ●  从通用领域到特定领域  ●  专注于最先进的技术 Generative Adversarial Networks ...

  7. 深度学习论文阅读路线图

    https://www.toutiao.com/a6703859415763649031/ 作者:floodsun编译:ronghuaiyang 这是作者一年前整理的东西,有些最新的论文没有包含进去, ...

  8. OpenAI最新发布通用人工智能路线图!AGI比想象中来得更快!

    点击下方卡片,关注"CVer"公众号 AI/CV重磅干货,第一时间送达 点击进入->[计算机视觉]微信技术交流群 转载自:机器之心 | 编辑:泽南.小舟 通用人工智能的出现可 ...

  9. Github标星24k,127篇经典论文下载,这份深度学习论文阅读路线图不容错过

    作者  | Floodsung 翻译 | 黄海广 来源 | 机器学习初学者(ID:ai-start-com) [导读]如果你是深度学习领域的新手,那么你可能会遇到的第一个问题是"我应该从哪篇 ...

最新文章

  1. O2O业务都跳不出这五大领域
  2. 为什么阿里巴巴RPC接口不允许使用枚举类型?
  3. C#: switch语句的重构
  4. JAVA中list.contains()方法,要重写equals(),hashcode()方法
  5. 【转】C#运算符重载**
  6. JavaScript 基础 数据类型与运算符
  7. import time python_似乎不能在Python的同一脚本中使用import time和import datetime
  8. 实时操作系统和优先级反转
  9. qt_2_QT5.6+VS2015配置
  10. 大写金额用计算机简单些,小写金额转换为大写金额(C实现)
  11. Flutter 自定义实现时间轴、侧边进度条
  12. 面向对象的PHP编程
  13. 十一、实现QQ登陆(第三方的登陆)(用户部分)
  14. jQuery-动画效果
  15. 王者荣耀怎么删掉注销的服务器,王者荣耀转区可以取消吗 跨系统角色转移怎么取消...
  16. 游戏开发插件整理(亲测可用)
  17. 【静态时序分析】如何寻找时序分析的起点与终点
  18. main函数带有参数
  19. 泛微OA 开发环境搭建 IDEA
  20. java源码怎么使用,系列篇

热门文章

  1. 字符串转换成json的三种方式
  2. 2019.5.18-5.19 ACM-ICPC 全国邀请赛(西安)赛后总结
  3. Python基础学习篇-2-数值运算和字符串
  4. Java程序员---技能树
  5. 前端笔试题面试题记录(下)
  6. centos基础命令 第二节
  7. FNV哈希算法【转】
  8. 职场必须要会的餐桌礼仪
  9. 动手动脑及课后实践3
  10. mini2440-Openwrt启动信息