下载地址:https://u20150046.ctfile.com/fs/20150046-376632643

By Andrew Brock,Jeff Donahue,Karen Simonyan(2018)

论文摘要

尽管生成图像建模最近取得了进展,但从ImageNet等复杂数据集成功生成高分辨率、多样化的样本仍然是一个难以实现的目标。为此,我们在最大的规模下进行了生成对抗网络的训练,并研究了这种规模下的不稳定性。我们发现,将正交正则化应用于发生器,使其服从于一个简单的“截断技巧”,可以允许通过截断潜在空间来精细控制样本保真度和多样性之间的权衡。 我们的修改使得模型在类条件图像合成中达到了新的技术水平。 当我们在ImageNet上以128×128分辨率进行训练时,我们的模型(BigGAN)的初始得分(IS)为166.3,Frechet初始距离(FID)为9.6。

概览

DeepMind团队发现,当前的技术足以从现有数据集(如ImageNet和JFT-300M)合成高分辨率、多样化的图像。他们特别指出,生成对抗网络(GANs)可以生成看起来非常逼真的图像,如果它们在非常大的范围内进行训练,即使用比以前实验多2到4倍的参数和8倍的批处理大小。这些大规模的GAN,或BigGAN,是类条件图像合成的最新技术。

核心思想

1.随着批(batch)大小和参数数量的增加,GAN的性能更好。

2.将正交正则化应用到生成器中,使模型响应特定的技术(“截断技巧”),该技术提供了对样本保真度和多样性之间的权衡的控制。

最重要的成果

1.证明GAN可以从scaling中获益;

2.构建允许显式、细粒度地控制样本多样性和保真度之间权衡的模型;

3.发现大规模GAN的不稳定性;

4.BigGAN在ImageNet上以128×128分辨率进行训练:初始得分(IS)为166.3,之前的最佳IS为52.52;Frechet Inception Distance (FID)为9.6,之前最好的FID为18.65。

AI社区的评价

1.该论文正在为ICLR 2019做准备;

2.自从Big Hub上线BigGAN发生器之后,来自世界各地的AI研究人员正在玩BigGAN,来生成狗,手表,比基尼图像,蒙娜丽莎,海滨以及更多主题。

未来研究方向

1.迁移到更大的数据集以减少GAN稳定性问题;

2.探索减少GAN产生的奇怪样本数量的可能性。

可能的应用

取代昂贵的手工媒体创作,用于广告和电子商务的目的。

用于高保真自然图像合成的大规模GAN训练(Large Scale GAN Training For High Fidelity Natural Images)论文 pdf相关推荐

  1. (2018, BigGAN)用于高保真自然图像合成的大规模 GAN 训练

    Large scale gan training for high fidelity natural image synthesis 公众号:EDPJ 目录 0. 摘要 1. 简介 2. 背景 3. ...

  2. Paper之BigGAN:《Large Scale Gan Training For High Fidelity Natural Image Synthesis》翻译与解读

    Paper之BigGAN:<Large Scale Gan Training For High Fidelity Natural Image Synthesis>翻译与解读 目录 效果 1 ...

  3. Paper之BigGAN:ICLR 2019最新论文《LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS》(未完待续)

    Paper之BigGAN:ICLR 2019最新论文<LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS> ...

  4. 【PaddlePaddle论文复现】LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS阅读心得

    [PaddlePaddle论文复现]LARGE SCALE GAN TRAINING FOR HIGH FIDELITY NATURAL IMAGE SYNTHESIS阅读心得 作者:Andrew B ...

  5. 《Large scale GAN training for high fidelity natural image synthesis》论文阅读记录

    论文连接地址:https://arxiv.org/pdf/1809.11096.pdf Github地址:https://github.com/AaronLeong/BigGAN-pytorch 目录 ...

  6. Large scale GAN training for high fidelity natural image synthesis解读

    <Large scale GANtraining for high fidelity natural image synthesis>这篇文章对训练大规模生成对抗网络进行了实验和理论分析, ...

  7. [BigGAN] Large Scale GAN Training for High Fidelity Natural Image Synthesis

    1.目的 在大型数据集上训练class-conditional GAN,并探索相关的trick 2.贡献 1)数据集的扩大使得GAN的表现也随之提升.文章的网络参数量是之前工作的2~4倍,batch ...

  8. 入门机器学习(二十一)--大规模机器学习(Large Scale Machine Learning)

    大规模机器学习(Large Scale Machine Learning) 1. 大型数据集的学习(Learning With Large Datasets) 2. 随机梯度下降法(Stochasti ...

  9. 《预训练周刊》第22期:Fastformer:加法注意力就是你所需要的、用于蛋白建模的大规模预训练语言模型...

    No.22 智源社区 预训练组 预 训 练 研究 观点 资源 活动 关于周刊 超大规模预训练模型是当前人工智能领域研究的热点,为了帮助研究与工程人员了解这一领域的进展和资讯,智源社区整理了第22期&l ...

最新文章

  1. 【转】Silverlight 3 Beta 新特性解析(7)- Child Window和Shader Effect篇
  2. Ello讲述Haar人脸检测:易懂、很详细、值得 ...
  3. GridView 序号 排序 正序 倒序
  4. 设计模式:装饰模式(Decorator)
  5. ios模拟器的路径-打开沙盒路径
  6. 用户权限管理——DB设计篇
  7. shapefile中环状多边形处理问题
  8. django框架 day05
  9. python监控某个程序_写一个python的服务监控程序
  10. Hadoop3.1.3安装教程_单机/伪分布式配置_Hadoop3.1.3/Ubuntu18.04(16.04)
  11. ARINC429总线基础
  12. 7天快速掌握MySQL-DAY5
  13. Win10电脑卡顿原因和解决方法
  14. 爬取《西游记》小说所有章节内容
  15. 沉浸式逆向某汽车app
  16. Java实现无向连通图中的“割点”问题
  17. vue将文件流转成xlsx文件
  18. 百度地图瓦片层级范围对照表
  19. 【论文阅读笔记】Rethinking the Evaluation of Video Summaries 视频摘要评估
  20. Differentiable Scaffolding Tree for Molecule Optimization(论文解读)

热门文章

  1. Spring-boot+Vue = Fame 写blog的一次小结
  2. 讨论JDK的File.equal()
  3. cookie记录用户的浏览商品的路径
  4. ACM-ICPC历届世界总冠军名单1977-2015
  5. Oracle中merge into的使用
  6. WIN7 任务栏放右侧 有个BUG
  7. 1004_C/C++笔试题_13:16道c语言面试【8/9】
  8. NoSQL数据库探讨 - 为什么要用非关系数据库?
  9. python学习day3
  10. linux笔记:压缩解压命令gzip,gunzip,tar,zip,unzip,bzip2,bunzip2