论文:https://arxiv.org/pdf/1701.07875.pdf

介绍:

在非监督学习中学习概率分布的意义在哪儿?论文使用极大似然估计的理论来解释,使用一个分布来近似真实分布,并通过最小化连个分布之间的KL散度来求解。论文解释了生成模型GAN与VAE的特点:不用直接求解原分布,而通过生成一个随机变量z的分布P(z),并通过参数化方程(比如神经网络等)生成一个确定分布,并将不断的接近从而求解非监督问题。

论文的主要工作:① 在理论上解释了Earth Mover(EM)距离,并比较了常用的其他距离和散度公式 ② 定义了一个新的GAN生成模型WGAN,通过最小化近似笔记EM距离 ③ WGAN解决了GAN在训练中不稳定等问题,WGAN训练鉴别器D过程中可以连续的评估EM距离。

不同的距离公式;

论文通过举例来证明EM在低维空间中仍然连续并可求导,如下图所示,EM连续并可梯度下降,JS不连续。

论文通过两个定理,和一个推论在证明EM在度量真实和重建分布的距离时,性能最优异,定理及推论如下(本文不作定理及推论的证明):

WGAN:

由W-Distance得:

最大化公式(2)的期望,论文采用神经网络来训练权重w,使用反向传播算法更新。为了在一个小的空间中训练参数w,论文采在每次梯度更新时使用了一个clip。

该clip不能太大,太大会使得训练时间过长,也不能太小,太小会导致梯度弥散。

其中函数的Lipschitz常数为

论文提出,论文没有使用神经网络来代替这个clip项,这个方向也可能成为未来研究方向。

实验:

损失函数标准:论文提出了基于WGAN的损失函数标准

 

左图是使用W-Estimator,右图是使用JS-Estimator,左图显示,GAN的损失趋向于收敛(论文提出这是一个重要的进展)

同时,论文使用用了RMSProp而不是使用常用的Adam优化算法,这一点在伪代码里也有展示。

论文使用DCGAN的生成器,实验效果图如下:

思考:

① 连续评估EM距离的意义在哪儿?离散评估有什么不可以?

连续评估EM距离,在论文中经过证明,也就是上面的第一张图片,EM距离可以收敛到0,而想JS距离和KL散度等,都不能收敛到0。EM将会使得GAN在优化时,在如论文中 exmple1 中的均匀分布中,仍然可以收敛。

由于状态分布是连续的,所以不可以使用离散评估。

② WGAN与其他GAN相比优势在哪里?原来的GAN有什么问题?

首先回答原来的GAN有什么问题:① 判别器越好,生成器梯度消失越严重 ② 判别器越好的情况下,生成的模型多样性不够训练困难,生成器和判别器的loss无法指示训练进程。

为什么会有这些问题?文章链接:https://zhuanlan.zhihu.com/p/25071913

WGAN的改进之处:①判别器最后一层去掉sigmoid ②生成器和判别器的loss不取log ③ 每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c ④ 不要用基于动量的优化算法Adam,使用RMSProp

论文中WGAN相比于原始的GAN优势在于:① 将GAN的训练过程,也就是loss指示了训练进程 ② 解决了生成样本的多样性的问题 ③ 使用DCGAN的网络结构,不需要重新设计新的网络结构

③ 论文中提到的clip项在公式的什么地方显示出来?

clip指的是算法伪代码中的c,也就是论文中提到的k,其中,该clip是一个范围,论文中采用(-0.01, 0.01)。

④ WGAN的评估标准是什么?该标准是怎么来的?意义又在何处?

待思考

⑤ 为什么不使用常用的Adam算法,而使用RMSProp进行优化?

待思考

⑥ 为什么判别器最后一层去掉sigmoid函数?

GAN的判别器做的是真假二分类任务,所以最后一层是sigmoid,但是现在WGAN中的判别器做的是近似拟合Wasserstein距离,属于回归任务,所以要把最后一层的sigmoid拿掉。

WGAN(wasserstein GAN)相关推荐

  1. WGAN(Wasserstein GAN)看这一篇就够啦,WGAN论文解读

    WGAN论文地址:[1701.07875] Wasserstein GAN (arxiv.org) WGAN解决的问题 原始GAN训练过程中经常遇到的问题: 模式崩溃,生成器生成非常窄的分布,仅覆盖数 ...

  2. 收敛速度更快更稳定的Wasserstein GAN(WGAN)

    生成对抗网络(GANs)是一种很有力的生成模型,它解决生成建模问题的方式就像在两个对抗式网络中进行比赛:给出一些噪声源,生成器网络能够产生合成的数据,鉴别器网络在真实数据和生成器的输出中进行鉴别.GA ...

  3. W-GAN系 (Wasserstein GAN、 Improved WGAN)

    习总结于国立台湾大学 :李宏毅老师 Wasserstein GAN  .  Improved Training of Wasserstein GANs 本文outline 一句话介绍WGAN: Usi ...

  4. 还记得Wasserstein GAN吗?

    ICML 2017 仍然在悉尼火热进行中,Facebook 研究院今天也发文介绍了自己的 ICML 论文.Facebook有9篇论文被 ICML 2017接收,这些论文的主题包括语言建模.优化和图像的 ...

  5. 令人拍案叫绝的Wasserstein GAN

    雷锋网按:本文作者郑华滨,原载于知乎.雷锋网已获转载授权. 在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文<Wassertein GAN>却在Reddit的 ...

  6. Wasserstein GAN最新进展:从weight clipping到gradient penalty,更加先进的Lipschitz限制手法

    作者:郑华滨 链接:https://www.zhihu.com/question/52602529/answer/158727900 来源:知乎 著作权归作者所有.商业转载请联系作者获得授权,非商业转 ...

  7. 经典论文复现 | ICML 2017大热论文:Wasserstein GAN

    过去几年发表于各大 AI 顶会论文提出的 400 多种算法中,公开算法代码的仅占 6%,其中三分之一的论文作者分享了测试数据,约 54% 的分享包含"伪代码".这是今年 AAAI ...

  8. Wasserstein GAN

    在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文<Wasserstein GAN>却在Reddit的Machine Learning频道火了,连Goodfel ...

  9. 《Wasserstein GAN》继续 GAN

    自从2014年Ian Goodfellow提出以来,GAN就存在着训练困难.生成器和判别器的loss无法指示训练进程.生成样本缺乏多样性等问题.从那时起,很多论文都在尝试解决,但是效果不尽人意,比如最 ...

最新文章

  1. android获取指针空间大小_腾讯笔试题:浅谈计算机中cpu位数和指针
  2. SSH免密登录(内含批量配置脚本)
  3. Boost:是否支持sse4.1指令的测试程序
  4. python数据分析与展示 pdf课件_python数据分析与展示 课件 相关实例(示例源码)下载 - 好例子网...
  5. 不能使用for循环,传入n和m, 生成一个长度为n,每一项都是m的数组
  6. 嵌入式工作笔记0006---半导体中的IP核是什么意思
  7. C语言进制转换 十进制转换为任意进制
  8. 计算机软件工程自考,自考软件工程试题及答案2021年10月
  9. 实验一:线性表的基本操作实现及其应用
  10. CentOS7像外部163邮箱发送邮件
  11. 关于第十三届蓝桥杯大赛校内选拔赛的通知
  12. mac - 让焦点迅速定位到分屏显示中
  13. f1签证计算机专业容易拒签吗,美国签证F1被拒,拒签调档出来原来是这个原因...
  14. 小米6无人直播详细教程+工具包
  15. [Linux] 读书笔记之:Linux程序设计(第4版)(ch1-7) [ 学如逆水行舟,不进则退 ]...
  16. zblogphp 广告联盟_天兴工作室:广告位大全插件(网站各种广告位集合效果)
  17. 汇编指令-MOV与ldr区别
  18. pycharm调试代码139错误的可能解决办法
  19. 接地电阻测试仪测量接地电阻的规范要求
  20. 移动支付新发展:开拓支付领域,不止于支付服务

热门文章

  1. Python数据分析就业前景市场分析报告及暑期规划
  2. 统计“总计”和 导出excel表格
  3. 会议室如何实施6s管理?
  4. 五、大话HTTP协议-HTTP之URL编码、身份认证问题
  5. 我国新能源汽车累计推广1033万辆
  6. 进阶笔记——java并发编程三特性与volatile
  7. 家庭装修预约APP软件开发
  8. Target EDI 管理
  9. 斐讯k1S v21.4.6.12 版本免拆机 刷机教程
  10. 台湾教育家高震东先生的演讲稿