在本教程中,我们将替换 StarGAN V2 模型中的自适应实例归一化(AdaIN)层,并在分辨率为 512x512 像素的图像上对其进行训练。

为什么是 StarGAN V2?

今天,有许多模型可以生成高质量的图像。具体来说,对于属性交换任务(2021 年),最好的质量是由 StyleGAN 的进一步发展的模型提供的,或者是通过对其进行提炼而获得的,这需要大量的计算时间来训练新的数据域。在单个 Google Colab GPU 上从头开始训练 24 小时后,所提出的模型会生成文章开头所示的图像。

StarGAN V2 架构

StarGAN V2[1] 是一个图像到图像模型,它使用由条件编码器管理的 AdaIN 层来传输图像风格。它分别使用有关对象结构及其纹理的信息,从而允许用户获得组合图像。

StarGAN 与图像生成相关的部分如下图所示。它们包括 ResNet-like[2] 编码器——用绿色标记,解码器带有 AdainResBlk 模块(将在下面描述)——紫色,以及一组具有共享头层的条件相关样式信息编码器(灰蓝色)——用绿松石标记。

StarGAN 的工作原理如下。 一开始,风格编码器从图像中提取低级特征。 然后生成器编码对象的几何信息并将其提供给 AdainResBlk 模块的金字塔。

每个 AdainResBlk 块都包含 StyleGAN 的自适应实例归一化(AdaIN)模块 [3],它通过从样式编码器接收到的信息来调制抽象对象的几何表示。

让我们开始我们的项目,用来自 StyleGAN 2[4] 的调制卷积替换 AdaIN 归一化。

StarGAN 修改

首先,我们需要原始 StarGAN 的 repo:git clone https://github.com/clovaai/stargan-v2.git。

AdainResBlk 的源代码位于 core/model.py 文件中。 代码如下所示。

class AdainResBlk(nn.Module):def __init__(self, dim_in, dim_out, style_dim=64, w_hpf=0,actv=nn.LeakyReLU(0.2), upsample=False):# ...def _build_weights(self, dim_in, dim_out, style_dim=64):self.conv1 = nn.Conv2d(dim_in, dim_out, 3, 1, 1)self.conv2 = nn.Conv2d(dim_out, dim_out, 3, 1, 1)self.norm1 = AdaIN(style_dim, dim_in)self.norm2 = AdaIN(style_dim, dim_out)if self.learned_sc:self.conv1x1 = nn.Conv2d(dim_in, dim_out, 1, 1, 0, bias=False)def _shortcut(self, x):if self.upsample:x = F.interpolate(x, scale_factor=2, mode='nearest')if self.learned_sc:x = self.conv1x1(x)return xdef _residual(self, x, s):x = self.norm1(x, s)x = self.actv(x)if self.upsample:x = F.interpolate(x, scale_factor=2, mode='nearest')x = self.conv1(x)x = self.norm2(x, s)x = self.actv(x)x = self.conv2(x)return xdef forward(self, x, s):out = self._residual(x, s)if self.w_hpf == 0:out = (out + self._shortcut(x)) / math.sqrt(2)return out

现在,我们用 lucidrains StyleGAN 2 模块 [5] 替换了 AdainResBlk。 类似于 AdainResBlk 的功能在 GeneratorBlock 类(文件 stylegan2_pytorch.py)中实现。 让我们将这个类及其依赖项——Conv2DMod、Blur 和 RGBBlock 复制到我们的仓库中。

生成器块的最终版本如下所示。

from modulated_convolution import Conv2DMod, RGBBlock    class GenResBlk(nn.Module):def __init__(self, dim_in, dim_out, style_dim=64, fade_num_channels=4, fade_num_hidden=32,actv=nn.LeakyReLU(0.2), upsample=False):super().__init__()self.actv = actvself.upsample = upsampleself.needSkipConvolution = dim_in != dim_outself.conv1 = Conv2DMod(dim_in, dim_out, 3, stride=1, dilation=1)self.conv2 = Conv2DMod(dim_out, dim_out, 3, stride=1, dilation=1)self.style1 = nn.Linear(style_dim, dim_in)self.style2 = nn.Linear(style_dim, dim_out)if self.needSkipConvolution:self.conv1x1 = nn.Conv2d(dim_in, dim_out, 1, 1, 0, bias=False)self.toRGB = RGBBlock(style_dim, dim_out, upsample, 3)def forward(self, x, rgb, s):if self.upsample:x = F.interpolate(x, scale_factor=2, mode='bilinear', align_corners=False)if self.needSkipConvolution:x_ = self.conv1x1(x)else:x_ = xs1 = self.style1(s)x = self.conv1(x, s1)x = self.actv(x)s2 = self.style2(s)x = self.conv2(x, s2)x = self.actv(x + x_)rgb = self.toRGB(x, rgb, s)return x, rgb

为简单起见,我们不会改变 StyleGAN 使用两个流——特征流和 RGB 图像流的原始概念,因此有必要修改生成器的前向方法。

替换最近的几行:

def forward(self, x, s, masks=None):x = self.from_rgb(x)cache = {}for block in self.encode:if (masks is not None) and (x.size(2) in [32, 64, 128]):cache[x.size(2)] = xx = block(x)for block in self.decode:x = block(x, s)if (masks is not None) and (x.size(2) in [32, 64, 128]):mask = masks[0] if x.size(2) in [32] else masks[1]mask = F.interpolate(mask, size=x.size(2), mode='bilinear')x = x + self.hpf(mask * cache[x.size(2)])return self.to_rgb(x)

使用下一个代码块:

def forward(self, x, s, masks=None):x = self.from_rgb(x)cache = {}for block in self.encode:if (masks is not None) and (x.size(2) in [32, 64, 128]):cache[x.size(2)] = xx = block(x)rgb = Nonefor block in self.decode:x, rgb = block(x, rgb, s)if (masks is not None) and (x.size(2) in [32, 64, 128]):mask = masks[0] if x.size(2) in [32] else masks[1]mask = F.interpolate(mask, size=x.size(2), mode='bilinear')x = x + self.hpf(mask * cache[x.size(2)])return rgb

为避免测试调用时出现 OOM,请在 debug_image 函数(文件 utils.py)中注释“潜在引导图像合成”和“参考引导图像合成”块。

对于 512x512 图像的训练模型,我们必须将批量大小减少到 1。为了稳定训练过程,我们将使用假图像缓冲区(来自 pytorch-CycleGAN-and-pix2pix repo),它允许我们使用以下方法更新鉴别器的权重 生成数据的历史记录,而不是最新的假输出。

使用 Colab 的注意事项

如果您将在 Colab 环境中训练模型,您可以修改 _save_checkpoint 和 _load_checkpoint 函数中的步骤参数(在任何情况下,记得Google Drive 创建备份)并在将当前模型复制到 Drive 的训练函数中添加下一行:

# save model checkpoints
if (i+1) % args.save_every == 0:self._save_checkpoint(step=i+1)print("Saving on GDrive...")import subprocesssubprocess.run(f"cp --force -R ./expr/ /content/drive/MyDrive/stargan_animals_expr/", shell=True, check=True)

模型训练

将 AFHQ 放入 data/ 文件夹后,我们就可以开始训练了。

可以通过以下方式开始对大小为 256x256 的图像进行训练:

python main.py --img_size 256 --resume_iter 100 --mode train --num_domains 3 --w_hpf 0 \--lambda_reg 1 --lambda_sty 1 --lambda_ds 2 --lambda_cyc 1 \--train_img_dir data/afhq/train --val_img_dir data/afhq/val \--batch_size 4 --sample_every 100 --save_every 500

要在 512x512px 分辨率上进行训练,请运行:

python main.py --img_size 256 --resume_iter 100 --mode train --num_domains 3 --w_hpf 0 \--lambda_reg 1 --lambda_sty 1 --lambda_ds 2 --lambda_cyc 1 \--train_img_dir data/afhq/train --val_img_dir data/afhq/val \--batch_size 4 --sample_every 100 --save_every 500

本文的源代码:https://github.com/Hramchenko/modulated_stargan

引用

Yunjey Choi, Youngjung Uh, Jaejun Yoo, Jung-Woo Ha, StarGAN v2: Diverse Image Synthesis for Multiple Domains.
Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, Deep Residual Learning for Image Recognition
Tero Karras, Samuli Laine, Timo Aila, A Style-Based Generator Architecture for Generative Adversarial Networks.
Tero Karras, Samuli Laine, Miika Aittala, Janne Hellsten, Jaakko Lehtinen, Timo Aila, Analyzing and Improving the Image Quality of StyleGAN
https://github.com/lucidrains/stylegan2-pytorch/

本文作者:Vitaliy Hramchenko

使用Modulated Convolutions修改 StarGAN V2相关推荐

  1. 这只狗,其实是猫变的:“撸猫神器”StarGAN v2来了!

      新智元报道  来源:arxiv 猫变狗.狗变虎.虎变豹,男人变女人,无缝切换是个什么神奇体验? 最近,一家名为Clova Research的机构的研究团队就像让用户体验一把这种神奇,他们提出的St ...

  2. StarGAN v2: Diverse Image Synthesis for Multiple Domains (多域多样性图像合成)

    前言 StarGAN v2: Diverse Image Synthesis for Multiple Domains  (多域多样性图像合成) In CVPR 2020. Paper: https: ...

  3. starGAN v2 论文阅读

    StarGAN v2 文章目录 StarGAN v2 摘要 一.介绍 二.StarGANv2 1.网络结构 2.loss设置 三.实验结果展示 四.总结 Reference 摘要 优秀的图像-图像转换 ...

  4. StarGAN v2 : Diverse Image Synthesis for Multiple Domains 不同图像多领域合成阅读理解

    StarGAN v2 : Diverse Image Synthesis for Multiple Domains 不同图像多领域合成阅读理解 目前该论文已经有TensorFlow算法实现,目前本人在 ...

  5. 基于飞桨paddlepaddle复现StarGAN v2

    基于飞桨paddlepaddle复现StarGAN v2 百度顶会论文复现营 StarGAN v2: Diverse Image Synthesis for Multiple Domains 通过对论 ...

  6. [CVPR2020] StarGAN v2

    目录 网络改进 具体结构 Generator Discriminator Style Encoder Mapping network 损失函数 Adversarial objective Style ...

  7. 鬼谷八荒 for Mac v0.8.3018 附加修改器 v2.14

    鬼谷八荒 for Mac 是一款开放世界的沙盒修仙游戏.结合了修仙体系与山海经文化背景,体验从凡人一步步修行成长为强者的过程,与山海经中各种妖.兽战斗.你是否能坚守本心,与困难做斗争:慎做抉择,把握自 ...

  8. MCAN论文进阶——MoVie: Revisting Modulated Convolutions for Visual Counting and Beyond 论文笔记

    MCAN论文进阶--MoVie: Revisting Modulated Convolutions for Visual Counting and Beyond 论文笔记 一.Abstract 二.引 ...

  9. StarGAN v2: Diverse Image Synthesis for Multiple Domain

    作者:禅与计算机程序设计艺术 1.简介 在过去的十年里,生成对抗网络(GANs)已经推动了图像.视频.音频等各种数据形式的创作和转化.通过学习一种已知图像的模式并生成类似但不完全相同的新图像,这种生成 ...

最新文章

  1. 珍藏版:3万字详解mRNA疫苗
  2. openssl之BIO系列之1---抽象的IO接口
  3. 逐鹿东南亚,Lazada增长飞轮再加速
  4. Scala比较器:Ordered与Ordering
  5. 创造型模式——建造者模式
  6. elasticsearch中的优先级线程池
  7. tomcat 7配置数据库连接池,使用SQL Server2005实现
  8. 高级GIS-0.整体裁剪
  9. lammps建模_lammps建模方法,即生成data文件
  10. excel填充序列_excel填充序列不见了怎么办-excel
  11. 微信支付分免密支付接口服务如何开通?
  12. 二叉树的基本性质和特殊的二叉树、B树
  13. 语音邮件 voice mail 概述
  14. elasticsearch高级搜索功能多维度分享
  15. NPDP知识推送-第七章产品生周期管理(4)
  16. Excel 2016不能双击一次性打开excel文件
  17. mysql没有exe_MySQL解压之后没有exe程序,怎么解决,怎么安装访问
  18. MySQLSyntaxErrorException sql语句语法错误
  19. rz命令上传文件乱码,无关be参数
  20. 数据结构之(二叉)堆

热门文章

  1. 酷狗社招面试 java_酷狗面试经验
  2. PPT后缀,要一起来认一认吗?
  3. 英文单词之说文解字(8)
  4. js原生实现楼梯滚动效果
  5. 动态代理及JDK代理源码解析
  6. 狼叔:如何正确的学习Node.js
  7. Ubuntu系统修复
  8. 给定一个非负整数num,范围中的每个数字i 计算其二进制中1的个数
  9. hhuoj:1398 红与黑
  10. 运营商告警数据根因分析方案和代码示例