命令

python scripts/train.py   \
--dataset_type=ffhq_encode \
--exp_dir=./logs/mytraining \
--workers=8 \
--batch_size=8 \
--test_batch_size=8 \
--test_workers=8 \
--val_interval=2500 \
--save_interval=5000 \
--encoder_type=BackboneEncoderUsingLastLayerIntoWPlus\
--start_from_latent_avg \
--lpips_lambda=0.8 \
--l2_lambda=1 \
--id_lambda=0.1

整合为单行为python scripts/train.py --dataset_type=ffhq_encode --exp_dir=./logs/mytraining --workers=8 --batch_size=8 --test_batch_size=8 --test_workers=8 --val_interval=2500 --save_interval=5000 --encoder_type=BackboneEncoderUsingLastLayerIntoWPlus --start_from_latent_avg --lpips_lambda=0.8 --l2_lambda=1 --id_lambda=0.1

尝试Downloading: "https://raw.githubusercontent.com/richzhang/PerceptualSimilarity/master/lpips/weights/v0.1/alex.pth" to /home/joselyn/.cache/torch/hub/checkpoints/alex.pth 然后报错:urllib.error.URLError: <urlopen error [Errno 111] Connection refused>

更换encoder_type 再执行python scripts/train.py --dataset_type=ffhq_encode --exp_dir=./logs/mytraining --workers=8 --batch_size=8 --test_batch_size=8 --test_workers=8 --val_interval=2500 --save_interval=5000 --encoder_type=GradualStyleEncoder --start_from_latent_avg --lpips_lambda=0.8 --l2_lambda=1 --id_lambda=0.1
仍然报相同的错误。而且还找不到这个是在哪里执行的。

找到了。 在coach 初始化中

     if self.opts.lpips_lambda > 0:self.lpips_loss = LPIPS(net_type='alex').to(self.device).eval()

初始化lpips损失的时候,需要下载。

再次尝试运行: --dataset_type=ffhq_encode --exp_dir=./logs/mytraining --workers=8 --batch_size=8 --test_batch_size=8 --test_workers=8 --val_interval=2500 --save_interval=5000 --encoder_type=GradualStyleEncoder --start_from_latent_avg --lpips_lambda=0.8 --l2_lambda=1 --id_lambda=0.1

报错RuntimeError: CUDA out of memory. Tried to allocate 1.00 GiB (GPU 0; 10.76 GiB total capacity; 8.43 GiB already allocated; 934.44 MiB free; 8.71 GiB reserved in total by PyTorch)
本机是2080ti 12G,接下来调整参数如下:--dataset_type=ffhq_encode --exp_dir=../logs/mytraining --workers=2 --batch_size=4 --test_batch_size=4 --test_workers=2 --val_interval=2500 --save_interval=5000 --encoder_type=GradualStyleEncoder --start_from_latent_avg --lpips_lambda=0.8 --l2_lambda=1 --id_lambda=0.1,再次尝试,仍然内存不足。

train-debug过程

  • train_dataset = ImagesDataset(source_root=dataset_args['train_source_root'], target_root=dataset_args['train_target_root'], source_transform=transforms_dict['transform_source'], target_transform=transforms_dict['transform_gt_train'], opts=self.opts)

    • ImagesDataset的构造函数为
     def __init__(self, source_root, target_root, opts, target_transform=None, source_transform=None):self.source_paths = sorted(data_utils.make_dataset(source_root))self.target_paths = sorted(data_utils.make_dataset(target_root))self.source_transform = source_transformself.target_transform = target_transformself.opts = opts
    
    • 计算结果如下:
    • 对应的测试集如下:
  • coach.train() 开始执行时,coach的参数信息如下:
    下面进入整体的训练循环中。
     while self.global_step < self.opts.max_steps:for batch_idx, batch in enumerate(self.train_dataloader):

batch_idx = 0, batch 是2张图片的list。为什么是2,batch_size不是4吗?

这里来回答一下为什么是2。
两个分表代表训练集的sample和label。这个是由imageDataset 类中__getitem__函数决定的。 具体如下:

 def __getitem__(self, index):from_path = self.source_paths[index]from_im = Image.open(from_path)from_im = from_im.convert('RGB') if self.opts.label_nc == 0 else from_im.convert('L')to_path = self.target_paths[index]to_im = Image.open(to_path).convert('RGB')if self.target_transform:to_im = self.target_transform(to_im)if self.source_transform:from_im = self.source_transform(from_im)else:from_im = to_imreturn from_im, to_im  # 返回的是x,y

每个元素是这样的,shape是 (4,3,256,256),其中4是batch_size的值。

  • 获取x和y: x, y = batch , x, y = x.to(self.device).float(), y.to(self.device).float()
  • 把x给psp 网络,进行前向计算: y_hat, latent = self.net.forward(x, return_latents=True)

下面我们进入到psp的前向计算过程

  • psp 网络的参数如下:
    其中latent_avg shape 是 (16,512) 为什么这里会是16呢?
  • codes = self.encoder(x) 获取编码器的结果。codes(tensor:[batch_size, 16,512])
  • if start_from_latent_avg and not learn_in_wcodes = codes + self.latent_avg.repeat(codes.shape[0], 1, 1) 。 codes(tensor:[batch_size, 16,512]),self.latent_avg shape(16,512)
  • images, result_latent = self.decoder([codes], input_is_latent=input_is_latent, randomize_noise=randomize_noise, return_latents=return_latents) 解码器输出预测图片。
    其中noise list:15,out 是图像特征 shape(4,64,512,512) decoder本身的参数如下
    返回的image shape(batch_size,3,512,512), 返回的latent 还是(4,16,512),但latent不是原来的latent了,他经过了如下的计算:
latent = styles[0].unsqueeze(1).repeat(1, inject_index, 1)
latent2 = styles[1].unsqueeze(1).repeat(1, self.n_latent - inject_index, 1)latent = torch.cat([latent, latent2], 1)

回到psp的前向过程

  • decoder得到的image在resize的情况下,进行images = self.face_pool(images) 。得到image 的shape为[4,3,256,256]

返回到coach 的train函数中

  • y_hat, latent = self.net.forward(x, return_latents=True) 得到了预测的图像和最终的latent_code。
  • loss, loss_dict, id_logs = self.calc_loss(x, y, y_hat, latent) 计算损失。
  • 后面的就可以不用管了。

CelebAMask-HQ 下载地址

https://github.com/switchablenorms/CelebAMask-HQ

划分数据集。 参考https://www.codeleading.com/article/6296310738/

  • transforms_dict = dataset_args['transforms'](self.opts).get_transforms()

【源码解析】psp training 过程相关推荐

  1. webserver接口_SpringBoot内置源码解析WebServer初始化过程

    WebServer 初始化过程 在上一节中 Spring Boot 初始化了 WebServer 对应的工厂类.同时,我们也知道对应 Web容器的WebServer实现类有:TomcatWebServ ...

  2. Spring 源码解析 - Bean创建过程 以及 解决循环依赖

    一.Spring Bean创建过程以及循环依赖 上篇文章对 Spring Bean资源的加载注册过程进行了源码梳理和解析,我们可以得到结论,资源文件中的 bean 定义信息,被组装成了 BeanDef ...

  3. roaringbitmap java,roaringbitmap 源码解析 bitmap add过程

    最近在做标签平台的分析引擎.底层涉及到位图的处理,所以涉及到roaringbitmap.

  4. JVM-白话聊一聊JVM类加载和双亲委派机制源码解析

    文章目录 Java 执行代码的大致流程 类加载loadClass的步骤 类加载器和双亲委派机制 sun.misc.Launcher源码解析 Launcher实例化 Launcher 构造函数 双亲委派 ...

  5. netty依赖_Netty系列之源码解析(一)

    接下来的时间灯塔君持续更新Netty系列一共九篇 当前:Netty 源码解析(一)开始 Netty 源码解析(二): Netty 的 Channel Netty 源码解析(三): Netty 的 Fu ...

  6. 谷歌BERT预训练源码解析(三):训练过程

    目录 前言 源码解析 主函数 自定义模型 遮蔽词预测 下一句预测 规范化数据集 前言 本部分介绍BERT训练过程,BERT模型训练过程是在自己的TPU上进行的,这部分我没做过研究所以不做深入探讨.BE ...

  7. 【EventBus】EventBus 源码解析 ( 注册订阅者 | 注册订阅方法详细过程 )

    文章目录 前言 一.EventBus 注册订阅者 二.注册订阅方法的具体过程 三.Subscription 类 前言 在上一篇博客 [EventBus]EventBus 源码解析 ( 注册订阅者 | ...

  8. Spark任务提交后是如何完成提交过程的?源码解析!

    Spark任务提交后是如何完成提交过程的?源码解析! 我们熟知的提交命令: spark­submit ­v ­­class xxx ­­master spark://xxx7077 .... 然后我们 ...

  9. Tomcat源码解析五:Tomcat请求处理过程

    前面已经分析完了Tomcat的启动和关闭过程,本篇就来接着分析一下Tomcat中请求的处理过程. 在开始本文之前,咋们首先来看看一个Http请求处理的过程,一般情况下是浏览器发送http请求-> ...

  10. Spring源码解析:自定义标签的解析过程

    2019独角兽企业重金招聘Python工程师标准>>> spring version : 4.3.x Spring 中的标签分为默认标签和自定义标签两类,上一篇我们探究了默认标签的解 ...

最新文章

  1. 关于运行中输入ping后,跳出“打开方式”选择对话框的问题
  2. mysql集群会备份数据吗_mysql集群即双机备份与主从复制
  3. tableView练习 -- QQ好友列表
  4. NG Command(命令)
  5. (24)VHDL实现与或非(行为描述)
  6. 使用物理硬盘_许迎果 第147期 机械硬盘的物理结构和逻辑结构
  7. redis如何进行分库存储和选择模糊清除缓存
  8. 计算机操作系统详细学习笔记(二):处理器管理
  9. FreeRTOS 教程指南 学习笔记 第三章 任务管理(二)
  10. Activiti6--入门学习--监听器
  11. wiki(维基)系统
  12. EasyX基础入门——这一篇就够啦
  13. ECharts 饼图指定颜色显示
  14. Windows 7 登录界面背景图片定制
  15. Linux基础命令---lp打印文件
  16. 百度网盘网页版视频在线倍速播放
  17. RTMP 直播推流时延
  18. 如何从零打造爆款小程序
  19. Delaunay三角形的算法之逐点插入算法
  20. jackson map转对象

热门文章

  1. 使用cmake宝葫芦炼化Opencv第一丹
  2. #边学边记 必修4 高项:对事的管理 第4章 项目进度管理之 制定进度计划
  3. 划片机在切割不同产品时,如何正确地选择划切刀?
  4. 50MHz生成400Hz详解
  5. Redis--模糊查询--方法/实例
  6. [模式识别].(希腊)西奥多里蒂斯第四版笔记2之__基于贝叶斯决策理论的分类器
  7. 【蓝桥杯预备营集结四】软件类 C/C++ 预备试题分析及解答
  8. 关键字signed的用处
  9. dgi数据治理_什么是数据治理?什么是数据安全治理?两者关系如何?
  10. 极地遥感学习笔记(一)——冰间水道