CUDA_VISIBLE_DEVICES=1 python train.py --batch 16 lmdb_test_0806/

解决方法:

CUDA_VISIBLE_DEVICES=1 python generate.py --size 256 --ckpt ./checkpoint/550000.pt

5500000 的这个模型是作者发布得模型

2800000这个是我自己训练的模型

我训练的步骤为:

python prepare_data.py --out LMDB_PATH --n_worker 8 .. DATASET_PATH

错误显示:

这个里面可以看到checkpoint 里面这个通道为12 在要加载的模型里面为3

作者训练的模型能加载成功,说明作者的模型也是3

运行:

CUDA_VISIBLE_DEVICES=1 python train.py --batch 16 lmdb_test_0806/

得到的模型 使用:

CUDA_VISIBLE_DEVICES=1 python generate.py --size 512 --ckpt ./checkpoint/000000.pt

现在比较怀疑是不是之前训练的时候 使用了 --arch swagan的原因

具体分析:这是stylegan2 的torgb 的代码:

swagan.py 的torgb的代码

验证:

在generate.py 里面的:

改成swagan 输入就可以了:

CUDA_VISIBLE_DEVICES=1 python generate.py --size 256 --ckpt ./checkpoint_0809/280000.pt

CUDA_VISIBLE_DEVICES=1 python generate.py --size 512 --ckpt ./checkpoint_0809/280000.pt

CUDA_VISIBLE_DEVICES=1 python generate.py --size 128 --ckpt ./checkpoint_0809/280000.pt

1024 的结果

总体看256 的效果最好?

原因是什么?

stylegan2-pytorch 自己训练的model 出错相关推荐

  1. Pytorch - 弹性训练原理

    Pytorch在1.9.0引入了torchrun,用其替代1.9.0以前版本的torch.distributed.launch.torchrun在torch.distributed.launch 功能 ...

  2. 【Pytorch分布式训练】在MNIST数据集上训练一个简单CNN网络,将其改成分布式训练

    文章目录 普通单卡训练-GPU 普通单卡训练-CPU 分布式训练-GPU 分布式训练-CPU 租GPU服务器相关 以下代码示例基于:在MNIST数据集上训练一个简单CNN网络,将其改成分布式训练. 普 ...

  3. 新手手册:Pytorch分布式训练

    文 | 花花@机器学习算法与自然语言处理 单位 | SenseTime 算法研究员 目录 0X01 分布式并行训练概述 0X02 Pytorch分布式数据并行 0X03 手把手渐进式实战 A. 单机单 ...

  4. PyTorch 分布式训练DDP 单机多卡快速上手

    PyTorch 分布式训练DDP 单机多卡快速上手 本文旨在帮助新人快速上手最有效的 PyTorch 单机多卡训练,对于 PyTorch 分布式训练的理论介绍.多方案对比,本文不做详细介绍,有兴趣的读 ...

  5. Pytorch 并行训练(DP, DDP)的原理和应用

    Pytorch 并行训练(DP, DDP)的原理和应用 1. 前言 并行训练可以分为数据并行和模型并行. 模型并行 模型并行主要应用于模型相比显存来说更大,一块 device 无法加载的场景,通过把模 ...

  6. 5. 使用PyTorch预先训练的模型执行目标检测

    5. 使用PyTorch预先训练的网络执行目标检测 PyTorch是什么? 使用PyTorch训练第一个神经网络 使用PyTorch训练第一个卷积神经网络 使用预训练网络进行PyTorch图像分类 使 ...

  7. 干货|Pytorch弹性训练极简实现( 附源码)

    点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 作者丨颜挺帅@知乎(已授权) 来源丨https://zhuanlan ...

  8. 优化Pytorch模型训练的小技巧

    在本文中,我将描述并展示4种不同的Pytorch训练技巧的代码,这些技巧是我个人发现的,用于改进我的深度学习模型的训练. 混合精度 在一个常规的训练循环中,PyTorch以32位精度存储所有浮点数变量 ...

  9. Pytorch - 分布式训练极简体验

    由于工作需要,最近在补充分布式训练方面的知识.经过一番理论学习后仍觉得意犹未尽,很多知识点无法准确get到(例如:分布式原语scatter.all reduce等代码层面应该是什么样的,ring al ...

最新文章

  1. 树莓派 Zero 与 Zero W 对比
  2. php导包,Thinkphp5.1 导入第三方包的问题
  3. ddos压力测试_蓝盟IT外包,浅析DDoS攻击防御和DDoS攻击原理
  4. cnpm与npm指定有什么区别?
  5. 50种优化数据库的方法
  6. WebRTC 中收集音视频编解码能力
  7. 服务降级的概念及应用手段
  8. java 取dataset_Java LineDataSet.getYVals方法代码示例
  9. 二维概率密度求解边缘密度
  10. python numpy中bool变量转为1或0
  11. Android 自定义字体(otf,ttf等等)
  12. Oracle_PO_ER图/Oralce_PR_ER_Model/Standard_PO_Flow
  13. php模块配置,php配置-模块配置
  14. 【American English】美语的连读规则
  15. 软件构造设计模式III(转载整合)
  16. 渡河问题matlab程序,商人渡河问题(MATLAB版)
  17. 【综合算法】不考虑误差的TDOA定位
  18. USB音频编解码芯片电路方案设计(原理图)|TYPEC音频方案|TYPEC扩展坞方案|USB音频方案
  19. 玩转华为数据中心交换机系列 | 配置基于MAC地址划分VLAN示例
  20. 二叉树遍历的非递归实现

热门文章

  1. iso启动盘替换文件注意修改md5sum.txt
  2. [译] iOS 设计模式进阶
  3. Android:随笔—— ConstraintLayout 效率爆表的技巧
  4. oracle的class12驱动没有实现jdbc对clob或blob的存储, 解决办法
  5. shell 整理(36)===写斐波那契数列
  6. 详细认识一下CSS盒子模型
  7. java8 lamada表达式
  8. jquery仿搜狐投票动画代码
  9. 创建线程的函数CreateThread
  10. Community Server架构:博客业务详细分析(转)