stylegan2-pytorch 自己训练的model 出错
CUDA_VISIBLE_DEVICES=1 python train.py --batch 16 lmdb_test_0806/
解决方法:
CUDA_VISIBLE_DEVICES=1 python generate.py --size 256 --ckpt ./checkpoint/550000.pt
5500000 的这个模型是作者发布得模型
2800000这个是我自己训练的模型
我训练的步骤为:
python prepare_data.py --out LMDB_PATH --n_worker 8 .. DATASET_PATH
错误显示:
从
这个里面可以看到checkpoint 里面这个通道为12 在要加载的模型里面为3
作者训练的模型能加载成功,说明作者的模型也是3
运行:
CUDA_VISIBLE_DEVICES=1 python train.py --batch 16 lmdb_test_0806/
得到的模型 使用:
CUDA_VISIBLE_DEVICES=1 python generate.py --size 512 --ckpt ./checkpoint/000000.pt
现在比较怀疑是不是之前训练的时候 使用了 --arch swagan的原因
具体分析:这是stylegan2 的torgb 的代码:
swagan.py 的torgb的代码
验证:
在generate.py 里面的:
改成swagan 输入就可以了:
CUDA_VISIBLE_DEVICES=1 python generate.py --size 256 --ckpt ./checkpoint_0809/280000.pt
CUDA_VISIBLE_DEVICES=1 python generate.py --size 512 --ckpt ./checkpoint_0809/280000.pt
CUDA_VISIBLE_DEVICES=1 python generate.py --size 128 --ckpt ./checkpoint_0809/280000.pt
1024 的结果
总体看256 的效果最好?
原因是什么?
stylegan2-pytorch 自己训练的model 出错相关推荐
- Pytorch - 弹性训练原理
Pytorch在1.9.0引入了torchrun,用其替代1.9.0以前版本的torch.distributed.launch.torchrun在torch.distributed.launch 功能 ...
- 【Pytorch分布式训练】在MNIST数据集上训练一个简单CNN网络,将其改成分布式训练
文章目录 普通单卡训练-GPU 普通单卡训练-CPU 分布式训练-GPU 分布式训练-CPU 租GPU服务器相关 以下代码示例基于:在MNIST数据集上训练一个简单CNN网络,将其改成分布式训练. 普 ...
- 新手手册:Pytorch分布式训练
文 | 花花@机器学习算法与自然语言处理 单位 | SenseTime 算法研究员 目录 0X01 分布式并行训练概述 0X02 Pytorch分布式数据并行 0X03 手把手渐进式实战 A. 单机单 ...
- PyTorch 分布式训练DDP 单机多卡快速上手
PyTorch 分布式训练DDP 单机多卡快速上手 本文旨在帮助新人快速上手最有效的 PyTorch 单机多卡训练,对于 PyTorch 分布式训练的理论介绍.多方案对比,本文不做详细介绍,有兴趣的读 ...
- Pytorch 并行训练(DP, DDP)的原理和应用
Pytorch 并行训练(DP, DDP)的原理和应用 1. 前言 并行训练可以分为数据并行和模型并行. 模型并行 模型并行主要应用于模型相比显存来说更大,一块 device 无法加载的场景,通过把模 ...
- 5. 使用PyTorch预先训练的模型执行目标检测
5. 使用PyTorch预先训练的网络执行目标检测 PyTorch是什么? 使用PyTorch训练第一个神经网络 使用PyTorch训练第一个卷积神经网络 使用预训练网络进行PyTorch图像分类 使 ...
- 干货|Pytorch弹性训练极简实现( 附源码)
点击上方"视学算法",选择加"星标"或"置顶" 重磅干货,第一时间送达 作者丨颜挺帅@知乎(已授权) 来源丨https://zhuanlan ...
- 优化Pytorch模型训练的小技巧
在本文中,我将描述并展示4种不同的Pytorch训练技巧的代码,这些技巧是我个人发现的,用于改进我的深度学习模型的训练. 混合精度 在一个常规的训练循环中,PyTorch以32位精度存储所有浮点数变量 ...
- Pytorch - 分布式训练极简体验
由于工作需要,最近在补充分布式训练方面的知识.经过一番理论学习后仍觉得意犹未尽,很多知识点无法准确get到(例如:分布式原语scatter.all reduce等代码层面应该是什么样的,ring al ...
最新文章
- 树莓派 Zero 与 Zero W 对比
- php导包,Thinkphp5.1 导入第三方包的问题
- ddos压力测试_蓝盟IT外包,浅析DDoS攻击防御和DDoS攻击原理
- cnpm与npm指定有什么区别?
- 50种优化数据库的方法
- WebRTC 中收集音视频编解码能力
- 服务降级的概念及应用手段
- java 取dataset_Java LineDataSet.getYVals方法代码示例
- 二维概率密度求解边缘密度
- python numpy中bool变量转为1或0
- Android 自定义字体(otf,ttf等等)
- Oracle_PO_ER图/Oralce_PR_ER_Model/Standard_PO_Flow
- php模块配置,php配置-模块配置
- 【American English】美语的连读规则
- 软件构造设计模式III(转载整合)
- 渡河问题matlab程序,商人渡河问题(MATLAB版)
- 【综合算法】不考虑误差的TDOA定位
- USB音频编解码芯片电路方案设计(原理图)|TYPEC音频方案|TYPEC扩展坞方案|USB音频方案
- 玩转华为数据中心交换机系列 | 配置基于MAC地址划分VLAN示例
- 二叉树遍历的非递归实现