every blog every motto: You can do more than you think.

0. 前言

训练过程中,停止,后续接着训练

1. 正文

1.1 保存信息

每个eopch以后需要保存后续接着训练的信息,信息包括,model、optimizer、epoch

for epoch in range(start_epoch,end_epoch):for iter ,data in enumerate(dataloader):pass# -------------------------------------------------------# 每个epoch 后保存checkpoint,以便断点继续训练checkpoint = {'eopch': epoch,'model_state_dict': self.net.state_dict(),'optimizer_state_dict': self.optimizer.state_dict()}torch.save(checkpoint, os.path.join(self.save_chpt,'epoch_%d_loss_%3f.pth'.format(epoch, epoch_fuse_loss / ite_num_per_epoch)))print('保存各参数完成,用于后续继续训练。')# -------------------------------------------------------

1.2 继续训练

需要先实例化模型和优化器,然后进行如下操作

if self.subsequent_training:  # 如果是断点继续上次训练checkpoints = torch.load(os.path.join(self.save_chpt, 'xxx.pth'))self.start_epoch = checkpoints['epoch'],self.optimizer.load_state_dict(checkpoints['optimizer']),self.net.load_state_dict(checkpoints['model'])print('继续上次训练,各参数为:', checkpoints)

参考文献

[1] https://zhuanlan.zhihu.com/p/375461811
[2] https://www.zhihu.com/question/313486088?sort=created
[3] https://zhuanlan.zhihu.com/p/133250753
[4] https://www.jianshu.com/p/1cd6333128a1

【pytorch】(断点)继续上次训练相关推荐

  1. pytorch多gpu并行训练操作指南

    关注上方"深度学习技术前沿",选择"星标公众号", 资源干货,第一时间送达! 来源:知乎 作者:link-web 链接:https://zhuanlan.zhi ...

  2. pytorch多gpu并行训练

    pytorch多gpu并行训练 link-web 转自:pytorch多gpu并行训练 - 知乎 目录(目录不可点击) 说明 1.和DataParallel的区别 2.如何启动程序的时候 2.1 单机 ...

  3. TSN算法的PyTorch代码解读(训练部分)

    这篇博客来读一读TSN算法的PyTorch代码,总体而言代码风格还是不错的,多读读优秀的代码对自身的提升还是有帮助的,另外因为代码内容较多,所以分训练和测试两篇介绍,这篇介绍训练代码,介绍顺序为代码运 ...

  4. 基于pytorch的模型稀疏训练与模型剪枝示例

    基于pytorch的模型稀疏训练与模型剪枝示例 稀疏训练+模型剪枝代码下载地址:下载地址 CIFAR10-VGG16BN Baseline Trained with Sparsity (1e-4) P ...

  5. 【深度学习】翻译:60分钟入门PyTorch(四)——训练一个分类器

    前言 原文翻译自:Deep Learning with PyTorch: A 60 Minute Blitz 翻译:林不清(https://www.zhihu.com/people/lu-guo-92 ...

  6. PyTorch多卡分布式训练:DistributedDataParallel (DDP) 简要分析

    ©作者 | 伟大是熬出来的 单位 | 同济大学 研究方向 | 机器阅读理解 前言 因为课题组发的卡还没有下来,先向导师问了实验室的两张卡借用.之前都是单卡训练模型,正好在这个机会实践以下单机多卡训练模 ...

  7. 深度学总结:RNN训练需要注意地方:pytorch每一个batch训练之前需要把hidden = hidden.data,否者反向传播的梯度会遍历以前的timestep

    pytorch每一个batch训练之前需要把hidden = hidden.data,否者反向传播的梯度会遍历以前的timestep tensorflow也有把new_state更新,但是没有明显de ...

  8. MINIST深度学习识别:python全连接神经网络和pytorch LeNet CNN网络训练实现及比较(三)...

    版权声明:本文为博主原创文章,欢迎转载,并请注明出处.联系方式:460356155@qq.com 在前两篇文章MINIST深度学习识别:python全连接神经网络和pytorch LeNet CNN网 ...

  9. 收藏 | PyTorch深度学习模型训练加速指南2021

    点上方蓝字计算机视觉联盟获取更多干货 在右上方 ··· 设为星标 ★,与你不见不散 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:作者:LORENZ KUHN 编译:ronghuaiyang ...

  10. pytorch显卡内存随训练过程而增加_PyTorch重大更新:将支持自动混合精度训练!...

    AI编辑:我是小将 混合精度训练(mixed precision training)可以让模型训练在尽量不降低性能的情形下提升训练速度,而且也可以降低显卡使用内存.目前主流的深度学习框架都开始支持混合 ...

最新文章

  1. ASP.NET Forums 2.0 本地化修改(四)
  2. CentOS6.2部署mysql环境
  3. python上下文管理器
  4. 如何通过 C# 自动捕获一个文件的变更?
  5. python 数据分析 实际案例_python实战案例:超市营业额数据分析
  6. 面试官:ConcurrentHashMap为什么放弃了分段锁?
  7. devops 开发_开发五年,DevOps手册问世
  8. Java 中关键字transient引出序列化与反序列化
  9. python next permutation_C++ STL next_permutation的实现原理
  10. python 开源cms内容管理系统_wagtail-基于Django构建的开源内容管理系统
  11. KMP算法—终于全部弄懂了
  12. 闲谈IPv6-从ICMP的视角形而上地分析IPv6
  13. c语言 如何选择 大小端,c语言大小端的问题
  14. js获取今天剩余时间_Node.js 在微医的应用场景及实践
  15. java mifare_java – NTAG212 Mifare Ultralight与身份验证
  16. 扫描图片怎么变成电子版?不止扫描仪
  17. BGP(Border Gatreway Protcol)边界网关路由协议
  18. 吴式太极大师修丕勋简介
  19. [已解决]Attempt to invoke virtual method 'int android.view.View.getImportantForAccessibility()'
  20. 9. docker 容器执行sql文件

热门文章

  1. 指令 出厂_CNC数控加工中心编程指令详解
  2. python 窗口键 键位码_Python制作AI贪吃蛇,很多很多细节、思路都写下来了
  3. 计算机考研英语一和英语二的区别,2018考研英语一与英语二翻译有什么区别?怎么提高?...
  4. scrapy实例三 【豆瓣电影Top250】
  5. redis数据类型 - Zset(有序集合sorted set)
  6. jvm中的native、方法区
  7. snapgene怎么比对序列_找不到相似序列?快来Blast一下!
  8. Javascript特效:音乐导航
  9. SpringBoot2整合Flyway(二)
  10. Spring的注解和装配实现IOC