↑↑↑↑↑点击上方蓝色字关注我们!



『运筹OR帷幄』转载

作者:Jones@知乎

作者丨Jones@知乎来源丨https://zhuanlan.zhihu.com/p/261999668编辑丨极市平台

编者按

本文作者模拟复现了自己在深度学习训练过程中可能遇到的多种情况,并尝试解决这些问题,文章围绕学习率、动量、学习率调整策略、L2正则、优化器展开。>>加入极市CV技术交流群,走在计算机视觉的最前沿

深度模型是黑盒,而且本次并没有尝试超深和超宽的网络,所以结论只能提供一个先验,并不是标准答案!同时不同的任务也可能导致不同,比如分割,所以必须具体问题具体分析!

Abstract;Key-words;Motivation

前阵子参加了几个CV的比赛,发现了这样的问题:虽然了解的理论知识不算特别少,跑了的实验和paper代码也还可以,但是实际搞起来总会出现一些奇怪的问题,然后解决起来也是有点难受,于是就打算尽可能地把遇到的情况模拟复现出现,尝试解决并解释(但是解释原因只能自圆其说,毕竟黑盒实验),以免之后遇到类似的情况没有解决的思路。

这个黄金周,乖乖地在研究所做了几天实验,主要围绕着这下几个关键字:

学习率;动量;学习率调整策略;L2正则;优化器

(所有的结论都有实验支撑,但是有一部分实验数据给我搞没了....555)

Thinking

在这些实验以及一些资料(主要是吴恩达的《Machine Learning Yearning》),总结了以下几条基本准则:

  1. 模型性能的影响因素:
  • 模型的表达能力(深度和宽度)
  • 学习率
  • 优化器
  • 学习率调整策略

2. 模型过拟合的影响因素:

  • 数据量(数据增强可以增加数据量)
  • 正则化

稍微解释一下:模型的表达能力对模型是否过拟合的确有起到一定的影响,但是选择合适的正则化强度可以有效的减缓这个影响!所以我没有把模型的表达能力列入为过拟合的影响因素。而且吴恩达的书中(《Machine Learning Yearning》)也表达了类似的想法(很开心,和大佬有一样的想法)。

实验环境

Resnet-18

Cifar-10

Details

  1. 学习率 和 动量

学习率和动量我会放在一起说,因为我发现这两个东西就是天生的couple。了解深度学习的小伙伴应该知道,学习率过大和过小都会存在问题:

学习率过大会导致模型无法进入局部最优甚至导致模型爆炸(不能收敛)
学习率过小会导致模型训练慢,进而浪费时间

那有没有办法让模型训练得又快又能收敛呢?有!

我经过四个实验得出以下结论:

使用较大的学习率+大的动量可以加快模型的训练且快速收敛

实验设计如下(我忘记保存实验图了,对不起!):
实验一:
小学习率+小动量
结果:模型训练速度慢,虽然收敛但是收敛速度很慢,验证集上性能很稳定
实验二:
小学习率+大动量
结果:模型训练速度慢,虽然收敛但是收敛速度很慢,验证集上性能很稳定
实验三:
大学习率+小动量
结果:模型训练速度快,虽然很难收敛而且验证集上性能波动很大,说明了模型很不稳定
实验四:
大学习率+大动量
结果:模型训练速度快,同时收敛得也很快,而且验证集上性能很稳定

我觉得这个原因,可以从两个角度来解释,一个是向量加法的特殊性;另一个是从集成模型的角度来解释。第一个角度我这里就不说了,因为我不想画图。。,我从第二个角度来说:

大的学习率意味着不稳定,但是因为这个学习率也是可以让模型往正确的优化方向上走,所以你可以理解大的学习率为一个弱的机器学习模型;当你采用大的动量的时候,意味着本次学习率对最终模型优化起的作用要小,也就是说采用大动量 -> 单次损失函数的占比低,那就相当于我这个模型的优化是由本次+过去很多次学习率(弱机器学习模型)计算出来的综合结果,那是不是就是一个集成模型呢~so,效果就比较好了。

随便提一嘴,当模型很不稳定的时候,如果某个瞬间出现较好的结果,比如准确率98%,那也不能说明这个模型在这个瞬间是好模型,因为这个时候你的模型很有可能是对验证集过拟合了!不信你可以划分出一个测试集试试(我之前参加脑PET识别比赛的时候就在地方摔过)。

2. 学习率调整策略

以前我是几乎不用学习率调整策略的,因为我觉得很扯,效果不大,但是前阵子和一小哥打华录杯的时候看他用了余弦退火有不错的效果,就决定也试试,结论是:真香!

对不起的是,这里我也忘记保存实验图了,对不起!

我尝试了3种学习率调整策略,分别为:1.ReduceLROnPlateau;2. 余弦退火;3. StepLR

结论:

  • 三种策略都很不错的
  • 余弦退火使用的时候,最大学习率和最小学习率相差的数量级不要太大(比如1e-1和1e-4),不然会导致在该快的时候太慢,在该慢的时候太快,特别的接近最优解的时候,太大就直接跑偏(图1)【Acc图中,灰色的曲线是验证集上的准确率,这里我L2没调好,所以过拟合了,可以忽略这点】
  • 余弦退火我推荐在warm-up的时候可以用,之后可以改一下
  • ReduceLROnPlateau我觉得是三个里面最优的,可以根据训练的情况动态调整(也出现了一些玄妙的情况(mode参数),我后面会说),需要注意的地方是,用这个的时候最好设置一下最小学习率,不然后期会因为学习率衰减得过小导致模型训练不到。
  • StepLR就很传统,也挺好用的,但是灵活度不如ReduceLROnPlateau。

图1

3. L2正则

正则主要分两种,一种是L1,一种是L2,因为pytorch自带L2,所以我就只用了L2(嘻嘻),直接上结论:

  • L2千万不要调太大,不然特别难训练(难训练/训练不到的标记就是验证集上的性能一直在较低的水平波动,不如10% -> 12% ->9%),这就说明我们的模型并没有学到什么东西
  • L2也不能太小,不然过拟合得挺严重的,大概1e-2可以有不错的效果(resnet18)
  • 即使正确地使用正则化强度,也会导致验证集前期不稳定甚至呈现训练不到的现象,但是之后就会稳定下来!不要慌!(如图2,Acc中,灰色的曲线是模型在验证集上的准确率)

图2

4. 优化器

优化器部分我就存图了!

其实这里不单单测试了优化器,应该是优化器+学习率策略+momentum

其实我想做的事情就是找到一个最优解可以作为我的先验知识(害,人话就是:就是我想知道哪种搭配比较好,以后就先试试这种搭配)

我做了几组实验:

  • 第一组:

    • SGD(大的初始学习率) + momentum(大动量) +StepLR + L2(每隔70个epoch,学习率衰减为之前的0.1)
    • Adam(大的初始学习率) +StepLR + L2(每隔70个epoch,学习率衰减为之前的0.1)
    • AdamW(大的初始学习率) +StepLR + L2(每隔70个epoch,学习率衰减为之前的0.1)

结论(图3):

  • SGD+momentum在大学习率+大动量的时候效果更好;
  • 不管是SGD还是Adam还是AdamW,学习率的调整都对他们有帮助

图3

第二组:

  • ReduceLROnPlateau(mode='min') + SGD(大学习率) + momentum(大动量) + L2
  • ReduceLROnPlateau(mode='max') + SGD(大学习率) + momentum(大动量) + L2
  • 余弦退火 + SGD(大学习率) + momentum(大动量) + L2

先解释一下ReduceLROnPlateau的两种模式:min和max
当模型为min的时候,如果指标A在一段时间内没有减小的话,则学习率衰减。
当模型为max的时候,如果指标A在一段时间内没有增大的话,则学习率衰减。

ReduceLROnPlateau我选择mode为min模式的时候,指标的是acc,很有意思的是,其收敛速度非常快(比mode为max更快),我猜测原因应该是:

当acc有所上升的时候,说明这个优化方向是正确的,这个时候优化的速度应该放缓!但是在这个实验中,其最优解比mode为max模式差(min模式下的最优解为0.916,max为0.935)。原因应该有两个:

1. 是因为lr的衰减速度过快,以至于后面学习率过低,训练不动;(后来我做了实验证明了就是这个原因!)

2. 因为一遇到可优化的地方就减少学习率,所以极有可能使得模型过早进入局部最优点(但是我后来觉得这个原因站不住脚哈哈哈,因为就算使用其他优化器,同样会存在陷入局部最优的问题,所以这个点不重要,但是为了保留从实验到笔记的思考过程,我还是不把这点删掉了。)

对于原因1,我之后做了实验进行验证,实验思路就是减小学习率衰减周期和衰减系数的值/设置最小学习率,保证后期学习率不会过小,最终的解决了最优解的问题。

图4

结论(图4):

  • 带有momentum的SGD加余弦退火收敛更快且更加稳定(其他两个也不赖!)
  • 学习率最好设定好下限,不然后期会训练不动

第三组:

  • StepLR+ SGD(大学习率) + momentum(大动量) + L2(图5)
  • Adam + L2(图6)

图5

图6

结论:

  • SGD+momentum的话,这东西对学习率还是很敏感的,所以平时最好还是别单纯只用它,最好加上一些其他的策略(余弦/ReduceLROnPlateau)。
  • 纯Adam非常垃圾,- -我给它的初值是1e-3,然而和之前的结果相比不管从稳定性还是收敛速度来讲都很差劲。

顺便提一下:我也有尝试模拟退火+Adam,但是因为退火的幅度过大,所以效果更不好(我的锅)。下次再试试正常幅度的退火。

心得:

从上述实验可以看出monument非常非常重要,让有点垃圾的SGD一下子就上天了(怪不得论文里都喜欢用这对couple),这时候再加上一些学习率调整策略(退火/ReduceLROnPlateau)就可以直接上天了,不说了,以后我就先首发这对组合。Adam相对于SGD来讲,的确好上不少,但是相比较于最优组合(SGD+momentum+学习率调整策略),就弱了一点。(在叉烧哥的群里有位高通的大佬和我说可以试试用nadam,因为nadam可以理解为Adam+monument,但是因为pytorch官方没相应的api,我就懒得试了,不过我相信应该很猛!)

欢迎社会各界加入『运筹OR帷幄』算法知识星球!

随着算法相关专业热度的提升,考研读博、留学申请、求职的难度也在相应飙升,『运筹OR帷幄』建立了【算法社区】知识星球,涵盖运筹学、数据科学、人工智能、管理科学、工业工程等相关专业,集结社区50W+专业受众的力量,提供给大家一个共同的学习交流平台,结交志同道合的伙伴。

# 加入知识星球,您将收获以下福利 #

● 依托『运筹OR帷幄』50w+专业受众和50+细分领域硕博微信群的算法技术交流

● 与国内外Top名校教授|博士和名企研发高管一起交流算法相关技术干货

● 海量学界|业界(独家内推)招聘|实习机会发布,申请|求职面试经验交流

● 数学模型|算法|论文|学习资料分享与提问,倡导同行交流,寻找志同道合的“队友”

● 每月开展一次“人气话题”和“人气回答”评选,百元红包奖励分享和互动

● 每月一次“领读人”带队Paper|教学视频|原创技术推文等线上Meetup小组学习

● 享受『运筹OR帷幄』各大城市线下Meetup免费入场资格,拓展人脉

相关文章推荐

了解了深度学习的小trick后,如果你想继续在CV领域有所建树,欢迎阅读下面文章。

点击蓝字标题,即可阅读《AI|图像分割研究者的烦恼与未来》

本文福利

可以在 公众号后台 回复关键词:“ DS 获取大量由我平台编辑精心整理的数据科学资料,如果觉得有用, 请勿吝啬你的留言和赞哦!

—— 完 ——

文章须知

文章作者:Jones@知乎

责任编辑:书生

审核编辑:阿春

微信编辑:玖蓁

本文转载自公众号 极市平台(ID:extrememart)

原文链接:深度学习训练tricks总结(均有实验支撑)

训练过程acc_AI 深度学习训练tricks总结(均有实验支撑)相关推荐

  1. pytorch 训练过程acc_深度学习Pytorch实现分类模型

    今天将介绍深度学习中的分类模型,以下主要介绍Softmax的基本概念.神经网络模型.交叉熵损失函数.准确率以及Pytorch实现图像分类.01Softmax基本概念 在分类问题中,通常标签都为类别,可 ...

  2. 深度学习训练技巧总结

    参考: 1 技巧链接一!重要 技巧链接二!重要 技巧链接三!重要 模型训练技巧最直接的就是几个超参数的设置 根据图片大小来选择网络和超参数 如果图片不是很大比如3030,这种情况下做分类就不能用VGG ...

  3. 训练深度学习_深度学习训练tricks整理1

    深度学习训练tricks整理1 环境:pytorch1.4.0 + Ubuntu16.04 参考: 数据增强策略(一)​mp.weixin.qq.com https://zhuanlan.zhihu. ...

  4. 最全深度学习训练过程可视化工具(附github源码)

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 Datawhale干货 作者:Edison_G,来源:计算机视觉研究院 编辑丨极市平台 ...

  5. 深度学习 英文 训练阶段_半监督深度学习训练和实现小Tricks

    临近毕业,忽然想实现一下一些比较经典的半监督深度学习算法.恰逢一周前有个师妹问我有没有关于半监督深度学习训练技巧的文章,我一想,好像没有,便想自己写一篇. Talk is cheap, show yo ...

  6. batch size 训练时间_深度学习 | Batch Size大小对训练过程的影响

    转自:面试中问你 Batch Size大小对训练过程的影响​mp.weixin.qq.com 先看两个问题: (1)深度学习中batch size的大小对训练过程的影响是什么样的? (2)有些时候不可 ...

  7. 的训练过程_最全深度学习训练过程可视化工具(附github源码)

    点击上方"AI遇见机器学习",选择"星标"公众号 重磅干货,第一时间送达 Datawhale干货 作者:Edison_G,来源:计算机视觉研究院编辑丨极市平台. ...

  8. 深度学习训练数据打标签过程

    深度学习训练数据打标签过程 为了获取大量的图片训练数据,在采集数据的过程中常用视频的方式采集数据,但对于深度学习,训练的过程需要很多的有有标签的数据,这篇文章主要是解决视频文件转换成图片文件,并加标签 ...

  9. Python - 深度学习训练过程使用matplotlib.pyplot实时动态显示loss和acc曲线

    1 深度学习训练过程中实时动态显示loss和acc曲线 可参考代码如下: # -*- coding: utf-8 -*-import matplotlib.pyplot as pltif __name ...

最新文章

  1. vscode使用教程python-硬核教程:五步掌握用VSCode进行高效Python开发
  2. Python将是人工智能时代的最佳编程语言
  3. Bootstrap的坑--千万别踩
  4. OpenSAP Fiori Elements 公开课第四单元视频的中文字幕
  5. 第7章 C控制语句:分支和跳转
  6. 区块链在阿里巴巴天猫中的应用
  7. FreeEIM V 2.8.9.8 改善计划
  8. Php.ini文件位置在哪里 Php.ini文件找不到
  9. c matlab 引擎调用,将C/C++回调传递给matlab引擎
  10. BZOJ4456 ZJOI2016旅行者(分治+最短路)
  11. 反驳生命的起点是rna_科学家提出了生命分子的手性起源新假说,源自宇宙射线...
  12. 使用FileZilla搭建简单的FTP
  13. Makefile教程一
  14. plc vb c语言编程,[转载]VB6.0在PLC和上位机通讯中的应用【工控老鬼分享】
  15. 华为网络工程师认证需要哪些学习资料?
  16. 鸿蒙大陆罪恶深渊哪里出,库库马力
  17. UCOSIII总结------消息队列(6)
  18. bcd 初始化库系统卷失败_中级|软考题库每日一练|2.24
  19. 存算分离后,VxRail动态计算节点构建虚拟化更给力
  20. Rosalind第二题:将DNA转录为RNA

热门文章

  1. LeetCode 980. 不同路径 III(DFS+回溯)
  2. 使用swiper_关于使用swiper制作web轮播图
  3. 做一个好的搜索引擎有多难
  4. ICLR2021 Oral |9行代码提高少样本学习泛化能力
  5. 吐槽贴:用ELECTRA、ALBERT之前,你真的了解它们吗?
  6. 论文浅尝 - SIAM ICDM 2020 | 基于图时空网络的知识引导的诊断预测
  7. Android系统原生应用解析之桌面闹钟及相关原理应用之时钟任务的应用(一)
  8. 【HTML/CSS】HTML元素种类的划分
  9. 论文学习16-Going out on a limb: without Dependency Trees(联合实体关系抽取2017)
  10. SSM:Spring整合MyBatis框架时出现 java.lang.AbstractMethodError: org.mybatis.spring.transaction.SpringManaged