一、学习率衰减的概念和必要性

解释①:如果在整个梯度下降过程中,保持learning rate不变,如果learning rate设置小了,会导致梯度下降过慢,如果设置大了,对于mini-batch来说最后就很难收敛,一直在最小值附近盘旋。所以动态改变learning rate很重要,在开始的时候,设置较大的learning rate,可以保证梯度下降的速度,慢慢减小,可以使最后的cost function在最小值非常小的范围内盘旋,得到一个比较满意的值。

解释②:学习率过大,在算法优化的前期会加速学习,使得模型更容易接近局部或全局最优解。但是在后期会有较大波动,甚至出现损失函数的值围绕最小值徘徊,波动很大,始终难以达到最优,如下图蓝色曲线所示。所以引入学习率衰减的概念,直白点说,就是在模型训练初期,会使用较大的学习率进行模型优化,随着迭代次数增加,学习率会逐渐进行减小,保证模型在训练后期不会有太大的波动,从而更加接近最优解,如下图中上面一条绿色曲线所示。


当学习率过大,以J(X)=X^2为例,学习率始终为1,梯度下降算法的运行过程:

可以看到无论进行多少轮迭代,参数始终在5和-5之间摇摆,而不是收敛到一个极小值。

二、什么是param_groups

optimizer通过param_group来管理参数组.param_group中保存了参数组及其对应的学习率,动量等等.所以我们可以通过更改param_group[‘lr’]的值来更改对应参数组的学习率。

例1:有两个param_group即,len(optim.param_groups)==2

optim.SGD([{'params': model.base.parameters()},{'params': model.classifier.parameters(), 'lr': 1e-3}], lr=1e-2, momentum=0.9)

上面第一个例子中,我们分别为 model.base 和 model.classifier 的参数设置了不同的学习率,即此时 optimizer.param_grops 中有两个不同的param_group:

  • param_groups[0]: {‘params’: model.base.parameters()},
  • param_groups[1]: {‘params’: model.classifier.parameters(), ‘lr’: 1e-3}

每一个param_group都是一个字典,它们共同构成了param_groups,所以此时len(optimizer.param_grops)==2,

例2:一个参数组

optim.SGD(model.parameters(), lr=1e-2, momentum=.9)

手动调整学习率,通常可以定义如下函数:

def adjust_learning_rate(optimizer, epoch):"""Sets the learning rate to the initial LR decayed by 10 every 30 epochs"""lr = args.lr * (0.1 ** (epoch // 30))for param_group in optimizer.param_groups:param_group['lr'] = lr

adjust_learning_rate() 函数就是通过for循环遍历取出每一个param_group,然后修改其中的键 ‘lr’ 的值,称之为手动调整学习率。

三、学习率衰减的类型【①使用库;②手动】

学习率衰减的类型有很多种,大致可以分为两类:

  • 一是通过人为经验进行设定,如到达多少轮后,设定具体的学习率为多少;
  • 二是使用库函数进行调整,随着迭代轮数的增加学习率自动发生衰减,这类有比较常用的指数型衰退,具体算法如下图

    其中decayed_learning_rate为每一轮优化时使用的学习率,learning_rate为事先设定的初始学习率,decay_rate为衰减系数,decay_steps为衰减速度。

在tensorflow中指数型衰减通过调用tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None)实现。这里介绍一下decay_steps,若decay_steps=100,即表示100轮迭代后进行一次衰减,staircase=True时,global_step/decay_steps会被转化为整数,这使得学习率呈阶梯型下降(如下图黑色),若staircase=False,下图灰色为连续型衰减学习率。

1、使用库函数进行调整

Pytorch学习率调整策略通过 torch.optim.lr_sheduler 接口实现。pytorch提供的学习率调整策略分为三大类,分别是:

  1. 有序调整:等间隔调整(Step),多间隔调整(MultiStep),指数衰减(Exponential),余弦退火(CosineAnnealing);
  2. 自适应调整:依训练状况伺机而变,通过监测某个指标的变化情况(loss、accuracy),当该指标不怎么变化时,就是调整学习率的时机(ReduceLROnPlateau);
  3. 自定义调整:通过自定义关于epoch的lambda函数调整学习率(LambdaLR)。

在每个epoch的训练中,使用 scheduler.step() 语句进行学习率更新,此方法类似于optimizer.step()更新模型参数,即一次epoch对应一次scheduler.step()。但在mini-batch训练中,每个mini-bitch对应一个optimizer.step()。即用法如下:

optimizer = torch.optim.SGD(model.parameters(), lr=0.1)
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)def train(...):for i, data in enumerate(train_loader):......y_ = model(x)loss = criterion(y_,y)loss.backward()optimizer.step()......for epoch in range(epochs):train(...)test(...)scheduler.step()

1.1 等间隔调整学习率 StepLR

torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)

每训练step_size个epoch,学习率调整为lr=lr*gamma.

以下内容中都将epoch和step对等,因为每个epoch中只进行一次scheduler.step(),实则该step指scheduler.step()中的step, 即step_size指scheduler.step()进行的次数。

参数:

  • optimizer: 神经网络训练中使用的优化器,如optimizer=torch.optim.SGD(…)
  • step_size(int): 学习率下降间隔数,单位是epoch,而不是iteration.
  • gamma(float): 学习率调整倍数,默认为0.1
  • last_epoch(int): 上一个epoch数,这个变量用来指示学习率是否需要调整。当last_epoch符合设定的间隔时,就会对学习率进行调整;当为-1时,学习率设置为初始值。


等间隔调整学习率:step_size=30, gamma=0.1

1.2 多间隔调整学习率 MultiStepLR

跟(1)类似,但学习率调整的间隔并不是相等的,如epoch=10时调整一次,epoch=30时调整一次,epoch=80时调整一次…

torch.optim.lr_sheduler.MultiStepLR(optimizer, milestones, gamma=0.1, last_epoch=-1)

参数:

  • milestone(list): 一个列表参数,表示多个学习率需要调整的epoch值,如milestones=[10, 30, 80].
  • optimizer: 神经网络训练中使用的优化器,如optimizer=torch.optim.SGD(…)
  • step_size(int): 学习率下降间隔数,单位是epoch,而不是iteration.
  • gamma(float): 学习率调整倍数,默认为0.1
  • last_epoch(int): 上一个epoch数,这个变量用来指示学习率是否需要调整。当last_epoch符合设定的间隔时,就会对学习率进行调整;当为-1时,学习率设置为初始值。


多间隔调整学习率:milestones=[10, 30, 80], gamma=0.1

1.3 指数衰减调整学习率 ExponentialLR

学习率呈指数型衰减,每训练一个epoch,lr=lrgamma∗epochlr=lrgamma*epochlr=lrgamma∗epoch,即 lr×gammaepochlr×gamma^{epoch}lr×gammaepoch

torch.optim.lr_sheduler.ExponentialLR(optimizer, gamma, last_epoch)

参数:

  • gamma(float):学习率调整倍数的底数,指数为epoch,初始值我lr, 倍数为 gammaepochgamma^{epoch}gammaepoch
  • 其它参数同上。


指数衰减调整学习率:gamma=0.9

1.4 余弦退火函数调整学习率

学习率呈余弦函数型衰减,并以 2∗Tmax2*T_{max}2∗Tmax​ 为余弦函数周期,epoch=0对应余弦型学习率调整曲线的 x=0x=0x=0,ymax=lry_{max}=lrymax​=lr,epoch=Tmaxepoch=T_maxepoch=Tm​ax 对应余弦型学习率调整曲线的 x=πx=\pix=π,ymin=etaminy_{min}=eta_minymin​=etam​in 处,随着 epoch>Tmaxepoch>T_{max}epoch>Tmax​,学习率随epoch增加逐渐上升,整个走势同cos(x)。

torch.optim.lr_sheduler.CosineAnnealingLR(optimizer, T_max, eta_min=0, last_epoch=-1)

参数:

  • T_max(int): 学习率下降到最小值时的epoch数,即当epoch=T_max时,学习率下降到余弦函数最小值,当epoch>T_max时,学习率将增大;
  • eta_min: 学习率调整的最小值,即epoch=T_max时,lr_{min}=eta_min, 默认为0.
  • 其它参数同上。


学习率余弦衰减:T_max=100

1.5 根据指标调整学习率 ReduceLROnPlateau

当某指标(loss或accuracy)在最近几个epoch中都没有变化(下降或升高超过给定阈值)时,调整学习率。

如当验证集的loss不再下降是,调整学习率;或监察验证集的accuracy不再升高时,调整学习率。

torch.optim.lr_sheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10,verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

参数:

  • mode(str): 模式选择,有min和max两种模式,min表示当指标不再降低(如监测loss),max表示当指标不再升高(如监测accuracy)。
  • factor(float): 学习率调整倍数,同前面的gamma,当监测指标达到要求时,lr=lr×factor。
  • patience(int): 忍受该指标多少个epoch不变化,当忍无可忍时,调整学习率。
  • verbose(bool): 是否打印学习率信息,print( ‘Epoch {:5d} reducing learning rate of group {} to {:.4e}.’.format(epoch, i, new_lr), 默认为False, 即不打印该信息。
  • threshold_mode (str): 选择判断指标是否达最优的模式,有两种模式:rel 和 abs.
    当threshold_mode == rel, 并且 mode == max时,dynamic_threshold = best * (1 + threshold);
    当threshold_mode == rel, 并且 mode == min时,dynamic_threshold = best * (1 - threshold);
    当threshold_mode == abs, 并且 mode == max时,dynamic_threshold = best + threshold;
    当threshold_mode == abs, 并且 mode == min时,dynamic_threshold = best - threshold;
  • threshold(float): 配合threshold_mode使用。
  • cooldown(int): “冷却时间”,当调整学习率之后,让学习率调整策略冷静一下,让模型在训练一段时间,再重启监测模式。
  • min_lr(float or list): 学习率下限,可为float,或者list,当有多个参数组时,可用list进行设置。
  • eps(float): 学习率衰减的最小值,当学习率的变化值小于eps时,则不调整学习率。
optimizer = torch.optim.SGD(model.parameters(), args.lr,momentum=args.momentum, weight_decay=args.weight_decay)scheduler = ReducelROnPlateau(optimizer,'min')
for epoch in range( args.start epoch, args.epochs ):train(train_loader , model, criterion, optimizer, epoch )result_avg, loss_val = validate(val_loader, model, criterion, epoch)# Note that step should be called after validate()scheduler.step(loss_val )

1.6 自定义调整学习率 LambdaLR

为不同参数组设定不同学习率调整策略。调整规则为:
lr = base_lr * lambda(self.last_epoch)
在fine-tune中特别有用,我们不仅可以为不同层设置不同的学习率,还可以为不同层设置不同的学习率调整策略。

torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)

参数:

  • lr_lambda(function or list): 自定义计算学习率调整倍数的函数,通常时epoch的函数,当有多个参数组时,设为list.
  • 其它参数同上。

例:

import torch.optim as optimignored_params = list(map(id, net.fc3.parameters()))
base_params = filter(lambda p: id(p) not in ignored_params, net.parameters())
optimizer = optim.SGD([{'params': base_params},{'params': net.fc3.parameters(), 'lr': 0.001 * 100}], lr=0.001, momentum=0.9, weight_decay=1e-4)
# Assuming optimizer has two groups.
lambda1 = lambda epoch: epoch // 3
lambda2 = lambda epoch: 0.95 ** epochscheduler = LambdaLR(optimizer, lr_lambda=[lambda1, lambda2])for i in range(100):train(...)validate(...)scheduler.step()print('epoch: ', i, 'lr: ', scheduler.get_lr())

输出:

epoch: 0 lr: [0.0, 0.1]
epoch: 1 lr: [0.0, 0.095]
epoch: 2 lr: [0.0, 0.09025]
epoch: 3 lr: [0.001, 0.0857375]
epoch: 4 lr: [0.001, 0.081450625]
epoch: 5 lr: [0.001, 0.07737809374999999]
epoch: 6 lr: [0.002, 0.07350918906249998]
epoch: 7 lr: [0.002, 0.06983372960937498]
epoch: 8 lr: [0.002, 0.06634204312890622]
epoch: 9 lr: [0.003, 0.0630249409724609]

为什么第一个参数组的学习率会是 0 呢? 来看看学习率是如何计算的。
第一个参数组的初始学习率设置为 0.001,
lambda1 = lambda epoch: epoch // 3,
第 1 个 epoch 时,由 lr = base_lr * lmbda(self.last_epoch),
可知道 lr = 0.001 (0//3) ,又因为 1//3 等于 0,所以导致学习率为 0。
第二个参数组的学习率变化,就很容易看啦,初始为 0.1, lr = 0.1 * 0.95^epoch ,当
epoch 为 0 时, lr=0.1 , epoch 为 1 时, lr=0.1
0.95。

附:给出画上述学习率变化图的程序:

# -*- coding:utf-8 -*-
'''本文件用于测试pytorch学习率调整策略'''__author__ = 'puxitong from UESTC'import torch
import torch.optim as optim
from torch.optim import lr_scheduler
from torchvision.models import AlexNet
import matplotlib.pyplot as plt model = AlexNet(num_classes=2)
optimizer = optim.SGD(params=model.parameters(), lr=0.1)# 等间隔调整学习率,每训练step_size个epoch,lr*gamma
# scheduler = lr_scheduler.StepLR(optimizer, step_size=30, gamma=0.1)# 多间隔调整学习率,每训练至milestones中的epoch,lr*gamma
# scheduler = lr_scheduler.MultiStepLR(optimizer, milestones=[10, 30, 80], gamma=0.1)# 指数学习率衰减,lr*gamma**epoch
# scheduler = lr_scheduler.ExponentialLR(optimizer, gamma=0.9)# 余弦退火学习率衰减,T_max表示半个周期,lr的初始值作为余弦函数0处的极大值逐渐开始下降,
# 在epoch=T_max时lr降至最小值,即pi/2处,然后进入后半个周期,lr增大
# scheduler = lr_scheduler.CosineAnnealingLR(optimizer, T_max=100, eta_min=0)plt.figure()
x = list(range(100))
y = []
for epoch in range(100):scheduler.step()y.append(scheduler.get_lr()[0])plt.plot(x, y)
plt.show()

2、手动调整学习率

手动调整学习率,通常可以定义如下函数:

def adjust_learning_rate(optimizer, epoch):"""Sets the learning rate to the initial LR decayed by 10 every 30 epochs"""lr = args.lr * (0.1 ** (epoch // 30))for param_group in optimizer.param_groups:param_group['lr'] = lr

adjust_learning_rate() 函数就是通过for循环遍历取出每一个param_group,然后修改其中的键 ‘lr’ 的值,称之为手动调整学习率。

又如:

def adjust_learning_rate(epoch, lr):if epoch <= 81:  # 32k iterationsreturn lrelif epoch <= 122:  # 48k iterationsreturn lr/10else:return lr/100

该函数通过修改每个epoch下,各参数组中的lr来进行学习率手动调整,用法如下:

for epoch in range(epochs):lr = adjust_learning_rate(optimizer, epoch)  # 调整学习率optimizer = optim.SGD(net.parameters(), lr=lr, momentum=0.9, weight_decay=5e-4)......optimizer.step()  # 采用新的学习率进行参数更新

四、实时打印学习率

如果想要每次迭代都实时打印学习率,这样可以每次step都能知道更新的最新学习率,可以使用

scheduler.get_lr()

它返回一个学习率列表,由参数组中的不同学习率组成,可通过列表索引来得到不同参数组中的学习率。




参考资料:
权重衰减(weight decay)与学习率衰减(learning rate decay)
CNN训练分类任务的优化策略(tricks)
学习率衰减
神经网络学习率(learning rate)的衰减
Pytorch中的学习率衰减及其用法
Pytorch中的学习率衰减及其用法
pytorch必须掌握的的4种学习率衰减策略
学习率衰减方法
学习率衰减(Learning rate decay)
深度学习优化方式
学习率优化方式

模型调参(二):learning rate decay(学习率衰减)【使用库调整学习率:等间隔、多间隔、指数衰减、余弦退火函数、根据指标、自定义】【手动调整学习率】相关推荐

  1. Adam和学习率衰减(learning rate decay)

    1.梯度下降法更新参数 梯度下降法参数更新公式: 其中,η 是学习率,θt是第 t 轮的参数,J(θt) 是损失函数,∇J(θt) 是梯度. 在最简单的梯度下降法中,学习率 ηη 是常数,是一个需要实 ...

  2. 深度学习:权重衰减(weight decay)与学习率衰减(learning rate decay)

    正则化方法:防止过拟合,提高泛化能力 避免过拟合的方法有很多:early stopping.数据集扩增(Data augmentation).正则化(Regularization)包括L1.L2(L2 ...

  3. 深度学习——学习率衰减(learning rate decay)

    学习率衰减(learning rate decay) 为了防止学习率过大,在收敛到全局最优点的时候会来回摆荡,所以要让学习率随着训练轮数不断按指数级下降,收敛梯度下降的学习步长. 学习率衰减可以用以下 ...

  4. scikit learn各个常用模型调参总结

    SVM 对数据进行归一化 (simple scaling) 使用RBF kernel 使用cross_validation 和 grid_search得到最佳参数gamma和C 使用得到的最优C和ga ...

  5. 模型调参常见问题及Aadm优化器调参记录

    超参数调试.Batch正则化和编程框架 参考链接:链接:https://blog.csdn.net/red_stone1/article/details/78403416 1. Tuning Proc ...

  6. DeepFM模型调参

    Ref: https://tech.meituan.com/2018/06/07/searchads-dnn.html 影响神经网络的超参数非常多,神经网络调参也是一件非常重要的事情.工业界比较实用的 ...

  7. 深度模型调参知识总结

    深度模型调参知识总结 先保证数据质量再去调参 什么是高质量的数据? 高质量数据集应该包括以下特征: 类别均衡 数据充足 数据和标记中有高质量信息 数据和标记错误非常小 与你的问题相关 怎样获取高质量的 ...

  8. AIRec个性化推荐召回模型调参实战

    简介:本文是<AIRec个性化推荐召回模型调参实战(电商.内容社区为例)>的视频分享精华总结,主要由阿里巴巴的产品专家栀露向大家分享AIRec个性化推荐召回模型以及针对这些召回模型在电商和 ...

  9. Kaggle泰坦尼克号生存预测挑战——模型建立、模型调参、融合

    Kaggle泰坦尼克号生存预测挑战 这是kaggle上Getting Started 的Prediction Competition,也是比较入门和简单的新人赛,我的最好成绩好像有进入top8%,重新 ...

  10. 天池工业蒸汽量预测-模型调参

    本文改编自<阿里云天池大赛赛题解析-机器学习篇>工业蒸汽量预测的模型调参.进行了部分素材的替换和知识点的归纳总结.新增了Datawhale8月集成学习中的网格搜索.随机搜索的内容 上一篇工 ...

最新文章

  1. python语言程序设计基础第二版答案-python语言程序设计基础(第二版)第五章答案随笔...
  2. itunes app 下载链接的几种表现形式
  3. BugKu:cookies 欺骗
  4. Eclipse更改系统主题
  5. 在细分场景的时代,如何反欺诈和防止内外勾结?
  6. 继Science发文后,Nature也发文评论曹雪涛“误用图片”调查结果
  7. 任务计划、chkconfig工具、systemd管理服务、unit、target
  8. (五)使用生成对抗网络 (GAN)生成新的时装设计
  9. 微pe添加网络组件_(已解决)干掉peset后如何启动PE的网络组件?
  10. QQ小游戏 微信小游戏 即时通信 IM 删除会话 deleteConversation sdk
  11. 计算机中的物理结构,文件的物理结构_文件的物理结构有哪3种,分别具备什么优缺点...
  12. 用Python实现 学生学籍管理系统
  13. html中target四种选择_blank、_parent、_self、_top,分别是什么意思?
  14. Simulink系列 —— S-function的使用笔记(1)
  15. RealView MDK
  16. 翔工作室网站策划逻辑图:(online.cumt.edu.cn)
  17. dialog.js弹窗插件
  18. Wap与Net之争!!
  19. 边缘设备、系统及计算杂谈(14)——API Gateway(Traefik)学习
  20. 第二十章:异步和文件I/O.(十九) 1

热门文章

  1. java获取指定日期当月和下个月的第一天
  2. 【转】Boost和loki智能指针
  3. python中使用ffmpeg合并音频与视频_FFMpeg无损合并视频的多种方法
  4. 谈一谈凑单页的那些优雅设计
  5. 海外问卷调查,招募合伙人
  6. java吉他游戏_[Java]吉他谱浏览器 0.1
  7. ssh弱口令暴力破解
  8. memcmp函数使用详解
  9. mysql容灾备份和恢复_关于容灾备份和恢复
  10. 计算机考研833大纲,考研833之计算机组成与系统结构提纲