一、Momentum:(动量,冲量):结合当前梯度与上一次更新信息,用于当前更新;

二、Momentum的作用?

主要是在训练网络时,最开始会对网络进行权值初始化,但是这个初始化不可能是最合适的;因此可能就会出现损失函数在训练的过程中出现局部最小值的情况,而没有达到全局最优的状态。

momentum的出现可以在一定程度上解决这个问题。动量来源于物理学,当momentum越大时,转换为势能的能量就越大,就越有可能摆脱局部凹区域,从而进入全局凹区域。momentum主要是用于权值优化。

没引入momentum之前的权重更新:

上面的权重更新可以通过下图进行理解!

梯度下降法

以单个参数w的损失函数L(w)为例,前提这个损失函数是可微的;

主要目的就是求解使得上述Loss的最小的,实际上就是寻找切线L斜率为0的全局最小值(这里可能会出现局部最小值,斜率也为0,也就引出了下面的momentum)

最简单的方法就是遍历所有的w的值,去找到使得loss最小的,但是这样做一点效率也没有;使用梯度下降法可以很好地解决这个问题;

  1. 首先随机选取一个初始的点 (当然也不一定要随机选取,如果有办法可以得到比较接近 的表

    现得比较好的当初始点,可以有效地提高查找的效率)
  2. 计算L在的位置的微分, ,几何角度就是切线的斜率;
  3. 如果切线斜率是negative负的,那么就应该使w变大,即往右踏一步;如果切线斜率是positive正
    的,那么就应该使w变小,即往左踏一步,每一步的步长step_size就是w的改变量
    w的改变量step_size的大小取决于两件事 
  • 一是现在的微分值有多大,微分值越大就表示所在位置比较陡峭,那么它将要移动的距离就越大,反之就越小;
  • 二是一个常数项  ,其实就是学习率;它决定了每次踏出的step_size不仅取决于现在的斜率,还取决于提前设置好的学习率值,如果设置的学习率值比较大,那么每次踏出一步的时候,参数w更新的幅度就比较大,反之参数更新的幅度就比较小;学习也不能太大,太大可能会直接跳过全局最小值点;

   4.因此每次参数更新的大小是 ,为了满足斜率为负时w表大,斜率为正时w表小,应该使原来的w减去更新的数值,可以结合上图梯度下降法进行理解;即下式

此时的对应的斜率为0,我们找到了一个局部最小值,但是一旦出现微分为0的情况,参数就不会再继续更新了,但是这个没办法满足全局最小值;这个情况可以结合下图进行理解;于是引出了增加momentum的方法;下面继续看增加momentum的情况;

上面是针对单一参数而言的,针对多个参数的情况也是和处理单个参数的问题一样的,这里就不多赘述了。


引入momentum之后:

其中表示权重,表示学习率,表示的导数,表示速度,一般初始化为0;就是引入的动量,一般是设置为0.9。可以理解为,如果上一次的  与当前的负梯度方向是相同的,那这次下降的幅度就会加大,从而可以加快模型收敛。

指数加权平均:参考:通俗理解指数加权平均

通过代码进一步理解:

1、首先看一下指数加权平均

import torch
import numpy as np
import torch.optim as optim
import matplotlib.pyplot as plt
torch.manual_seed(1)# 指数加权平均
def exp_w_func(beta,time_list):return [(1 - beta)*np.power(beta,exp) for exp in time_list]beta = 0.9
num_point = 100
time_list = np.arange(num_point).tolist()# 指数权重
weights = exp_w_func(beta,time_list)plt.plot(time_list,weights,'-ro',label="Beta:{}\ny = B^t * (1-B)".format(beta))
plt.xlabel("time")
plt.ylabel("weight")
plt.legend()
plt.title("exponentially weighted average")
plt.show()
print(np.sum(weights))

0.9999734386011124

2、针对多个动量的情况

# multi weights
# 通常都是设置动量为0.9
beta_list = [0.98,0.95,0.9,0.8]
w_list = [exp_w_func(beta,time_list) for beta in beta_list]
for i,w in enumerate(w_list):plt.plot(time_list,w,label="Beta:{}".format(beta_list[i]))plt.xlabel("time")plt.ylabel("weight")
plt.legend()
plt.show()

3、optim.SGD中的momentum

# SGD中的momentum
def func(x):return torch.pow(2*x,2)  # y = (2x)^2 = 4*x^2   dy/dx = 8xiteration = 100
m = 0.9
lr_list = [0.01,0.03]momentum_list = list()
loss_rec = [[] for l in range(len(lr_list))]
iter_rec = list()for i,lr in enumerate(lr_list):x = torch.tensor([2.],requires_grad=True)momentum = 0. if lr == 0.03 else mmomentum_list.append(momentum)optimizer = optim.SGD([x],lr=lr,momentum=momentum)for iter in range(iteration):y = func(x)y.backward()optimizer.step()optimizer.zero_grad()loss_rec[i].append(y.item())for i,loss_r in enumerate(loss_rec):plt.plot(range(len(loss_r)),loss_r,label="LR:{} M:{}".format(lr_list[i],momentum_list[i]))
plt.legend()
plt.xlabel("Iteration")
plt.ylabel('Loss value')
plt.show()

可以看出增加了动量的loss呈现波动,但是可以很快达到最小值,同样也会逐渐趋于平缓。

Pytorch——momentum动量相关推荐

  1. 路遥知马力——Momentum动量梯度

    NAG:在滑板下降过程中 也就是速度加快的时候 增大水平方向的力(累计的动量方向) 而在上升的过程中 也就是速度下降的时候 减少垂直方向的力(当前的梯度方向) 两种情况下 的最终结果 都是加大了往最优 ...

  2. batchnorm pytorch,BatchNorm动量惯例PyTorch

    Is the batchnorm momentum convention (default=0.1) correct as in other libraries e.g. Tensorflow it ...

  3. [源码解析] PyTorch分布式优化器(1)----基石篇

    [源码解析] PyTorch分布式优化器(1)----基石篇 文章目录 [源码解析] PyTorch分布式优化器(1)----基石篇 0x00 摘要 0x01 从问题出发 1.1 示例 1.2 问题点 ...

  4. talib 中文文档(八): Momentum Indicator Functions 动量指标

    Momentum Indicator Functions ADX - Average Directional Movement Index 函数名:ADX 名称:平均趋向指数 简介:使用ADX指标,指 ...

  5. Talib中文文档(二):Momentum Indicators 动量指标

    ADX - Average Directional Movement Index 函数名:ADX 名称:平均趋向指数 简介:使用ADX指标,指标判断盘整.振荡和单边趋势. 公式: 一.先决定股价趋势( ...

  6. TALIB 中文文档 Momentum Indicator Functions 动量指标函数

    文章目录 Momentum Indicator Functions ADX - Average Directional Movement Index 公式: 特点: 指标应用: ADXR- Avera ...

  7. 深度学习学习笔记 --- 动量momentum

    一.动量momentum的由来 训练网络时,通常先对网络的初始值按照某种分布进行初始化,如:高斯分布.初始化权值操作对最终的网络性能影响比较大,合适的网络初始权值操作能够使损失函数在训练过程中收敛速度 ...

  8. 【pytorch】3.0 优化器BGD、SGD、MSGD、Momentum、Adagrad、RMSPprop、Adam

    目录 一.优化器介绍 1.梯度下降法 1.1 一维梯度下降法 1.2 多维梯度下降法 2.动量(Momentum) 3.Adagrad 4.RMSProp 5.Adam 7.总结: 二.动态修改学习率 ...

  9. 深度学习中的动量momentum

    训练网络时,通常先对网络的初始权值按照某种分布进行初始化,如:高斯分布.初始化权值操作对最终网络的性能影响比较大,合适的网络初始权值能够使得损失函数在训练过程中的收敛速度更快,从而获得更好的优化结果. ...

  10. torch 归一化,momentum用法详解

    torch 有两个地方用Momentum动量,冲量, 一,优化器中的Momentum 主要是在训练网络时,最开始会对网络进行权值初始化,但是这个初始化不可能是最合适的:因此可能就会出现损失函数在训练的 ...

最新文章

  1. 3min利用Python实现9种经典排序算法可视化!(附源代码)
  2. Win7安装Docker
  3. SGU 183. Painting the balls( dp )
  4. TCP/IP 5.3.4不连续的子网和无类别路由选择
  5. 如何使用Java keytool命令行创建一个自签名证书
  6. 北邮王立新教授提到的“5年后运营商排名论”
  7. Yii 2.0: yii2-highcharts-widget创建饼状图
  8. 开发进阶:Dotnet Core多路径异步终止
  9. JavaFX下的WebView中js调用java注入方法提示undefined?
  10. css通配选择符用什么表示,css3选择符使用个人理解。
  11. vue router name命名规范_vue-router使用
  12. SQLMAP 注入教程
  13. win10系统计算机如何分盘,win10怎么进行分盘_win10电脑如何合理分盘
  14. 常用的mysql sql语句_常用的SQL语句(MySQL)
  15. ios MultipeerConnectivity蓝牙通讯
  16. 数据挖掘数据预处理(验证性)
  17. 【数据异常校验】卡方检验(chi-squared test)处理异常数据
  18. 一个新开始——学习内容规划
  19. Redis与Memorycache的区别
  20. eval 函数 java_[Java教程]eval()函数用法详解

热门文章

  1. 2018某二本的秋招流水帐
  2. [LOCAL] 画画图(结论 + DP + 常数分析) | 错题本
  3. 05_grep-搜索
  4. 小柯在学JAVA之第二弹
  5. 网站设计65条原则 作者:小柯
  6. 一招解决 npm i 安装 node-sass 出现错误
  7. 从 radix tree 到 xarray
  8. 置换密码及其python实现
  9. 凭什么国内造不出高端示波器?一起扒一扒示波器的发展史!
  10. 如何找出当前活动桌面背景图像的位置/路径(Ubuntu 18.04,GNOME)?