1 工作原理

Momentum(动量,冲量):结合当前梯度与上一次更新信息,用于当前更新。

动量梯度下降法是计算梯度的指数加权平均数,并利用该数值来更新参数值。

 指数加权平均

与原始的梯度下降相比,动量的梯度下降趋势更加平滑,不但能使用较大的学习率,其迭代次数也减少。

随机梯度的学习算法中,每一步的步幅都是固定的,而在动量学习算法中,每一步走多远不仅依赖于本次的梯度的大小还取决于过去的速度。速度v是累积各轮训练参的梯度,其中越大,依赖以前的梯度越大。假如每轮训练的梯度方向都是相同的,和小球从斜坡滚落,由于但衰减因子的存在,小球并不会一直加速,而是达到最大速度后开始匀速行驶,这里假设每轮获得的梯度都是相同的,那么速度最大值为:
                                                 

从上式可以看到当= 0.9时,最大速度相当于梯度下降的10倍(带进上式去算可得),通常可取0.5,0.9,0.99,情况一般的调整没有调整的那么重要适当。取值即可。

不使用动量

使用动量:        

其中表示权重,表示学习率表示的导数,表示速度,一般初始化为0;就是引入的动量,一般是设置为0.9。可以理解为,如果上一次的  与当前的负梯度方向是相同的,那这次下降的幅度就会加大,从而可以加快模型收敛。

def sgd_momentum(parameters, vs, lr, gamma):for param, v in zip(parameters, vs):v[:] = gamma * v + lr * param.grad.dataparam.data = param.data - v

2 作用

主要是在训练网络时,最开始会对网络进行权值初始化,但是这个初始化不可能是最合适的;因此可能就会出现损失函数在训练的过程中出现局部最小值的情况,而没有达到全局最优的状态。

momentum的出现可以在一定程度上解决这个问题。动量来源于物理学,当momentum越大时,转换为势能的能量就越大,就越有可能摆脱局部凹区域,从而进入全局凹区域。momentum主要是用于权值优化。

3 代码实现

使用公式手动实现动量:

import numpy as np
import torch
from torchvision.datasets import MNIST # 导入 pytorch 内置的 mnist 数据
from torch.utils.data import DataLoader
from torch import nn
from torch.autograd import Variable
import time
import matplotlib.pyplot as plt
# %matplotlib inlinedef data_tf(x):x = np.array(x, dtype='float32') / 255x = (x - 0.5) / 0.5 # 标准化,这个技巧之后会讲到x = x.reshape((-1,)) # 拉平x = torch.from_numpy(x)return xtrain_set = MNIST('./data', train=True, transform=data_tf, download=True) # 载入数据集,申明定义的数据变换
test_set = MNIST('./data', train=False, transform=data_tf, download=True)# 定义 loss 函数
criterion = nn.CrossEntropyLoss()# 现在手动实现一下动量法
def sgd_momentum(parameters, vs, lr, gamma):for param, v in zip(parameters, vs):v[:] = gamma * v + lr * param.grad.dataparam.data = param.data - vtrain_data = DataLoader(train_set, batch_size=64, shuffle=True)
# 使用 Sequential 定义 3 层神经网络
net = nn.Sequential(nn.Linear(784, 200),nn.ReLU(),nn.Linear(200, 10),
)# 将速度初始化为和参数形状相同的零张量
vs = []
for param in net.parameters():vs.append(torch.zeros_like(param.data))# 开始训练
losses = []
idx = 0
start = time.time()  # 记时开始
for e in range(5):train_loss = 0for im, label in train_data:im = Variable(im)label = Variable(label)# 前向传播out = net(im)loss = criterion(out, label)# 反向传播net.zero_grad()loss.backward()sgd_momentum(net.parameters(), vs, 1e-2, 0.9)  # 使用的动量参数为 0.9,学习率 0.01train_loss += loss.data# 记录误差if idx % 30 == 0:  # 30 步记录一次losses.append(loss.data)idx += 1print('epoch: {}, Train Loss: {:.6f}'.format(e, train_loss / len(train_data)))
end = time.time()  # 计时结束
print('使用时间: {:.5f} s'.format(end - start))

pytorch 内置了动量法的实现,直接用 torch.optim.SGD(momentum=0.9) 实现:

import numpy as np
import torch
from torchvision.datasets import MNIST # 导入 pytorch 内置的 mnist 数据
from torch.utils.data import DataLoader
from torch import nn
from torch.autograd import Variable
import time
import matplotlib.pyplot as plt
# %matplotlib inlinedef data_tf(x):x = np.array(x, dtype='float32') / 255x = (x - 0.5) / 0.5 # 标准化,这个技巧之后会讲到x = x.reshape((-1,)) # 拉平x = torch.from_numpy(x)return xtrain_set = MNIST('./data', train=True, transform=data_tf, download=True) # 载入数据集,申明定义的数据变换
test_set = MNIST('./data', train=False, transform=data_tf, download=True)# 定义 loss 函数
criterion = nn.CrossEntropyLoss()train_data = DataLoader(train_set, batch_size=64, shuffle=True)
# 使用 Sequential 定义 3 层神经网络
net = nn.Sequential(nn.Linear(784, 200),nn.ReLU(),nn.Linear(200, 10),
)
optimizer = torch.optim.SGD(net.parameters(), lr=1e-2, momentum=0.9) # 加动量# 开始训练
losses = []
idx = 0
start = time.time()  # 记时开始
for e in range(5):train_loss = 0for im, label in train_data:im = Variable(im)label = Variable(label)# 前向传播out = net(im)loss = criterion(out, label)# 反向传播optimizer.zero_grad()loss.backward()optimizer.step()train_loss += loss.data# 记录误差if idx % 30 == 0:  # 30 步记录一次losses.append(loss.data)idx += 1print('epoch: {}, Train Loss: {:.6f}'.format(e, train_loss / len(train_data)))
end = time.time()  # 计时结束
print('使用时间: {:.5f} s'.format(end - start))x_axis = np.linspace(0, 5, len(losses), endpoint=True)
plt.semilogy(x_axis, losses, label='momentum: 0.9')
plt.legend(loc='best')
plt.show()

对比动量和不加动量的SGD:

net = nn.Sequential(nn.Linear(784, 200),nn.ReLU(),nn.Linear(200, 10),
)
optimizer = torch.optim.SGD(net.parameters(), lr=1e-2) # 加动量
losses1 = []
idx = 0
start = time.time()  # 记时开始
for e in range(5):train_loss = 0for im, label in train_data:im = Variable(im)label = Variable(label)# 前向传播out = net(im)loss = criterion(out, label)# 反向传播optimizer.zero_grad()loss.backward()optimizer.step()train_loss += loss.data# 记录误差if idx % 30 == 0:  # 30 步记录一次losses1.append(loss.data)idx += 1print('epoch: {}, Train Loss: {:.6f}'.format(e, train_loss / len(train_data)))
end = time.time()  # 计时结束
print('使用时间: {:.5f} s'.format(end - start))x_axis = np.linspace(0, 5, len(losses), endpoint=True)
plt.semilogy(x_axis, losses, label='momentum: 0.9')
plt.semilogy(x_axis, losses1, label='no momentum')
plt.legend(loc='best')
plt.show()

《python深度学习》笔记(十二):动量相关推荐

  1. Kera之父Python深度学习笔记(二)神经网络的数学基础

    目录 神经网络的数据表示 标量(0D张量) 向量(1D张量) 矩阵(2D张量) 3D张量以及更高维张量 关键属性 在Numpy中操作张量 数据批量的概念 现实世界中的数据张量 向量数据 时间序列数据和 ...

  2. Programming Computer Vision with Python (学习笔记十二)

    ORB(Oriented FAST and Rotated BRIEF)可用来替代SIFT(或SURF),它对图像更具有抗噪特性,是一种特征检测高效算法,其速度满足实时要求,可用于增强图像匹配应用. ...

  3. Programming Computer Vision with Python (学习笔记十二) 1

    ORB(Oriented FAST and Rotated BRIEF)可用来替代SIFT(或SURF),它对图像更具有抗噪特性,是一种特征检测高效算法,其速度满足实时要求,可用于增强图像匹配应用. ...

  4. Python语言入门这一篇就够了-学习笔记(十二万字)

    Python语言入门这一篇就够了-学习笔记(十二万字) 友情提示:先关注收藏,再查看,12万字保姆级 Python语言从入门到精通教程. 文章目录 Python语言入门这一篇就够了-学习笔记(十二万字 ...

  5. Tensorflow深度学习之十二:基础图像处理之二

    Tensorflow深度学习之十二:基础图像处理之二 from:https://blog.csdn.net/davincil/article/details/76598474   首先放出原始图像: ...

  6. python做直方图-python OpenCV学习笔记实现二维直方图

    本文介绍了python OpenCV学习笔记实现二维直方图,分享给大家,具体如下: 官方文档 – https://docs.opencv.org/3.4.0/dd/d0d/tutorial_py_2d ...

  7. 吴恩达《机器学习》学习笔记十二——机器学习系统

    吴恩达<机器学习>学习笔记十二--机器学习系统 一.设计机器学习系统的思想 1.快速实现+绘制学习曲线--寻找重点优化的方向 2.误差分析 3.数值估计 二.偏斜类问题(类别不均衡) 三. ...

  8. 前几帧预测 深度学习_使用深度学习从十二导联心电图预测心律失常

    上集讲到 使用深度学习 从单导联预测房颤 这一集 将继续讨论该问题 单导联心电图 对心律失常的预测作用 非常有限 因为 单导联的信号很有限 临床上需要结合 多导联心电图 判断 心律失常的类型 这一集的 ...

  9. 花书+吴恩达深度学习(十二)卷积神经网络 CNN 之全连接层

    目录 0. 前言 1. 全连接层(fully connected layer) 如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~ 花书+吴恩达深度学习(十)卷积神经网络 CNN ...

  10. ROS学习笔记十二:使用roswtf

    ROS学习笔记十二:使用roswtf 在使用ROS过程中,roswtf工具可以为我们提供ROS系统是否正常工作的检查作用. 注意:在进行下列操作之前,请确保roscore没有运行. 检查ROS是否安装 ...

最新文章

  1. 如何彻底解决pip install慢的问题
  2. MySQL夺命连环12问
  3. SQL CREATE TABLE 语句(转)
  4. dijkstra+堆优化
  5. Projection投影
  6. 鸿蒙系统无限延期,鸿蒙系统下月到来,三款手机首批升级,华为P50系列延期发布!...
  7. python3.5 pip安装_用python3.5 pip安装Numpy
  8. layui文件上传 提示 请求上传接口出现异常
  9. 求给定数组中两数和为给定值的数量
  10. win11系统通知怎么取消 Windows11取消系统通知的步骤方法
  11. python语言输入中文_selenium+python 语言编写问题,在执行时无法输入中文用户名...
  12. 后端日志【22】:时间过的很快,坚持的第7.3个月过去了,我有什么变化?
  13. WPS Office 免费版和专业增强版区别是什么
  14. 【python学习笔记】Python对经纬度处理
  15. mysql 计算农历_公历转换农历算法
  16. mysql 引擎 切换_Mysql表引擎的切换
  17. iOS开发监测手机流量使用情况
  18. 创客集结号:国内无人机技术发展的难点有哪些?
  19. 本地事务与分布式事务
  20. 微型计算机键盘上的tab键汉语译为,微型计算机键盘上的Tab键汉语译为()。

热门文章

  1. 神经网络之特征图可视化
  2. 计算机29首流行音乐叫什么,流行歌曲有哪些 流行歌曲500首
  3. tgw——金融数据api
  4. java printwriter 文件_PrintWriter未写入文件(Java)
  5. the content must be served over HTTPS 解决方案
  6. curl命令查看请求响应时间
  7. 【疑难教程】如何解决推流摄像头推RTMP视频流至EasyDSS视频直播点播平台Chrome浏览器无法播放?
  8. 医疗行业需要物联网卡能做什么?
  9. 服务器内存插上显示器不亮,上两根内存条显示器就不亮了
  10. mac vim没有颜色 vim着色