我们在训练神经网络模型时,最常用的就是梯度下降,这篇博客主要介绍下几种梯度下降的变种(mini-batch gradient descent和stochastic gradient descent),关于Batch gradient descent(批梯度下降,BGD)就不细说了(一次迭代训练所有样本),因为这个大家都很熟悉,通常接触梯队下降后用的都是这个。这里主要介绍Mini-batch gradient descent和stochastic gradient descent(SGD)以及对比下Batch gradient descent、mini-batch gradient descent和stochastic gradient descent的效果。

一、Batch gradient descent 
Batch gradient descent 就是一次迭代训练所有样本,就这样不停的迭代。整个算法的框架可以表示为:

X = data_input
Y = labels
parameters = initialize_parameters(layers_dims)
for i in range(0, num_iterations): #num_iterations--迭代次数# Forward propagationa, caches = forward_propagation(X, parameters)# Compute cost.cost = compute_cost(a, Y)# Backward propagation.grads = backward_propagation(a, caches, parameters)# Update parameters.parameters = update_parameters(parameters, grads)

Batch gradient descent的优点是理想状态下经过足够多的迭代后可以达到全局最优。但是缺点也很明显,就是如果你的数据集非常的大(现在很常见),根本没法全部塞到内存(显存)里,所以BGD对于小样本还行,大数据集就没法娱乐了。而且因为每次迭代都要计算全部的样本,所以对于大数据量会非常的慢。

二、stochastic gradient descent 
        为了加快收敛速度,并且解决大数据量无法一次性塞入内存(显存)的问题,stochastic gradient descent(SGD)就被提出来了,SGD的思想是每次只训练一个样本去更新参数。具体的实现代码如下:

X = data_input
Y = labels
permutation = list(np.random.permutation(m))
shuffled_X = X[:, permutation]
shuffled_Y = Y[:, permutation].reshape((1, m))
for i in range(0, num_iterations):for j in range(0, m):  # 每次训练一个样本# Forward propagationAL,caches = forward_propagation(shuffled_X[:, j].reshape(-1,1), parameters)# Compute costcost = compute_cost(AL, shuffled_Y[:, j].reshape(1,1))# Backward propagationgrads = backward_propagation(AL, shuffled_Y[:,j].reshape(1,1), caches)# Update parameters.parameters = update_parameters(parameters, grads, learning_rate)

如果我们的数据集很大,比如几亿条数据,num_iterationsnum_iterations 基本上 设置1,2,(10以内的就足够了)就可以。但是SGD也有缺点,因为每次只用一个样本来更新参数,会导致不稳定性大些(可以看下图(图片来自ng deep learning 课),每次更新的方向,不想batch gradient descent那样每次都朝着最优点的方向逼近,会在最优点附近震荡)。因为每次训练的都是随机的一个样本,会导致导致梯度的方向不会像BGD那样朝着最优点。 
注意:代码中的随机把数据打乱很重要,因为这个随机性相当于引入了“噪音”,正是因为这个噪音,使得SGD可能会避免陷入局部最优解中。

下面来对比下SGD和BGD的代价函数随着迭代次数的变化图:

可以看到SGD的代价函数随着迭代次数是震荡式的下降的(因为每次用一个样本,有可能方向是背离最优点的)

三、Mini-batch gradient descent 
        mini-batch gradient descent 是batch gradient descent和stochastic gradient descent的折中方案,就是mini-batch gradient descent每次用一部分样本来更新参数,即 batch_sizebatch_size。因此,若batch_size=1batch_size=1 则变成了SGD,若batch_size=mbatch_size=m 则变成了batch gradient descent。batch_sizebatch_size通常设置为2的幂次方,通常设置2,4,8,16,32,64,128,256,5122,4,8,16,32,64,128,256,512(很少设置大于512)。因为设置成2的幂次方,更有利于GPU加速。现在深度学习中,基本上都是用 mini-batch gradient descent,(在深度学习中,很多直接把mini-batch gradient descent(a.k.a stochastic mini-batch gradient descent)简称为SGD,所以当你看到深度学习中的SGD,一般指的就是mini-batch gradient descent)。下面用几张图来展示下mini-batch gradient descent的原理(图片来自ng deep learning 课):


下面直接给出mini-batch gradient descent的代码实现: 
1.首先要把训练集分成多个batch

# GRADED FUNCTION: random_mini_batches
def random_mini_batches(X, Y, mini_batch_size = 64, seed = 0):"""Creates a list of random minibatches from (X, Y)Arguments:X -- input data, of shape (input size, number of examples)Y -- true "label" vector (1 for blue dot / 0 for red dot), of shape (1, number of examples)mini_batch_size -- size of the mini-batches, integerReturns:mini_batches -- list of synchronous (mini_batch_X, mini_batch_Y)"""np.random.seed(seed)            # To make your "random" minibatches the same as oursm = X.shape[1]                  # number of training examplesmini_batches = []# Step 1: Shuffle (X, Y)permutation = list(np.random.permutation(m))shuffled_X = X[:, permutation]shuffled_Y = Y[:, permutation].reshape((1,m))# Step 2: Partition (shuffled_X, shuffled_Y). Minus the end case.num_complete_minibatches = m//mini_batch_size # number of mini batchesfor k in range(0, num_complete_minibatches):mini_batch_X = shuffled_X[:, k * mini_batch_size: (k + 1) * mini_batch_size]mini_batch_Y = shuffled_Y[:, k * mini_batch_size: (k + 1) * mini_batch_size]mini_batch = (mini_batch_X, mini_batch_Y)mini_batches.append(mini_batch)# Handling the end case (last mini-batch < mini_batch_size)if m % mini_batch_size != 0:mini_batch_X = shuffled_X[:, num_complete_minibatches * mini_batch_size : m]mini_batch_Y = shuffled_Y[:, num_complete_minibatches * mini_batch_size : m]mini_batch = (mini_batch_X, mini_batch_Y)mini_batches.append(mini_batch)return mini_batches

2.下面是在model中使用mini-batch gradient descent 进行更新参数


seed = 0
for i in range(0, num_iterations):# Define the random minibatches. We increment the seed to reshuffle differently the dataset after each epochseed = seed + 1minibatches = random_mini_batches(X, Y, mini_batch_size, seed)for minibatch in minibatches:# Select a minibatch(minibatch_X, minibatch_Y) = minibatch# Forward propagationAL, caches = forward_propagation(minibatch_X, parameters)# Compute costcost = compute_cost(AL, minibatch_Y)# Backward propagationgrads = backward_propagation(AL, minibatch_Y, caches)parameters = update_parameters(parameters, grads, learning_rate)

下面来看mini-batch gradient descent 和 stochastic gradient descent 在下降时的对比图:

下面是mini-batch gradient descent的代价函数随着迭代次数的变化图:

从图中能够看出,mini-batch gradient descent 相对SGD在下降的时候,相对平滑些(相对稳定),不像SGD那样震荡的比较厉害。mini-batch gradient descent的一个缺点是增加了一个超参数 batch_sizebatch_size ,要去调这个超参数。 
以上就是关于batch gradient descent、mini-batch gradient descent 和 stochastic gradient descent的内容。

完整的代码放到github上了:deep_neural_network_with_gd.py

转载自:https://blog.csdn.net/u012328159/article/details/80252012

几种梯度下降方法简介(Batch gradient descent、Mini-batch gradient descent 和 stochastic gradient descent)相关推荐

  1. 几种梯度下降方法对比(Batch gradient descent、Mini-batch gradient descent 和 stochastic gradient descent)

    几种梯度下降方法对比(Batch gradient descent.Mini-batch gradient descent 和 stochastic gradient descent) 我们在训练神经 ...

  2. 鸢尾花数据集使用三种梯度下降MGD、BGD与MBGD

    鸢尾花数据集 目录 一.鸢尾花数据集是什么? 二.使用python获取鸢尾花数据集 1.数据集的获取及展示 2.数据可视化及获得一元线性回归 3.数据集的划分 三.鸢尾花数据集使用三种梯度下降MGD. ...

  3. 【python】三种梯度下降学习率策略的比较(exact line search, backtracking, diminishing steps)

    简要介绍: 1. exact line search 即在梯度下降的每次迭代中选择使梯度下降最大的学习率.我们可以使用黄金分割法来求解. 关于黄金分割法求根的实现golden_section()见专栏 ...

  4. 三种梯度下降的方式:批量梯度下降、小批量梯度下降、随机梯度下降

    在机器学习领域中,梯度下降的方式有三种,分别是:批量梯度下降法BGD.随机梯度下降法SGD.小批量梯度下降法MBGD,并且都有不同的优缺点. 下面我们以线性回归算法(也可以是别的算法,只是损失函数(目 ...

  5. 深度学习中的随机梯度下降(SGD)简介

    随机梯度下降(Stochastic Gradient Descent, SGD)是梯度下降算法的一个扩展. 机器学习中反复出现的一个问题是好的泛化需要大的训练集,但大的训练集的计算代价也更大.机器学习 ...

  6. 线性回归中,三种梯度下降MGD、BGD与MBGD对比研究(一)——公式推导

    1.线性回归 我们都知道,一般线性回归的假设函数为: hθ=∑j=1nθjxjh_{\theta} = \sum_{j=1}^{n}\theta_{j}x_{j}hθ​=j=1∑n​θj​xj​ 即: ...

  7. 模型训练 准确率下降_手写批量线性回归算法:在Python3中梯度下降方法实现模型训练

    在这篇文章中,我们将看一个使用NumPy作为数据处理库的Python3编写的程序,来了解如何实现使用梯度下降法的(批量)线性回归. ​ 我将逐步解释代码的工作原理和代码的每个部分的工作原理. ​ 我们 ...

  8. 【人工智能 AI】机器学习教程:如何降低模型损失?迭代方法与梯度下降方法

    目录 迭代方法 如何减少损失? 梯度下降法 降低损失:梯度下降法 迭代方法 为了训练模型,我们需要一种降低模型损失的好方法.迭代方法是一种广泛使用的损失损失方法,就像向下山一样简单有效. 预计用时:5 ...

  9. 线性回归中,三种梯度下降MGD、BGD与MBGD对比研究(三)——以鸢尾花数据集为例

    上一次,写了MGD.SGD.MBGD的代码实现,现在,我们来康康实例 我们以大名鼎鼎的鸢尾花数据集为例: https://archive.ics.uci.edu/ml/machine-learning ...

最新文章

  1. servlet必知细节(二)--servlet执行过程
  2. +1.1向量 链表 数组
  3. P4258-[WC2016]挑战NPC【带花树】
  4. ML Backpropagation算法实现的过程举例
  5. java中ArrayList类的操作
  6. 【C语言】第三章 基本运算与顺序结构 题解
  7. Atitit  循环(loop), 递归(recursion), 遍历(traversal), 迭代(iterate).
  8. java调用第三方短信接口 本地能发送短信,服务器却发不了,直到超时
  9. bch verilog代码_(15-7-2)BCH Verilog HDL 语言编写的(15,7,2)BCH编码和译码功能 VHDL-FPGA- 272万源代码下载- www.pudn.com...
  10. win10虚拟机下载安装流程
  11. 计算机辅助制造相关的技术,什么是PCB制造中CAM或计算机辅助制造技术?
  12. 输入一个正整数数组,把数组里所有数字拼接起来排成一个数,打印能拼接出的所有数字中最小的一个。例如输入数组{3,32,321},则打印出这三个数字能排成的最小数字为321323
  13. mysql实现周月表_按天周月统计数据
  14. With...As 用法--公用表达式
  15. SpringBoot Hanlp的集成
  16. 系统集成项目管理工程师高频考点(第二章)
  17. 软件测试技术之APP专项测试方法汇总
  18. 第九届全球云计算大会·中国站倒计时一个月!一文揭秘重磅神秘大咖
  19. 初识OFDM(六):从零开始的OFDM误码率仿真
  20. 自学白帽黑客第二年总结

热门文章

  1. 关于Alfred 快捷键冲突command+option+c
  2. Logistic回归百问
  3. 恒讯科技分析:什么是最好的虚拟主机?
  4. Windows10 Atom安装和运行Python的使用教程(详细)
  5. 面试高级Java面试题
  6. python 对象转换为json_Python Python对象转换成JSON
  7. 平面设计没有基础要学多久才能工作
  8. 百度 跟 腾讯 谁 更危险?
  9. jQuery删除节点
  10. ctf密码学ECC,自己给自己挖坑