梯度下降

%matplotlib inline
import numpy as np
import torch
import time
from torch import nn, optim
import math
import sys
sys.path.append('/home/input')
import d2lzh1981 as d2l

一维梯度下降

证明:沿梯度反方向移动自变量可以减小函数值

泰勒展开:

f(x+ϵ)=f(x)+ϵf′(x)+O(ϵ2)f(x+\epsilon)=f(x)+\epsilon f^{\prime}(x)+\mathcal{O}\left(\epsilon^{2}\right) f(x+ϵ)=f(x)+ϵf′(x)+O(ϵ2)

代入沿梯度方向的移动量 ηf′(x)\eta f^{\prime}(x)ηf′(x):

f(x−ηf′(x))=f(x)−ηf′2(x)+O(η2f′2(x))f\left(x-\eta f^{\prime}(x)\right)=f(x)-\eta f^{\prime 2}(x)+\mathcal{O}\left(\eta^{2} f^{\prime 2}(x)\right) f(x−ηf′(x))=f(x)−ηf′2(x)+O(η2f′2(x))

f(x−ηf′(x))≲f(x)f\left(x-\eta f^{\prime}(x)\right) \lesssim f(x) f(x−ηf′(x))≲f(x)

x←x−ηf′(x)x \leftarrow x-\eta f^{\prime}(x) x←x−ηf′(x)

def f(x):return x**2  # Objective functiondef gradf(x):return 2 * x  # Its derivativedef gd(eta):x = 10results = [x]for i in range(10):x -= eta * gradf(x)results.append(x)print('epoch 10, x:', x)return resultsres = gd(0.2)
def show_trace(res):n = max(abs(min(res)), abs(max(res)))f_line = np.arange(-n, n, 0.01)d2l.set_figsize((3.5, 2.5))d2l.plt.plot(f_line, [f(x) for x in f_line],'-')d2l.plt.plot(res, [f(x) for x in res],'-o')d2l.plt.xlabel('x')d2l.plt.ylabel('f(x)')show_trace(res)

学习率

show_trace(gd(0.05))

局部极小值

c = 0.15 * np.pidef f(x):return x * np.cos(c * x)def gradf(x):return np.cos(c * x) - c * x * np.sin(c * x)show_trace(gd(2))

多维梯度下降

def train_2d(trainer, steps=20):x1, x2 = -5, -2results = [(x1, x2)]for i in range(steps):x1, x2 = trainer(x1, x2)results.append((x1, x2))print('epoch %d, x1 %f, x2 %f' % (i + 1, x1, x2))return resultsdef show_trace_2d(f, results): d2l.plt.plot(*zip(*results), '-o', color='#ff7f0e')x1, x2 = np.meshgrid(np.arange(-5.5, 1.0, 0.1), np.arange(-3.0, 1.0, 0.1))d2l.plt.contour(x1, x2, f(x1, x2), colors='#1f77b4')d2l.plt.xlabel('x1')d2l.plt.ylabel('x2')eta = 0.1def f_2d(x1, x2):  # 目标函数return x1 ** 2 + 2 * x2 ** 2def gd_2d(x1, x2):return (x1 - eta * 2 * x1, x2 - eta * 4 * x2)show_trace_2d(f_2d, train_2d(gd_2d))

自适应方法

牛顿法

在 x+ϵx + \epsilonx+ϵ 处泰勒展开:

f(x+ϵ)=f(x)+ϵ⊤∇f(x)+12ϵ⊤∇∇⊤f(x)ϵ+O(∥ϵ∥3)f(\mathbf{x}+\epsilon)=f(\mathbf{x})+\epsilon^{\top} \nabla f(\mathbf{x})+\frac{1}{2} \epsilon^{\top} \nabla \nabla^{\top} f(\mathbf{x}) \epsilon+\mathcal{O}\left(\|\epsilon\|^{3}\right) f(x+ϵ)=f(x)+ϵ⊤∇f(x)+21​ϵ⊤∇∇⊤f(x)ϵ+O(∥ϵ∥3)

最小值点处满足: ∇f(x)=0\nabla f(\mathbf{x})=0∇f(x)=0, 即我们希望 ∇f(x+ϵ)=0\nabla f(\mathbf{x} + \epsilon)=0∇f(x+ϵ)=0, 对上式关于 ϵ\epsilonϵ 求导,忽略高阶无穷小,有:

∇f(x)+Hfϵ=0and hence ϵ=−Hf−1∇f(x)\nabla f(\mathbf{x})+\boldsymbol{H}_{f} \boldsymbol{\epsilon}=0 \text { and hence } \epsilon=-\boldsymbol{H}_{f}^{-1} \nabla f(\mathbf{x}) ∇f(x)+Hf​ϵ=0 and hence ϵ=−Hf−1​∇f(x)

c = 0.5def f(x):return np.cosh(c * x)  # Objectivedef gradf(x):return c * np.sinh(c * x)  # Derivativedef hessf(x):return c**2 * np.cosh(c * x)  # Hessian# Hide learning rate for now
def newton(eta=1):x = 10results = [x]for i in range(10):x -= eta * gradf(x) / hessf(x)results.append(x)print('epoch 10, x:', x)return resultsshow_trace(newton())

收敛性分析

只考虑在函数为凸函数, 且最小值点上 f′′(x∗)>0f''(x^*) > 0f′′(x∗)>0 时的收敛速度:

令 xkx_kxk​ 为第 kkk 次迭代后 xxx 的值, ek:=xk−x∗e_{k}:=x_{k}-x^{*}ek​:=xk​−x∗ 表示 xkx_kxk​ 到最小值点 x∗x^{*}x∗ 的距离,由 f′(x∗)=0f'(x^{*}) = 0f′(x∗)=0:

0=f′(xk−ek)=f′(xk)−ekf′′(xk)+12ek2f′′′(ξk)for some ξk∈[xk−ek,xk]0=f^{\prime}\left(x_{k}-e_{k}\right)=f^{\prime}\left(x_{k}\right)-e_{k} f^{\prime \prime}\left(x_{k}\right)+\frac{1}{2} e_{k}^{2} f^{\prime \prime \prime}\left(\xi_{k}\right) \text{for some } \xi_{k} \in\left[x_{k}-e_{k}, x_{k}\right] 0=f′(xk​−ek​)=f′(xk​)−ek​f′′(xk​)+21​ek2​f′′′(ξk​)for some ξk​∈[xk​−ek​,xk​]

两边除以 f′′(xk)f''(x_k)f′′(xk​), 有:

ek−f′(xk)/f′′(xk)=12ek2f′′′(ξk)/f′′(xk)e_{k}-f^{\prime}\left(x_{k}\right) / f^{\prime \prime}\left(x_{k}\right)=\frac{1}{2} e_{k}^{2} f^{\prime \prime \prime}\left(\xi_{k}\right) / f^{\prime \prime}\left(x_{k}\right) ek​−f′(xk​)/f′′(xk​)=21​ek2​f′′′(ξk​)/f′′(xk​)

代入更新方程 xk+1=xk−f′(xk)/f′′(xk)x_{k+1} = x_{k} - f^{\prime}\left(x_{k}\right) / f^{\prime \prime}\left(x_{k}\right)xk+1​=xk​−f′(xk​)/f′′(xk​), 得到:

xk−x∗−f′(xk)/f′′(xk)=12ek2f′′′(ξk)/f′′(xk)x_k - x^{*} - f^{\prime}\left(x_{k}\right) / f^{\prime \prime}\left(x_{k}\right) =\frac{1}{2} e_{k}^{2} f^{\prime \prime \prime}\left(\xi_{k}\right) / f^{\prime \prime}\left(x_{k}\right) xk​−x∗−f′(xk​)/f′′(xk​)=21​ek2​f′′′(ξk​)/f′′(xk​)

xk+1−x∗=ek+1=12ek2f′′′(ξk)/f′′(xk)x_{k+1} - x^{*} = e_{k+1} = \frac{1}{2} e_{k}^{2} f^{\prime \prime \prime}\left(\xi_{k}\right) / f^{\prime \prime}\left(x_{k}\right) xk+1​−x∗=ek+1​=21​ek2​f′′′(ξk​)/f′′(xk​)

当 12f′′′(ξk)/f′′(xk)≤c\frac{1}{2} f^{\prime \prime \prime}\left(\xi_{k}\right) / f^{\prime \prime}\left(x_{k}\right) \leq c21​f′′′(ξk​)/f′′(xk​)≤c 时,有:

ek+1≤cek2e_{k+1} \leq c e_{k}^{2} ek+1​≤cek2​

随机梯度下降参数更新

对于有 nnn 个样本对训练数据集,设 fi(x)f_i(x)fi​(x) 是第 iii 个样本的损失函数, 则目标函数为:

f(x)=1n∑i=1nfi(x)f(\mathbf{x})=\frac{1}{n} \sum_{i=1}^{n} f_{i}(\mathbf{x}) f(x)=n1​i=1∑n​fi​(x)

其梯度为:

∇f(x)=1n∑i=1n∇fi(x)\nabla f(\mathbf{x})=\frac{1}{n} \sum_{i=1}^{n} \nabla f_{i}(\mathbf{x}) ∇f(x)=n1​i=1∑n​∇fi​(x)

使用该梯度的一次更新的时间复杂度为 O(n)\mathcal{O}(n)O(n)

随机梯度下降更新公式 O(1)\mathcal{O}(1)O(1):

x←x−η∇fi(x)\mathbf{x} \leftarrow \mathbf{x}-\eta \nabla f_{i}(\mathbf{x}) x←x−η∇fi​(x)

且有:

Ei∇fi(x)=1n∑i=1n∇fi(x)=∇f(x)\mathbb{E}_{i} \nabla f_{i}(\mathbf{x})=\frac{1}{n} \sum_{i=1}^{n} \nabla f_{i}(\mathbf{x})=\nabla f(\mathbf{x}) Ei​∇fi​(x)=n1​i=1∑n​∇fi​(x)=∇f(x)

def f(x1, x2):return x1 ** 2 + 2 * x2 ** 2  # Objectivedef gradf(x1, x2):return (2 * x1, 4 * x2)  # Gradientdef sgd(x1, x2):  # Simulate noisy gradientglobal lr  # Learning rate scheduler(g1, g2) = gradf(x1, x2)  # Compute gradient(g1, g2) = (g1 + np.random.normal(0.1), g2 + np.random.normal(0.1))eta_t = eta * lr()  # Learning rate at time treturn (x1 - eta_t * g1, x2 - eta_t * g2)  # Update variableseta = 0.1
lr = (lambda: 1)  # Constant learning rate
show_trace_2d(f, train_2d(sgd, steps=50))

动态学习率

def exponential():global ctrctr += 1return math.exp(-0.1 * ctr)ctr = 1
lr = exponential  # Set up learning rate
show_trace_2d(f, train_2d(sgd, steps=1000))

小批量随机梯度下降

读取数据

读取数据

def get_data_ch7():  # 本函数已保存在d2lzh_pytorch包中方便以后使用data = np.genfromtxt('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='\t')data = (data - data.mean(axis=0)) / data.std(axis=0) # 标准化return torch.tensor(data[:1500, :-1], dtype=torch.float32), \torch.tensor(data[:1500, -1], dtype=torch.float32) # 前1500个样本(每个样本5个特征)features, labels = get_data_ch7()
import pandas as pd
df = pd.read_csv('/home/kesci/input/airfoil4755/airfoil_self_noise.dat', delimiter='\t', header=None)
df.head(10)

从零开始实现

def sgd(params, states, hyperparams):for p in params:p.data -= hyperparams['lr'] * p.grad.data
# 本函数已保存在d2lzh_pytorch包中方便以后使用
def train_ch7(optimizer_fn, states, hyperparams, features, labels,batch_size=10, num_epochs=2):# 初始化模型net, loss = d2l.linreg, d2l.squared_lossw = torch.nn.Parameter(torch.tensor(np.random.normal(0, 0.01, size=(features.shape[1], 1)), dtype=torch.float32),requires_grad=True)b = torch.nn.Parameter(torch.zeros(1, dtype=torch.float32), requires_grad=True)def eval_loss():return loss(net(features, w, b), labels).mean().item()ls = [eval_loss()]data_iter = torch.utils.data.DataLoader(torch.utils.data.TensorDataset(features, labels), batch_size, shuffle=True)for _ in range(num_epochs):start = time.time()for batch_i, (X, y) in enumerate(data_iter):l = loss(net(X, w, b), y).mean()  # 使用平均损失# 梯度清零if w.grad is not None:w.grad.data.zero_()b.grad.data.zero_()l.backward()optimizer_fn([w, b], states, hyperparams)  # 迭代模型参数if (batch_i + 1) * batch_size % 100 == 0:ls.append(eval_loss())  # 每100个样本记录下当前训练误差# 打印结果和作图print('loss: %f, %f sec per epoch' % (ls[-1], time.time() - start))d2l.set_figsize()d2l.plt.plot(np.linspace(0, num_epochs, len(ls)), ls)d2l.plt.xlabel('epoch')d2l.plt.ylabel('loss')
def train_sgd(lr, batch_size, num_epochs=2):train_ch7(sgd, None, {'lr': lr}, features, labels, batch_size, num_epochs)
train_sgd(1, 1500, 6)

简洁实现

# 例如: optimizer_fn=torch.optim.SGD, optimizer_hyperparams={"lr": 0.05}
def train_pytorch_ch7(optimizer_fn, optimizer_hyperparams, features, labels,batch_size=10, num_epochs=2):# 初始化模型net = nn.Sequential(nn.Linear(features.shape[-1], 1))loss = nn.MSELoss()optimizer = optimizer_fn(net.parameters(), **optimizer_hyperparams)def eval_loss():return loss(net(features).view(-1), labels).item() / 2ls = [eval_loss()]data_iter = torch.utils.data.DataLoader(torch.utils.data.TensorDataset(features, labels), batch_size, shuffle=True)for _ in range(num_epochs):start = time.time()for batch_i, (X, y) in enumerate(data_iter):# 除以2是为了和train_ch7保持一致, 因为squared_loss中除了2l = loss(net(X).view(-1), y) / 2 optimizer.zero_grad()l.backward()optimizer.step()if (batch_i + 1) * batch_size % 100 == 0:ls.append(eval_loss())# 打印结果和作图print('loss: %f, %f sec per epoch' % (ls[-1], time.time() - start))d2l.set_figsize()d2l.plt.plot(np.linspace(0, num_epochs, len(ls)), ls)d2l.plt.xlabel('epoch')d2l.plt.ylabel('loss')
train_pytorch_ch7(optim.SGD, {"lr": 0.05}, features, labels, 10)

从零开始学Pytorch(十三)之梯度下降相关推荐

  1. 从零开始学Pytorch(第5天)

    从零开始学Pytorch(第5天) 前言 一.模块类的构建 1. nn.Module 2.构建一个线性回归类 二.计算图和自动求导机制 1.计算图 2.自动求导 总结 前言 今天主要了解和学习Pyto ...

  2. 从零开始学Pytorch(零)之安装Pytorch

    本文首发于公众号"计算机视觉cv" Pytorch优势   聊聊为什么使用Pytorch,个人觉得Pytorch比Tensorflow对新手更为友善,而且现在Pytorch在学术界 ...

  3. 从零开始学Pytorch(六)之梯度消失、梯度爆炸

    深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion). 当神经网络的层数较多时,模型的数值稳定性容易变差. 假设一个层数为LLL的多层感知机的第lll层H(l)\b ...

  4. 梯度消失和梯度爆炸_从零开始学Pytorch之梯度消失、梯度爆炸

    本文首发于微信公众号"计算机视觉cv" 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion). 当神经网络的层数较多时,模型的数值稳定性容易变差 ...

  5. 从零开始学Pytorch(五)之欠拟合和过拟合

    本文首发于微信公众号"计算机视觉cv" 模型选择.过拟合和欠拟合 训练误差和泛化误差 训练误差(training error)指模型在训练数据集上表现出的误差,泛化误差(gener ...

  6. 从零开始学Pytorch之线性回归

    线性回归 主要内容包括: 线性回归的基本要素 线性回归模型从零开始的实现 线性回归模型使用pytorch的简洁实现 线性回归的基本要素 模型 为了简单起见,这里我们假设价格只取决于房屋状况的两个因素, ...

  7. 一维卷积filter_从零开始学Pytorch(七)之卷积神经网络

    卷积神经网络基础 我们介绍卷积神经网络的卷积层和池化层,并解释填充.步幅.输入通道和输出通道的含义. import torch from torch.autograd import Variable ...

  8. 从零开始学Pytorch(十四)之优化算法进阶

    动量 目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向.因此,梯度下降也叫作最陡下降(steepest descent).在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯 ...

  9. 从零开始学Pytorch(七)之卷积神经网络

    卷积神经网络基础 我们介绍卷积神经网络的卷积层和池化层,并解释填充.步幅.输入通道和输出通道的含义. import torch from torch.autograd import Variable ...

最新文章

  1. MSMQ: C# MSMQ编程问题
  2. JS面向对象,创建,继承
  3. C# 的 Console类
  4. python 虚拟环境 django.db 报错_jumpserver一体化安装
  5. 诸多研究生的一个通病:对导师过度依赖!
  6. 吐血整理!12种通用知识图谱项目简介
  7. linux 系统yum下安装vnc
  8. 关于dlopen函数分析
  9. centos7 安装node
  10. 侯捷《深入浅出MFC》中“Hello, MFC”如何改写到VS2012中
  11. Linux的PDF工具,Linux 系统中的pdf阅读器以及工具
  12. 浏览器之硬件加速机制
  13. 国家虚拟仿真实验教学项目共享平台(实验空间)PHP SDK
  14. shell小脚本--网速监控
  15. hihocoder 博弈三连发
  16. Python爬虫抓取考试试题
  17. 如何有效地学习知识,如何才能全面发展?
  18. 腾讯云企业邮箱怎么样?
  19. 大学四年努力学好编程
  20. 高等数学(Space Analytic Geometry)

热门文章

  1. PAT 1004 成绩排名 (20)(代码)
  2. Java学习笔记10---访问权限修饰符如何控制成员变量、成员方法及类的访问范围...
  3. 关于java和C语言i=i++问题描述
  4. 问题-Delphi编译时提示缺少delphi自己的单元文件
  5. jvm间歇性崩溃分析
  6. 没有共享存储和仲裁盘的SQL Server 2012HADR故障手动切换TSQL
  7. \r:command not found
  8. Dual-arm cooperation and implementing for robotic harvesting tomato using binocular vision(摘西红柿机器人)
  9. cmd中输入net start mysql 提示:服务名无效或者MySQL正在启动 MySQL无法启动
  10. 复习:线性表——顺序表