梯度下降 最小二乘法 matlab,最小二乘法和梯度下降法的理解
最小二乘法
在线性回归中,听的最多的应该算是最小二乘法了。最小二乘法在具体实现过程中保留核心思想的同时,会在算法上进行不同程度的改进,因此,最小二乘法有很多演变体,例如:递推最小二乘法,加权最小二乘法。这些都会根据实际情况而变化。本文,主要讲一下我对最小二乘法的理解。
所谓“最小二乘法”,least squares method,从字面上看,least就是一个最优化问题的体现,因此,最小二乘法是一个最优化问题(optimization problem)。
概念
什么是回归
我的理解:当自变量和因变量存在某种函数关系可以用来近似描述时,我们把这种行为叫做回归。而这个函数叫做回归函数。
回归的意义
回归可以帮助我们对因变量进行预测,根据以往的数据和回归函数,我们能大致预测接下来的因变量的走势。这个在股市上用的很多,在一些时间序列问题上也应用广泛。
我们假设我们有一组数,
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import random
x=np.linspace(0,10,10)
random.seed()
y=np.linspace(5,15,10)+[random.uniform(-5,5) for _ in range(10)]
print(y)
plt.scatter(x,y)
plt.show()
生成了一组随机数,然后我们想用一种函数来描述横轴x和纵轴y的关系,我们先假设是线性关系,hypothesis function就为H(x)=\theta_0+\theta_1*x
如果我们得到了\theta_0, \theta_1,那么我们的回归函数就得以确定。通过x就可以计算出对应的y。
如何得到H(x)
要让我们的假设函数对真实数据描述性更强,也就是假设函数更接近真实数据的分布。那么他们两者之间的误差就应该达到最小。
于是,我们得到cost function,
J(\theta_0, \theta_1)=\frac{1}{2m}\sum_{i=1}^m(H(x^{(i)})-y^{(i)})^2
对每个离散值和计算值进行误差平方再求和计算总误差。
这时候,我们目标就是计算:
minimize J(\theta_0, \theta_1)
以上就是最小二乘法的概念。
梯度下降法
最小二乘法是一种优化问题的想法,梯度下降法是实现这种优化想法具体的一种求解方法。
在最小二乘法问题中求解minimize J(\theta_0, \theta_1)过程中,如果是线性问题,我们可以尝试用矩阵也就是normal equation。这里只需要确保(x^Tx)^{-1}是存在的。当然这也是矩阵计算的一个局限性。
正常比较万能的方法,就是梯度下降法(不要说他慢)。
梯度下降法的本质就是迭代。通过迭代更新\theta值,逐渐找到J(\theta_0,\theta_1)的最小值。
从上图可以发现,纵轴的J值随着横轴迭代次数的增加,逐渐变小。
算法思路
我们已知cost function J(\theta_0, \theta_1)=\frac{1}{2m}\sum_{i=1}^m(H(x^{(i)})-y^{(i)})^2
我们的目标函数是minimize J(\theta_0, \theta_1)
因此,让J(\theta_0, \theta_1)分别对 \theta_0, \theta_1求偏导。
得到,
\frac{\partial J(\theta_0, \theta_1)}{\partial \theta_0} = \frac{1}{m}\sum_{i=1}^m(x^{(i)})-y^{(i)})
\frac{\partial J(\theta_0, \theta_1)}{\partial \theta_1} = \frac{1}{m}\sum_{i=1}^m(x^{(i)})-y^{(i)})x_i
对\theta进行更新:
\theta_0: \theta_0-\alpha \frac{\partial J(\theta_0)}{\partial \theta_0}
\theta_1: \theta_1-\alpha \frac{\partial J(\theta_1)}{\partial \theta_1}
thetaSet=np.array(thetaSet)
J=np.zeros((50,50))
theta0Max,theta0Min=max(thetaSet[:,0]),min(thetaSet[:,0])
theta1Max,theta1Min=max(thetaSet[:,1]),min(thetaSet[:,1])
theta0=np.linspace(0,1.8,50)
theta1=np.linspace(0,1.8,50)
T0,T1=np.meshgrid(theta0,theta1)
for i in range(50):
for j in range(50):
J[i,j]=sum((theta0[i]+theta1[j]*x-y)**2)/len(x)
plt.contour(T0,T1,J)
plt.scatter(thetaSet[:,0],thetaSet[:,1])
plt.ylabel('theta 1')
plt.xlabel('theta 0')
plt.scatter(thetaSet[-1,0],thetaSet[-1,1],c="r",s=300,alpha=0.5)
plt.show()
在这里五彩线是梯度线,我们可以看出,我们初始\theta为[0,0],然后\theta逐渐向最小cost逼近,最后到达[1.6,1.6]的位置。
最终线性拟合
在梯度下降法里,我们还会有增量梯度下降法等等,但都是为了更快实现逼近而设计的,这个根据具体需求具体分析。
梯度下降 最小二乘法 matlab,最小二乘法和梯度下降法的理解相关推荐
- 最小二乘法和梯度下降法有哪些区别?
为什么要比较这两种方法呢?很多人可能不知道,我先简单的介绍一下 机器学习有两种,一种是监督学习,另一种是非监督学习.监督学习就是我告诉计算机你把班上同学分个类,分类标准是按照性别,男生和女生:非监督分 ...
- 线性回归中的最小二乘法和梯度下降法比较
为什么要比较这两种方法呢?很多人可能不知道,我先简单的介绍一下 机器学习有两种,一种是监督学习,另一种是非监督学习.监督学习就是我告诉计算机你把班上同学分个类,分类标准是按照性别,男生和女生:非监督分 ...
- 线性回归介绍及分别使用最小二乘法和梯度下降法对线性回归C++实现
回归:在这类任务中,计算机程序需要对给定输入预测数值.为了解决这个任务,学习算法需要输出函数f:Rn→R.除了返回结果的形式不一样外,这类问题和分类问题是很像的.这类任务的一个示例是预测投保人的索赔金 ...
- 线性回归最小二乘法和梯度下降法-详细
原文: https://blog.csdn.net/y990041769/article/details/69567838 问题描述 首先我们定义问题,线性回归要解决的问题就是根据给出的数据学习出一个 ...
- 随机梯度下降(SGD)与经典的梯度下降法的区别
随机梯度下降(SGD)与经典的梯度下降法的区别 经典的优化方法,例如梯度下降法,在每次迭代过程中需要使用所有的训练数据,这就给求解大规模数据优化问题带来挑战. 知识点:随机梯度下降法(SGD).小批量 ...
- 批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
批量梯度下降(BGD).随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解 </h1><div class="clear"></div> ...
- 机器学习:随机梯度下降(SGD)与梯度下降(GD)的区别与代码实现。
机器学习:随机梯度下降(SGD)与梯度下降(GD)的区别与代码实现. 梯度下降法(GD) 随即梯度下降(SGD) 代码实现 如果想细致的了解:-> 梯度下降法 梯度下降法(GD) 假设函数fx, ...
- 深度学习(28)随机梯度下降六: 多输出感知机梯度
深度学习(28)随机梯度下降六: 多输出感知机梯度 1. Multi-output Perceptron 2. Derivative 3. 代码 Perceptron 单输出感知机梯度 ∂E∂wj0= ...
- 深度学习(27)随机梯度下降五: 单输出感知机梯度
深度学习(27)随机梯度下降五: 单输出感知机梯度 1. Perceptrnon with Sigmoid + MSE 2. Derivative 3. 代码 Recap y=XW+by=XW+by= ...
最新文章
- php中怎么使用table,thinkphp中的table方法怎样使用?
- 《LeetCode力扣练习》第15题 C语言版 (做出来就行,别问我效率。。。。)
- 关于计算机专业学习的四点浅谈
- C++构造函数与析构函数
- 2020\Simulation_1\7.音节判断
- SQL(Oracle)日常使用与不常使用函数的汇总
- 《智能家居》培训第五天------2019-01-09
- SAP 电商云 Spartacus UI 代码提交的 commit 信息规范
- 没有基础学python_python没有基础好学吗
- halcon 图像差分_Halcon编程-基于纹理的mara检测
- 2017-4-20实体类,数据访问类.字符串攻击.防攻击
- .Net 让网页列表的前3条显示New图标
- 关于ORM的一些外文资料
- 结构型模式之 适配器模式
- 免安装版VSCode配置(便携模式)
- 汇编指令与机器码的相互转换(来自80x86汇编小站)
- java怎么写脚本_一名资深牛人写的Java脚本编程指南
- B站排行榜(简陋版)
- 3399 android root,RK3288/3399 Android Root方法
- 【ES6】let、const变量提升的验证,以及TDZ死区的理解
热门文章
- 与variant有关的几个FUNCTION
- linux增量编译不成功,Linux学习笔记-增量编译(Makefile进一步使用)
- echarts无数据时显示无数据_钣金无腻子数据还原
- 计算机技术在排水领域的应用,浅谈计算机技术在市政给排水中的应用.doc
- mysql jdbc连接 优化_java+mysql连接的优化
- linux 进程 setuid,Linux SetUID(SUID)文件特殊权限用法详解
- Python常用的模块和简单用法
- python实现单链表与双向链表
- Python面向对象中super用法与MRO机制
- 用于WWW传输控制的是HTML,控制传输