梯度下降法

梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。梯度下降法的搜索迭代示意图如下图所示:

梯度下降法的缺点:

  (1)靠近极小值时收敛速度减慢,如下图所示;

  (2)直线搜索时可能会产生一些问题;

  (3)可能会“之字形”地下降。

从上图可以看出,梯度下降法在接近最优解的区域收敛速度明显变慢,利用梯度下降法求解需要很多次的迭代。

在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法批量梯度下降法

比如对一个线性回归(Linear Logistics)模型,假设下面的h(x)是要拟合的函数,J(theta)为损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的样本个数,n是特征的个数。

h(θ)=∑j=1nθjxjh(θ)=∑j=1nθjxj

h(θ)=\sum_{j=1}^nθ_jx_j

J(θ)=12m∑i=1m(yi−hθ(xi))2J(θ)=12m∑i=1m(yi−hθ(xi))2

J(θ)=\frac{1}{2m}\sum_{i=1}^m(y^i-h_θ(x^i))^2

1)批量梯度下降法(Batch Gradient Descent,BGD)

(1)将J(theta)对theta求偏导,得到每个theta对应的的梯度:

∇J(θ)∇θj=−1m∑i=1m(yi−hθ(xi))xij∇J(θ)∇θj=−1m∑i=1m(yi−hθ(xi))xji

\frac{\nabla J(θ)}{\nabla θ_j}=-\frac{1}{m}\sum_{i=1}^m(y^i-h_θ(x^i))x_j^i

(2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向,来更新每个theta:

θj=θj+1m∑i=1m(yi−hθ(xi))xijθj=θj+1m∑i=1m(yi−hθ(xi))xji

θ_j=θ_j+\frac{1}{m}\sum_{i=1}^m(y^i-h_θ(x^i))x_j^i

(3)从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果m很大,那么可想而知这种方法的迭代速度会相当的慢。所以,这就引入了另外一种方法——随机梯度下降。

对于批量梯度下降法,样本个数m,x为n维向量,一次迭代需要把m个样本全部带入计算,迭代一次计算量为m∗n2m∗n2m*n^2。

2)随机梯度下降(Stochastic Gradient Descent,SGD)

(1)上面的风险函数可以写成如下这种形式,损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:

J(θ)=1m∑i=1m12(yi−hθ(xi))2=1m∑i=1mcost(θ,(xi,yi))J(θ)=1m∑i=1m12(yi−hθ(xi))2=1m∑i=1mcost(θ,(xi,yi))

J(θ)=\frac{1}{m}\sum_{i=1}^m\frac{1}{2}(y^i-h_θ(x^i))^2=\frac{1}{m}\sum_{i=1}^m cost(θ,(x^i,y^i))

cost(θ,(xi,yi))=12(yi−hθ(xi))2cost(θ,(xi,yi))=12(yi−hθ(xi))2

cost(θ,(x^i,y^i))=\frac{1}{2}(y^i-h_θ(x^i))^2

(2)每个样本的损失函数,对theta求偏导得到对应梯度,来更新theta:

θj=θj+(yi−hθ(xi))xijθj=θj+(yi−hθ(xi))xji

θ_j=θ_j+(y^i-h_θ(x^i))x_j^i

(3)随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

随机梯度下降每次迭代只使用一个样本,迭代一次计算量为n2,当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法。两者的关系可以这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。

对批量梯度下降法和随机梯度下降法的总结:

批量梯度下降—最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小,但是对于大规模样本问题效率低下。

随机梯度下降—最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。

上面我们学习了梯度下降法,下面我们来反过来学习下梯度下降法为什么是下降最快的方法。
假设L(wt)L(wt)L(w_t)为第ttt次迭代的损失函数值

L(wt+1)=L(wt+λd)=L(wt)+L′(wt)λd+0.5L″(wt)λd2+..." role="presentation">L(wt+1)=L(wt+λd)=L(wt)+L′(wt)λd+0.5L′′(wt)λd2+...L(wt+1)=L(wt+λd)=L(wt)+L′(wt)λd+0.5L″(wt)λd2+...

L(w_{t+1})=L(w_t+λd)=L(w_t)+L'(w_t)λd+0.5L''(w_t)λd^2+...

其中ddd为脚步方向,也就是一个单位长度的向量。λ是步长,为步幅。公式进行泰勒展开,只取一阶导数,后面的省略。则L(wt)−L(wt+1)" role="presentation" style="position: relative;">L(wt)−L(wt+1)L(wt)−L(wt+1)L(w_t)-L(w_{t+1})要尽可能大,所以L′(wt)dL′(wt)dL'(w_t)d要尽可能小,其中L′(wt)L′(wt)L'(w_t)和ddd都是向量,两个向量内积运算最小。则两个方向相反。所以d" role="presentation" style="position: relative;">ddd是−L′(wt)−L′(wt)-L'(w_t)的方向的单位向量。

牛顿法

上面的梯度下降法,我们知道了是一次求导,走的是每次下降最快的方向,看的也是当前一步下降最快的方向,但是这样找的只是局部最优点,并不是全局最优点。

仍然延续上面的公式

L(wt+1)=L(wt+λd)=L(wt)+L′(wt)(wt+1−wt)+0.5L′′(wt)(wt+1−wt)2+...L(wt+1)=L(wt+λd)=L(wt)+L′(wt)(wt+1−wt)+0.5L″(wt)(wt+1−wt)2+...

L(w_{t+1})=L(w_t+λd)=L(w_t)+L'(w_t)(w_{t+1}-w_t)+0.5L''(w_t)(w_{t+1}-w_t)^2+...
牛顿法保留到泰勒展开的二次导。牛顿法最大的特点就在于它的收敛速度很快。
其中L′′(wt)L″(wt)L''(w_t)为Hesse矩阵(二阶导数矩阵)。其中wtwtw_t为第t次迭代的值,wt+1wt+1w_{t+1}为下一次更新的值,也就是要求的未知值。

对wt+1wt+1w_{t+1}求导,并令其等于0,得

L′(wt)+L′′(wt)(wt+1−wt)=0L′(wt)+L″(wt)(wt+1−wt)=0

L'(w_t)+L''(w_t)(w_{t+1}-w_t)=0

假设L′′(wt)L″(wt)L''(w_t)的逆矩阵存在,则

wt+1=wt−L′′(wt)−1L′(wt)wt+1=wt−L″(wt)−1L′(wt)

w_{t+1}=w_t-L''(w_t)^{-1}L'(w_t)

具体步骤:
  首先,选择一个接近函数 f(x)f(x)f (x)零点的 x0x0x_0,计算相应的 f(x0)f(x0)f (x_0) 和切线斜率f′(x0)f′(x0)f' (x_0)(这里f′f′f' 表示函数 fff的导数)。然后我们计算穿过点(x0,f(x0))" role="presentation" style="position: relative;">(x0,f(x0))(x0,f(x0))(x_0, f(x_0)) 并且斜率为f′(x0)f′(x0)f '(x_0)的直线和 x 轴的交点的x坐标,也就是求如下方程的解:

x⋅f′(x0)+f(x0)−x0⋅f′(x0)=0x·f′(x0)+f(x0)−x0·f′(x0)=0

x·f'(x_0)+f(x_0)-x_0·f'(x_0)=0

 我们将新求得的点的 x 坐标命名为x1x1x_1,通常x1x1x_1会比x0x0x_0更接近方程f(x)=0f(x)=0f(x) = 0的解。因此我们现在可以利用x1x1x_1开始下一轮迭代。迭代公式可化简为如下所示:

xn+1=xn−f(xn)f′(xn)xn+1=xn−f(xn)f′(xn)

x_{n+1}=x_n-\frac{f(x_n)}{f'(x_n)}

已经证明,如果f′f′f' 是连续的,并且待求的零点x是孤立的,那么在零点x周围存在一个区域,只要初始值x0x0x_0位于这个邻近区域内,那么牛顿法必定收敛。 并且,如果f′(x)f′(x)f' (x)不为0, 那么牛顿法将具有平方收敛的性能. 粗略的说,这意味着每迭代一次,牛顿法结果的有效数字将增加一倍。下图为一个牛顿法执行过程的例子。

  由于牛顿法是基于当前位置的切线来确定下一次的位置,所以牛顿法又被很形象地称为是”切线法”。牛顿法的搜索路径(二维情况)如下图所示:

  牛顿法搜索动态示例图:
  

关于牛顿法和梯度下降法的效率对比:

  从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。(牛顿法目光更加长远,所以少走弯路;相对而言,梯度下降法只考虑了局部的最优,没有全局思想。)

  根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优下降路径。

注:红色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径。

牛顿法的优缺点总结:

  优点:二阶收敛,收敛速度快;

  缺点:牛顿法是一种迭代算法,每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂。

拟牛顿法

拟牛顿法是求解非线性优化问题最有效的方法之一,于20世纪50年代由美国Argonne国家实验室的物理学家W.C.Davidon所提出来。Davidon设计的这种算法在当时看来是非线性优化领域最具创造性的发明之一。不久R. Fletcher和M. J. D. Powell证实了这种新的算法远比其他方法快速和可靠,使得非线性优化这门学科在一夜之间突飞猛进。

拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度。拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法,尤其对于困难的问题。另外,因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效。如今,优化软件中包含了大量的拟牛顿算法用来解决无约束,约束,和大规模的优化问题。

启发式优化方法

 启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特点是在解决问题时,利用过去的经验,选择已经行之有效的方法,而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多,包括经典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等等。

  还有一种特殊的优化算法被称之多目标优化算法,它主要针对同时优化多个目标(两个及两个以上)的优化问题,这方面比较经典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等。

解决约束优化问题——拉格朗日乘数法

参考:https://blog.csdn.net/luanpeng825485697/article/details/78823919

机器学习案例系列教程——优化方法总结(梯度下降法、牛顿法、拟牛顿法、共轭梯度法等)相关推荐

  1. python机器学习案例系列教程——优化,寻找使成本函数最小的最优解

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 举个例子我们来了解一下优化问题,学校为2n个同学分配n个宿舍,每个宿舍两个床铺,每个同学提交了自己最想住的宿舍和其次想住的宿舍(只选房 ...

  2. python机器学习案例系列教程——集成学习(Bagging、Boosting、随机森林RF、AdaBoost、GBDT、xgboost)

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 可以通过聚集多个分类器的预测结果提高分类器的分类准确率,这一方法称为集成(Ensemble)学习或分类器组合(Classifier C ...

  3. python机器学习案例系列教程——GBDT算法、XGBOOST算法

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 GBDT概述 GBDT也是集成学习Boosting家族的成员,但是却和传统的Adaboost有很大的不同.回顾下Adaboost,我们 ...

  4. python机器学习案例系列教程——决策树(ID3、C4.5、CART)

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 决策树简介 决策树算是最好理解的分类器了.决策树就是一个多层if-else函数,就是对对象属性进行多层if-else判断,获取目标属性 ...

  5. python机器学习案例系列教程——推荐系统

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 主流的推荐系统算法大致分为两类: 基于用户行为数据的协同过滤算法 基于内容数据的过滤算法 大致而言,基于内容数据的算法适用于cold ...

  6. python机器学习案例系列教程——GBDT构建新特征

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 GBDT的算法参考:https://blog.csdn.net/luanpeng825485697/article/details/7 ...

  7. python机器学习案例系列教程——极大似然估计、EM算法

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 极大似然 极大似然(Maximum Likelihood)估计为用于已知模型的参数估计的统计学方法. 也就是求使得似然函数最大的代估参 ...

  8. python机器学习案例系列教程——k均值聚类、k中心点聚类

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 上一篇我们学习了层次聚类.层次聚类只是迭代的把最相近的两个聚类匹配起来.并没有给出能给出多少的分组.今天我们来研究一个K均值聚类.就是 ...

  9. python机器学习案例系列教程——逻辑分类/逻辑回归LR/一般线性回归(softmax回归)

    全栈工程师开发手册 (作者:栾鹏) python数据挖掘系列教程 线性函数.线性回归 参考:http://blog.csdn.net/luanpeng825485697/article/details ...

最新文章

  1. 2021年开源SLAM算法集锦
  2. 表格布局实践中经验的一些总结
  3. 一篇综述带你全面了解迁移学习的领域泛化(Domain Generalization)
  4. ASP.NET Core Blazor 初探之 Blazor Server
  5. 传奇落幕!杰克·韦尔奇给管理者的10句箴言,句句经典!
  6. Python相关的考试和认证
  7. Python模拟智能开关设备MQTT接入阿里云物联网平台 - PyCharm paho.mqtt
  8. Bailian3728 Blah数集【数学+set】
  9. Git:checkout命令无法切换回master
  10. Atitit.api参数传递的设计
  11. ISO 14001环境管理体系中环境因素的识别
  12. irrlicht引擎:实现天龙八部的RPG换装
  13. 用photoshop做电影胶片效果
  14. mysql实现经纬度查询并按距离排序
  15. 台式机尺寸相关信息整理
  16. win10 激活工具 Re-LoaderByR@1n.exe
  17. pads2007版本pcb导出的dxf在cad中打不开,提示“DXF 输入无效或不完整 -- 图形被放弃”
  18. 微信气泡主题设置_华为手机微信怎么设置气泡? 怎样改微信的气泡和主题
  19. 修改计算机桌面壁纸影响计算机考试吗,若何修改调换计算机桌面背景图片
  20. 四旋翼自主飞行器探测跟踪系统补充

热门文章

  1. python精彩编程200例-Python趣味编程与精彩实例
  2. 讯飞输入法更新10.0版本 上线全新A.I.语音输入引擎
  3. windows mobile设置插移动卡没反应_u盘插入电脑没反应怎么办 u盘插入电脑没反应解决方法【详解】...
  4. 信息孤岛影响_企业专访:以“信息化”冲破信息孤岛
  5. 【王道操作系统笔记】操作系统的四个特征
  6. 【数据结构和算法笔记】队列(Queue)详解:c实现
  7. 开源电子商务平台:OfBiz
  8. Helm 3 完整教程(十五):Helm 函数讲解(9)网络函数、文件路径函数、类型检查函数
  9. css3d模型做法,CSS3 3D房屋模型
  10. linux中的root命令,在linux终端中执行root命令