数据科学和机器学习中的优化理论与算法(下)

数据科学和机器学习当前越来越热,其中涉及的优化知识颇多。很多人在做机器学习或者数据科学时,对其中和优化相关的数学基础,包括随机梯度下降、ADMM、KKT 条件,拉格朗日乘数法、对偶问题等,不太了解,一知半解地用,用着用着就出错了。

本文希望从基础知识的角度,尽可能全地对最简单的优化理论和算法做一个小结。内容涵盖以下几个方面:优化简介、无约束优化、线搜索方法、信赖域方法、共轭梯度方法、拟牛顿方法、最小二乘问题、非线性方程、约束优化理论、非线性约束优化算法、二次规划、罚方法…

通过本文档的学习,相信你会掌握数据科学和机器学习中用到的优化基础知识,以后再遇到优化问题,就不会再困惑了。

建议收藏,方便时时查阅。

文章目录

  • 数据科学和机器学习中的优化理论与算法(下)
    • 共轭梯度方法
      • 线性共轭梯度方法
        • **共轭方向法**
        • **共轭梯度法**
      • 非线性共轭梯度方法
    • 拟牛顿方法
      • 拟牛顿和割线方程
      • DFP 方法
      • BFGS 方法
      • 对称-秩一方法
      • 步长的选取
      • 其他内容
        • **BB 方法**
        • **有限内存 BFGS 方法(L-BFGS)**
    • 最小二乘问题
      • 问题描述
      • 导数
      • 线性最小二乘问题
      • 非线性最小二乘问题
    • 非线性方程
    • 约束优化理论
      • 拉格朗日条件和 KKT
      • 对偶问题
      • 其它
    • 非线性约束优化算法
      • 积极集方法
      • 其他内容
    • 二次规划
      • 序列二次规划
      • 二次规划的内点法
      • 其它
    • 罚方法
      • l1l_1l1​和二次罚方法
      • 增广拉格朗日乘子法
      • 交替方向乘子法(ADMM)
        • **共轭函数**
        • **对偶梯度上升法**
        • **交替方向乘子法**

共轭梯度方法

线性共轭梯度方法

共轭梯度(Conjugate Gradient,简称 CG)方法,最开始在十九世纪五十年代被 Hestenes 和 Stiefel 提出用来迭代地带正定系数的线性方程组。假设 AAA 对称正定,我们要求解,
Ax=bA x=bAx=b
这也可以被等价写为极小化下面的一个凸问题:
min⁡ϕ(x)≡12xTAx−bTx\min \phi(x) \equiv \frac{1}{2} x^{T} A x-b^{T} xminϕ(x)≡21​xTAx−bTx
ϕ\phiϕ的梯度也就等于线性系统的残差,
∇ϕ(x)=Ax−b≡r(x)\nabla \phi(x)=A x-b \equiv r(x)∇ϕ(x)=Ax−b≡r(x)
在迭代到x=xkx=x_{k}x=xk​,当前步的残差也可以写为:rk=Axk−br_{k}=A x_{k}-brk​=Axk​−b。

共轭方向法

给一个定义,如果对于一个非零向量集 {p0,p1,⋯,pt}\left\{p_{0}, p_{1}, \cdots, p_{t}\right\}{p0​,p1​,⋯,pt​},对于正定矩阵 AAA 满足,
piTApj=0,for all i≠jp_{i}^{T} A p_{j}=0, \quad \text { for all } i \neq jpiT​Apj​=0, for all i​=j
我们就说这个向量集是共轭的,其实也就是在 AAA 意义下的一个正交。

共轭方向之间是相互独立的,任何一个向量可以写成它们之间的一个线性组合 x=∑i=1nαipix=\sum_{i=1}^{n} \alpha^{i} p_{i}x=∑i=1n​αipi​,代入到极小化函数 ϕ\phiϕ 中,可得,
ϕ(x)=∑i=1n(αi)22piTApi−αipiTb\phi(x)=\sum_{i=1}^{n} \frac{\left(\alpha^{i}\right)^{2}}{2} p_{i}^{T} A p_{i}-\alpha^{i} p_{i}^{T} bϕ(x)=i=1∑n​2(αi)2​piT​Api​−αipiT​b
要极小化 ϕ\phiϕ,显然有,
αi=piTbpiTApi\alpha^{i}=\frac{p_{i}^{T} b}{p_{i}^{T} A p_{i}}αi=piT​Api​piT​b​
也就是说,只要知道了共轭方向,就可以通过他们的线性组合,将最优解表达出来。细细地思考,将这些共轭方向做线性组合,无非就是从原点出发,一次沿一个共轭方向去走一定的步长。那么,不从原点出发,而从某个 x0x_0x0​ 出发,每次也依次沿着共轭方向走,是否也能走到一个最优值点呢?答案是肯定的。

考虑下述的共轭方向方法,给定初值点 x0∈ℜnx_{0} \in \Re^{n}x0​∈ℜn 和一个共轭方向集合 {p0,p1,⋯,pn−1}\left\{p_{0}, p_{1}, \cdots, p_{n-1}\right\}{p0​,p1​,⋯,pn−1​},让我们按如下方式进行迭代
xk+1=xk+αkpkx_{k+1}=x_{k}+\alpha_{k} p_{k}xk+1​=xk​+αk​pk​
这里的 αk\alpha_kαk​ 其实是二次函数 ϕ\phiϕ 沿着 xk+αpkx_{k}+\alpha p_{k}xk​+αpk​ 方向的一维极小值,显示地给出表达,就是
αk=−rkTpkpkTApk\alpha_{k}=-\frac{r_{k}^{T} p_{k}}{p_{k}^{T} A p_{k}}αk​=−pkT​Apk​rkT​pk​​
有相关定理表明,以上迭代过程收敛到最优解 x∗x^*x∗,并且具有n步终止性。以上方法,就是传说中的共轭方向法。

那么,问题来了,如何给出一组共轭方向呢?一个容易想到的是,直接取矩阵 AAA 的 n 个彼此正交的特征向量作为共轭方向。问题在于,实现构造共轭方向,计算量太大,从而可以考虑在迭代中产生。事实上,迭代地去产生和利用共轭方向,就是共轭梯度方法。

共轭梯度法

共轭梯度法在迭代中生成共轭方向,只需要用到前一点出的搜索方向,在内存和计算的开销上,也尤为经济。共轭方向的产生,是将当前步的共轭方向,写成当前步的残差和前一步的共轭方向(搜索方向)的线性组合,
pk=−rk+βkpk−1p_{k}=-r_{k}+\beta_{k} p_{k-1}pk​=−rk​+βk​pk−1​
由共轭梯度的定义 pkp_kpk​ 必须满足 pk−1TApk=0p_{k-1}^{T} A p_{k}=0pk−1T​Apk​=0,易得,
βk=rkTApk−1pk−1TApk−1\beta_{k}=\frac{r_{k}^{T} A p_{k-1}}{p_{k-1}^{T} A p_{k-1}}βk​=pk−1T​Apk−1​rkT​Apk−1​​
选择 p0p_0p0​ 是负梯度方向,并且依次执行沿各个共轭梯度方向一维的极小化过程,就是所说的共轭梯度方法。算法流程如下图。

CG 算法具有 n 步终止性,它也是也给 Krylov 子空间方法。为了写成更加经济的程序,我们可以对上述算法的某些变量表达进行化简。

首先,我们得不加证明地引用残差和共轭梯度的的正交性质。
rkTri=0,∀i≠kr_{k}^{T} r_{i}=0, \quad \forall i\neq krkT​ri​=0,∀i​=k
rkTpi=0,∀i≠kr_{k}^{T} p_{i}=0, \quad \forall i\neq krkT​pi​=0,∀i​=k
那么,根据
rkTpk=rkT(−rk+βkpk−1)=−rkTrkr_{k}^{T} p_{k}=r_{k}^{T}\left(-r_{k}+\beta_{k} p_{k-1}\right)=-r_{k}^{T} r_{k}rkT​pk​=rkT​(−rk​+βk​pk−1​)=−rkT​rk​
以及
rk+1=Axk+1−b=A(xk+αkpk)−b=rk+αkApkr_{k+1}=A x_{k+1}-b=A\left(x_{k}+\alpha_{k} p_{k}\right)-b=r_{k}+\alpha_{k} A p_{k}rk+1​=Axk+1​−b=A(xk​+αk​pk​)−b=rk​+αk​Apk​
我们可以得到,
αk=−rkTpkpkTApk=rkTrkpkTApk\alpha_{k}=-\frac{r_{k}^{T} p_{k}}{p_{k}^{T} A p_{k}}=\frac{r_{k}^{T} r_{k}}{p_{k}^{T} A p_{k}}αk​=−pkT​Apk​rkT​pk​​=pkT​Apk​rkT​rk​​

βk+1=rk+1TApkpkTApk=rk+1T(rk+1−rk)pkT(rk+1−rk)=rk+1Trk+1rkTrk\beta_{k+1}=\frac{r_{k+1}^{T} A p_{k}}{p_{k}^{T} A p_{k}}=\frac{r_{k+1}^{T}\left(r_{k+1}-r_{k}\right)}{p_{k}^{T}\left(r_{k+1}-r_{k}\right)}=\frac{r_{k+1}^{T} r_{k+1}}{r_{k}^{T} r_{k}}βk+1​=pkT​Apk​rk+1T​Apk​​=pkT​(rk+1​−rk​)rk+1T​(rk+1​−rk​)​=rkT​rk​rk+1T​rk+1​​
那么,我们就可以得到一个 CG 算法的实用形式,编程参考这个来写,就是极好了。如图。

定理表明,如果 AAA 有 rrr 个不同的特征值,那么 CG 算法至多迭代 rrr 步终止。线性 CG 方法的收敛速度为,
∥xk−x∗∥A≤2(κ(A)−1κ(A)+1)k∥x0−x∗∥A\left\|x_{k}-x^{*}\right\|_{A} \leq 2\left(\frac{\sqrt{\kappa(A)}-1}{\sqrt{\kappa(A)}+1}\right)^{k}\left\|x_{0}-x^{*}\right\|_{A}∥xk​−x∗∥A​≤2(κ(A)​+1κ(A)​−1​)k∥x0​−x∗∥A​
这里的 κ(A)=∥A∥2∥A−1∥2=λnλ1\kappa(A)=\|A\|_{2}\left\|A^{-1}\right\|_{2}=\frac{\lambda_{n}}{\lambda_{1}}κ(A)=∥A∥2​∥∥​A−1∥∥​2​=λ1​λn​​。

从收敛率上可以看得出,当 AAA 的最大最小特征值差距比较大的时候,收敛就会很慢,怎么办?可以用预优方法,也就有了 PCG。所谓的预条件(Preconditioning)CG 方法,就是对变量先做一个变换,x^=Cx\hat{x}=C xx^=Cx,极小化问题变为
ϕ^(x^)=12x^T(C−TAC−1)x^−(C−Tb)Tx^\hat{\phi}(\hat{x})=\frac{1}{2} \hat{x}^{T}\left(C^{-T} A C^{-1}\right)\hat{x}-\left(C^{-T} b\right)^{T} \hat{x}ϕ^​(x^)=21​x^T(C−TAC−1)x^−(C−Tb)Tx^
等价于求解
(C−TAC−1)x^=C−Tb\left(C^{-T} A C^{-1}\right) \hat{x}=C^{-T} b(C−TAC−1)x^=C−Tb
我们希望能找到一个合适的 CCC,使得 C−TAC−1C^{-T} A C^{-1}C−TAC−1 的条件数比较小,这就是预条件 CG 方法。

非线性共轭梯度方法

非线性共轭梯度方法用来求解非线性问题:
min⁡f(x)\min f(x)minf(x)
非线性 CG 基本上就是仿这线性 CG 来的。因为我们没有了矩阵 AAA,所以原有 CG 的 αk\alpha_kαk​ 的表达就没法用了,我们用原有思想,使用最小化 ϕ\phiϕ 沿着 pkp_kpk​ 对应的步长作为 αk\alpha_kαk​。另外,残差 rrr,在非线性 CG 中也没有了,我们用 fff 的梯度来替代,于是,就有了如图所示的非线性 CG 方法,根据 β\betaβ 的选择,此时也叫 FR 方法。

在相同的框架下,我们修改 βk+1\beta_{k+1}βk+1​,就可以得到不同的非线性 CG 方法。
PR 方法:
βk+1PR=∇fk+1T(∇fk+1−∇fk)∥∇fk∥2\beta_{k+1}^{P R}=\frac{\nabla f_{k+1}^{T}\left(\nabla f_{k+1}-\nabla f_{k}\right)}{\left\|\nabla f_{k}\right\|^{2}}βk+1PR​=∥∇fk​∥2∇fk+1T​(∇fk+1​−∇fk​)​
DY 方法(戴-袁):
βk+1DY=∇fk+1T∇fk+1(∇fk+1−∇fk)Tpk\beta_{k+1}^{D Y}=\frac{\nabla f_{k+1}^{T} \nabla f_{k+1}}{\left(\nabla f_{k+1}-\nabla f_{k}\right)^{T} p_{k}}βk+1DY​=(∇fk+1​−∇fk​)Tpk​∇fk+1T​∇fk+1​​
HS 方法:
βk+1HS=∇fk+1T(∇fk+1−∇fk)(∇fk+1−∇fk)Tpk\beta_{k+1}^{H S}=\frac{\nabla f_{k+1}^{T}\left(\nabla f_{k+1}-\nabla f_{k}\right)}{\left(\nabla f_{k+1}-\nabla f_{k}\right)^{T} p_{k}}βk+1HS​=(∇fk+1​−∇fk​)Tpk​∇fk+1T​(∇fk+1​−∇fk​)​
观察可发现,这四种方法只不过是两个分子和两个分母不同的组合而已。

当然,这当中还有一些别的有趣的问题,包括重启动、二次终止性、全局收敛性和信赖域子问题的截断 CG 方法等等,由于时间关系,就不再多说。

拟牛顿方法

拟牛顿和割线方程

拟牛顿法是一种以牛顿法为基础设计的,求解非线性方程组或连续的最优化问题函数的零点或极大、极小值的算法。当牛顿法中所要求计算的雅可比矩阵或 Hessian 矩阵难以甚至无法计算时,拟牛顿法便可派上用场。

考虑模型问题
mk(p)=fk+∇fkTp+12pTBkpm_{k}(p)=f_{k}+\nabla f_{k}^{T} p+\frac{1}{2} p^{T} B_{k} pmk​(p)=fk​+∇fkT​p+21​pTBk​p
最小化之,可得拟牛顿步长:
pk=−Bk−1∇fkp_{k}=-B_{k}^{-1} \nabla f_{k}pk​=−Bk−1​∇fk​
那么,新的迭代为:
xk+1=xk+αkpkx_{k+1}=x_{k}+\alpha_{k} p_{k}xk+1​=xk​+αk​pk​
问题是,这里的αk\alpha_kαk​ 和BkB_kBk​如何选取?一般来说,对于 Hessian,以下这种近似关系是要满足的。
∇2fk+1(xk+1−xk)≈∇fk+1−∇fk\nabla^{2} f_{k+1}\left(x_{k+1}-x_{k}\right) \approx \nabla f_{k+1}-\nabla f_{k}∇2fk+1​(xk+1​−xk​)≈∇fk+1​−∇fk​
因为BkB_kBk​是 Hessian 的逼近,所以需要满足"割线方程":
Bk+1sk=ykB_{k+1} s_{k}=y_{k}Bk+1​sk​=yk​
这里 sk=xk+1−xk=αkpk,yk=∇fk+1−∇fks_{k}=x_{k+1}-x_{k}=\alpha_{k} p_{k}, \quad y_{k}=\nabla f_{k+1}-\nabla f_{k}sk​=xk+1​−xk​=αk​pk​,yk​=∇fk+1​−∇fk​。事实上,只要满足曲率条件 skTyk>0s_{k}^{T} y_{k}>0skT​yk​>0,那么割线方程总是会被满足的,而曲率条件总是被Wolfe或者强Wolfe条件所保证。

割线方程的解是不唯一的,因为未知数太多了。所以要确定 BkB_kBk​,我们还需要一些额外的条件,不同的附加条件,就对应了不同的方法。

DFP 方法

我们在割线方程的约束框架下,求解子问题:
min⁡B∥B−Bk∥s.t. B=BT,Bsk=yk\begin{array}{ll} {\min _{B}} & {\left\|B-B_{k}\right\|} \\ {\text { s.t. }} & {B=B^{T}, \quad B s_{k}=y_{k}} \end{array}minB​ s.t. ​∥B−Bk​∥B=BT,Bsk​=yk​​
得到了 BkB_kBk​ 的迭代:
Bk+1=(I−γkykskT)Bk(I−γkykskT)+γkykykTγk=1/ykTsk\begin{array}{c} {B_{k+1}=\left(I-\gamma_{k} y_{k} s_{k}^{T}\right) B_{k}\left(I-\gamma_{k} y_{k} s_{k}^{T}\right)+\gamma_{k} y_{k} y_{k}^{T}} \\ {\gamma_{k}=1 / y_{k}^{T} s_{k}} \end{array}Bk+1​=(I−γk​yk​skT​)Bk​(I−γk​yk​skT​)+γk​yk​ykT​γk​=1/ykT​sk​​
显然,在应用拟牛顿方法时,我们没有知道用到 BkB_kBk​,而是用到它的逆 Hk=Bk−1H_k = B_k^{-1}Hk​=Bk−1​,利用关系(Sherman-Morrison-Woodbury公式):
(A+abT)−1=A−1−A−1abTA−11+bTA−1a\left(A+a b^{T}\right)^{-1}=A^{-1}-\frac{A^{-1} a b^{T} A^{-1}}{1+b^{T} A^{-1} a}(A+abT)−1=A−1−1+bTA−1aA−1abTA−1​
我们可以由 BkB_kBk​ 的迭代得到 HkH_kHk​ 的迭代:
Hk+1=Hk−HkykykTHkykTHkyk+skskTykTskH_{k+1}=H_{k}-\frac{H_{k} y_{k} y_{k}^{T} H_{k}}{y_{k}^{T} H_{k} y_{k}}+\frac{s_{k} s_{k}^{T}}{y_{k}^{T} s_{k}}Hk+1​=Hk​−ykT​Hk​yk​Hk​yk​ykT​Hk​​+ykT​sk​sk​skT​​
将这个迭代套到拟牛顿方法中,就叫DFP方法。

BFGS 方法

直接求解 BkB_kBk​ 逆 HkH_kHk​ 的子问题:
min⁡H∥H−Hk∥s.t. H=HT,Hyk=sk\begin{array}{ll} {\min _{H}} & {\left\|H-H_{k}\right\|} \\ {\text { s.t. }} & {H=H^{T},Hy_{k}=s_{k}} \end{array}minH​ s.t. ​∥H−Hk​∥H=HT,Hyk​=sk​​

直接得到 Hk=Bk−1H_k = B_k^{-1}Hk​=Bk−1​ 的迭代,称为 BFGS 方法:
Hk+1=(I−γkskykT)Hk(I−γkskykT)+γkskskTγk=1/ykTsk\begin{array}{c} {H_{k+1}=\left(I-\gamma_{k} s_{k} y_{k}^{T}\right) H_{k}\left(I-\gamma_{k} s_{k} y_{k}^{T}\right)+\gamma_{k} s_{k} s_{k}^{T}} \\ {\gamma_{k}=1 / y_{k}^{T} s_{k}} \end{array}Hk+1​=(I−γk​sk​ykT​)Hk​(I−γk​sk​ykT​)+γk​sk​skT​γk​=1/ykT​sk​​

对称-秩一方法

当然,还有其他的一些 HkH_kHk​ 更新方式,如图。

其中的对称-秩一(SR1)方法和 Broyden 族方法都比较有名,秩一更新依然能保证 BkB_kBk​ 和 HkH_kHk​ 的对称性以及能保持对割线方程的满足,不同的是,SR1 更新,不再保证其正定性。数值效果依然很好,具体的推导就不说了。

步长的选取

步长 αk\alpha_kαk​ 如何选取?只要保证 Wolfe 条件,就能保证其收敛性。取精确线搜索步长时,其值为 1。

只列出 BFGS 基本框架如图。

在迭代的过程中,我们不需要显性地去求 BkB_kBk​,我们用到的只是它的逆,所以,我们可以用其逆 HkH_kHk​ 的迭代公式进行搜索迭代。给一个简单的代码示例:

clc
clearf = @(t)t(1)^2+2*t(2)^2;
x0 = [10,10]';
epsilon = 0.001;
H0 = eye(2);
method = 'BFGS';%DFP
x = quasi_Newton(f,x0,epsilon,H0,method);function [xk,k] = quasi_Newton(f,x0,epsilon,H0,method)
%使用:quasi_Newton(f,x0,method)if nargin < 3help mfilename;
end
k = 0;
syms t1 t2;
t = [t1,t2]';
fs = f(t);
dfs = gradient(fs);
df = matlabFunction(dfs);
df = @(x) df(x(1),x(2));
df0 = df(x0);
normdf = sqrt(df0'*df0);
H = H0;
xk = x0;
dfk = df0;
while normdf > epsilonp = -H*dfk;alpha = cal_alpha(H,dfk);xk1 = xk + alpha*p;dfk1 = df(xk1);sk = xk1 - xk;yk = dfk1 - dfk;eval(['H = ' method '(H,sk,yk);']);%H = BFGS(H,sk,yk);k = k + 1;xk = xk1;dfk = dfk1;normdf = sqrt(dfk'*dfk);xk
end
end
function alpha = cal_alpha(H,dfk)%alpha = dfk'*H*dfk/(dfk'*H'*dfk);alpha = 1;
end
function H = BFGS(H,sk,yk)gammak = 1/(yk'*sk);skykT = sk * yk';skskT = sk * sk';E = eye(2);H = (E-gammak*skykT)*H*(E-gammak*skykT) + gammak*skskT;
end
function H = DFP(H,sk,yk)Hyk = H*yk;ykTsk =  yk'*sk;skskT = sk * sk';H = H - (Hyk*yk'*H)/(yk'*Hyk) + skskT/ykTsk;
end

其他内容

关于拟牛顿方法,还有狠多有趣的内容,包括但不仅限于其二次终止性、非对称 Rank-1 方法、BFGS 收敛率、BFGS 和 CG 的一个关系等,下面简要提两个。

BB 方法

在牛顿方法中,我们取 BkB_kBk​ 矩阵为单位矩阵,就得到了 BB 方法:
xk+1=xk−Dk−1gkx_{k+1}=x_{k}-D_{k}^{-1} g_{k}xk+1​=xk​−Dk−1​gk​
其中,Dk≡αkID_{k} \equiv \alpha_{k} IDk​≡αk​I,这本质上也是梯度下降方法。步长的选取要让 DkD_kDk​ 尽可能地满足割线方程 Bksk−1=yk−1B_{k} s_{k-1}=y_{k-1}Bk​sk−1​=yk−1​,求解
min⁡D=αI∥Dsk−1−yk−1∥2\min _{D=\alpha I}\left\|D s_{k-1}-y_{k-1}\right\|_{2}D=αImin​∥Dsk−1​−yk−1​∥2​
可得,所谓的BB步长,
αkBB=sk−1Tsk−1sk−1Tyk−1\alpha_{k}^{B B}=\frac{s_{k-1}^{T} s_{k-1}}{s_{k-1}^{T} y_{k-1}}αkBB​=sk−1T​yk−1​sk−1T​sk−1​​
对于凸函数 f(x)=12xTHx+bTxf(x)=\frac{1}{2} x^{T} H x+b^{T} xf(x)=21​xTHx+bTx,BB 步长就是
αkBB=gk−1THgk−1gk−1Tgk−1=1αk−1SD\alpha_{k}^{B B}=\frac{g_{k-1}^{T} H g_{k-1}}{g_{k-1}^{T} g_{k-1}}=\frac{1}{\alpha_{k-1}^{S D}}αkBB​=gk−1T​gk−1​gk−1T​Hgk−1​​=αk−1SD​1​

有限内存 BFGS 方法(L-BFGS)

对于大规模问题,BFGS 方法因其逼近矩阵 BkB_kBk​ 和 HkH_kHk​ 都是稠密的,那么必然消耗比较大。为了解决这个问题,工程上用得比较多的是有限内存(Limited-Memory)的 BFGS 方法,简称 L-BFGS。L-BFGS 的想法比较简单,就是在 HkH_kHk​ 迭代的时候,我们只用到最近几步的曲率信息,而把之前的信息丢弃,然后来执行 BFGS 过程。也就是说,反正 BFGS 算着算着,误差累积,导致 HkH_kHk​ 反正都差了精度,还不如丢弃了,重新从初值开始。这样还能降低 HkgkH_kg_kHk​gk​ 的计算量。L-BFGS 方法用得比较多。

最小二乘问题

问题描述

最小二乘问题,描述的是求解形如
min⁡f(x)=12∑j=1mrj2(x)\min \quad f(x)=\frac{1}{2} \sum_{j=1}^{m} r_{j}^{2}(x)minf(x)=21​j=1∑m​rj2​(x)
的问题。

如果把 r(x)r(x)r(x) 写成
r(x)=(r1(x),r2(x),⋯,rm(x))Tr(x)=\left(r_{1}(x), r_{2}(x), \cdots, r_{m}(x)\right)^{T}r(x)=(r1​(x),r2​(x),⋯,rm​(x))T
那么最小二乘问题可以简洁地写为:f(x)=12∥r(x)∥22f(x)=\frac{1}{2}\|r(x)\|_{2}^{2}f(x)=21​∥r(x)∥22​。

导数

rrr 雅克比矩阵的雅克比矩阵定义为:
J(x)=[∂rj∂xi]=[∇r1(x)T∇r2(x)T⋮∇rm(x)T]J(x)=\left[\frac{\partial r_{j}}{\partial x_{i}}\right]=\left[\begin{array}{c} {\nabla r_{1}(x)^{T}} \\ {\nabla r_{2}(x)^{T}} \\ {\vdots} \\ {\nabla r_{m}(x)^{T}} \end{array}\right]J(x)=[∂xi​∂rj​​]=⎣⎢⎢⎢⎡​∇r1​(x)T∇r2​(x)T⋮∇rm​(x)T​⎦⎥⎥⎥⎤​
如果
f=12∑j=1mrj2(x)=12∥r(x)∥2f=\frac{1}{2} \sum_{j=1}^{m} r_{j}^{2}(x)=\frac{1}{2}\|r(x)\|^{2}f=21​j=1∑m​rj2​(x)=21​∥r(x)∥2
那么梯度和 Hessian 矩阵可以表达为:
∇f(x)=∑j=1mrj(x)∇rj(x)=J(x)Tr(x)∇2f(x)=∑j=1m∇rj(x)∇rj(x)T+∑j=1mrj(x)∇2rj(x)=J(x)TJ(x)+∑j=1mrj(x)∇2rj(x)\begin{aligned} \nabla f(x) &=\sum_{j=1}^{m} r_{j}(x) \nabla r_{j}(x)=J(x)^{T} r(x) \\ \nabla^{2} f(x) &=\sum_{j=1}^{m} \nabla r_{j}(x) \nabla r_{j}(x)^{T}+\sum_{j=1}^{m} r_{j}(x) \nabla^{2} r_{j}(x) \\ &=J(x)^{T} J(x)+\sum_{j=1}^{m} r_{j}(x) \nabla^{2} r_{j}(x) \end{aligned}∇f(x)∇2f(x)​=j=1∑m​rj​(x)∇rj​(x)=J(x)Tr(x)=j=1∑m​∇rj​(x)∇rj​(x)T+j=1∑m​rj​(x)∇2rj​(x)=J(x)TJ(x)+j=1∑m​rj​(x)∇2rj​(x)​

线性最小二乘问题

对于线性最小二乘问题,
f(x)=12∥Jx−y∥22f(x)=\frac{1}{2}\|J x-y\|_{2}^{2}f(x)=21​∥Jx−y∥22​
fff 的一阶导和二阶导为:∇f(x)=JT(Jx−y),∇2f(x)=JTJ\nabla f(x)=J^{T}(J x-y), \quad \nabla^{2} f(x)=J^{T} J∇f(x)=JT(Jx−y),∇2f(x)=JTJ。极小值点要满足一阶必要性条件 ∇f(x∗)=0\nabla f\left(x^{*}\right)=0∇f(x∗)=0,那么原问题就等价于求解所谓的正规方程:
JTJx∗=JTyJ^{T} J x^{*}=J^{T} yJTJx∗=JTy
JTJJ^{T} JJTJ 是半正定的厄米特矩阵,如果 JJJ 是列满秩的,那么 JTJJ^{T} JJTJ 就是正定的,上述方程组的解存在唯一。

除了直接解法,求解最小二乘问题的算法还有 Cholesky 分解,QR 分解、SVD 分解、迭代逼近等等,这里就是不说了。

非线性最小二乘问题

求解非线性最小二乘问题有高斯-牛顿法、Levenberg-Marquardt 方法和截断 CG 方法,以及对应于大残差问题的方法的等等,时间关系,等到下一次再来补充。

非线性方程

这部分想表达的内容有牛顿方法扩展及其优缺点、非精确牛顿方法、Broyden 方法、评价函数等等,下次有空再来补充。

约束优化理论

拉格朗日条件和 KKT

xxx 对应的积极集是指等式约束指标集和不等式约束指标集中取到等式的那些指标的并:
A(x)=E∪{i∈I∣ci(x)=0}\mathcal{A}(x)=\mathcal{E} \cup\left\{i \in \mathcal{I} | c_{i}(x)=0\right\}A(x)=E∪{i∈I∣ci​(x)=0}
LICQ(linear independence constraint qualication)条件满足是说,积极约束梯度集合
{∇ci(x),i∈A(x)}\left\{\nabla c_{i}(x), i \in \mathcal{A}(x)\right\}{∇ci​(x),i∈A(x)}
是线性独立的。

定义一般约束优化问题的拉格朗日函数为:
L(x,λ)=f(x)−∑i∈E∪Iλici(x)\mathcal{L}(x, \lambda)=f(x)-\sum_{i \in \mathcal{E} \cup \mathcal{I}} \lambda_{i} c_{i}(x)L(x,λ)=f(x)−i∈E∪I∑​λi​ci​(x)
假设 x∗x^*x∗ 是问题 (1)(1)(1) 局部解,并且在 x∗x^*x∗ 点LICQ条件成立。那么存在一个拉格朗日乘子向量 λ∗,\lambda^{*},λ∗,,它的分量表示为 λi∗,i∈E∪I\lambda_{i}^{*}, i \in \mathcal{E} \cup \mathcal{I}λi∗​,i∈E∪I,使以下几个条件在 (x∗,λ∗)\left(x^{*}, \lambda^{*}\right)(x∗,λ∗) 点处成立,
∇xL(x∗,λ∗)=0,ci(x∗)=0,∀i∈Eci(x∗)≥0,∀i∈Iλi∗≥0,∀i∈Iλi∗ci(x∗)=0,∀i∈E∪I\begin{aligned} \nabla_{x} \mathcal{L}\left(x^{*}, \lambda^{*}\right)&=&0,&\\ c_{i}\left(x^{*}\right) &=& 0, & \forall i \in \mathcal{E}\\ c_{i}\left(x^{*}\right) & \geq & 0, & \forall i \in \mathcal{I} \\ \lambda_{i}^{*} & \geq & 0, & \forall i \in \mathcal{I} \\ \lambda_{i}^{*} c_{i}\left(x^{*}\right) &=& 0, & \forall i \in \mathcal{E} \cup \mathcal{I} \end{aligned}∇x​L(x∗,λ∗)ci​(x∗)ci​(x∗)λi∗​λi∗​ci​(x∗)​==≥≥=​0,0,0,0,0,​∀i∈E∀i∈I∀i∈I∀i∈E∪I​
这几个条件就叫做著名的 Karush-Kuhn-Tucker 条件,简称 KKT 条件,这个方程系统,一般称为 KKT 系统。第一个条件是拉个朗日乘数法的要求,即极小化目标函数,极大化约束函数,极值点处对于各个变量的偏导为零。第二第三个条件分别为等式约束和不等式约束。以上三个条件都比较好记,都是已有的知识。后面两个条件,是对不等式约束而言的,叫做严格互补条件。一言以蔽之,就是对不等式约束指标对应的 λi\lambda_iλi​ 必须大等于零,且 λi\lambda_iλi​ 和 cic_ici​ 之间必须有一个为零。互补性条件是对不等式约束而言的,没有不等式约束,就没有互补性条件。

对偶问题

考虑一个目标函数和约束函数是凹的凸优化问题,
min⁡x∈Rnf(x)s.t. c(x)≥0\min _{x \in \mathbb{R}^{n}} f(x) \quad \text { s.t. } \quad c(x) \geq 0x∈Rnmin​f(x) s.t. c(x)≥0
它的对偶问题是,
max⁡λ∈Rmq(λ)s.t. λ≥0\max _{\lambda \in \mathbb{R}^{m}} q(\lambda) \quad \text { s.t. } \quad \lambda \geq 0λ∈Rmmax​q(λ) s.t. λ≥0
这里 q(λ)≡inf⁡xL(x,λ)q(\lambda) \equiv \inf _{x} \mathcal{L}(x, \lambda)q(λ)≡infx​L(x,λ)。对偶问题可以用来推导增广拉格朗日(augmented Lagrangian)方法。

其它

留一些关键词,等忙完手头的活儿,再来补充:局部解、孤立解、光滑性、单不等式约束、两不等式约束、线性化可行方向、切锥、稳定锥、wolfe 对偶…

非线性约束优化算法

积极集方法

求解非线性规划问题的一个挑战在于求解不等式约束。一个重要的逼近解的方法,就是积极集方法。

  • 从一个初始的工作集 W\mathcal{W}W 开始,作为最优积极集 A∗\mathcal{A}^*A∗,所谓的最优积极集就是最优值对应的等式约束的指标集。

  • 然后求解这样一个问题:工作集中对应的约束取到等式约束。

  • 检查是否存在一个拉格朗日乘子使得上述问题的解是原问题的解。如果不是,我们改变工作集,重复以上过程。

其他内容

求解非线性约束优化,除了积极集方法还有内点法,消元法等等,在这里就不讲了。当然,这一节本该还有一些其他内容,比如硬约束、软约束、滤子等等,这里也不说。

二次规划

序列二次规划

我们考虑一个等式约束问题,
min⁡f(x)s.t. c(x)=0\begin{aligned} &\min \quad f(x)\\ &\text { s.t. } \quad c(x)=0 \end{aligned}​minf(x) s.t. c(x)=0​
这里 f:Rn→Rf: \mathbb{R}^{n} \rightarrow \mathbb{R}f:Rn→R 并且 c=(c1,…,cm)Tc=\left(c_{1}, \ldots, c_{m}\right)^{T}c=(c1​,…,cm​)T,ci:Rn→Rc_{i}: \mathbb{R}^{n} \rightarrow \mathbb{R}ci​:Rn→R 是光滑函数。

我们知道这个问题的拉格朗日函数是:
L(x,λ)=f(x)−λTc(x)\mathcal{L}(x, \lambda)=f(x)-\lambda^{T} c(x)L(x,λ)=f(x)−λTc(x)
我们使用 A(x)A(x)A(x) 去表示约束的雅克比矩阵,
A(x)T=[∇c1(x),∇c2(x),⋯,∇cm(x)]A(x)^{T}=\left[\nabla c_{1}(x), \nabla c_{2}(x), \cdots, \nabla c_{m}(x)\right]A(x)T=[∇c1​(x),∇c2​(x),⋯,∇cm​(x)]

由 KKT 条件,可得,
F(x,λ)=[∇f(x)−A(x)Tλc(x)]=0F(x, \lambda)=\left[\begin{array}{c} {\nabla f(x)-A(x)^{T} \lambda} \\ {c(x)} \end{array}\right]=0F(x,λ)=[∇f(x)−A(x)Tλc(x)​]=0
接下来我们可以使用牛顿方法来求解这个非线性方程。

FFF 关于 xxx 和 λ\lambdaλ 的雅克比矩阵是,
F′(x,λ)=[∇xx2L(x,λ)−A(x)TA(x)0]F^{\prime}(x, \lambda)=\left[\begin{array}{cc} {\nabla_{x x}^{2} \mathcal{L}(x, \lambda)} & {-A(x)^{T}} \\ {A(x)} & {0} \end{array}\right]F′(x,λ)=[∇xx2​L(x,λ)A(x)​−A(x)T0​]
那么牛顿迭代就是:
[xk+1λk+1]=[xkλk]+[pkpλ]\left[\begin{array}{c} {x_{k+1}} \\ {\lambda_{k+1}} \end{array}\right]=\left[\begin{array}{l} {x_{k}} \\ {\lambda_{k}} \end{array}\right]+\left[\begin{array}{l} {p_{k}} \\ {p_{\lambda}} \end{array}\right][xk+1​λk+1​​]=[xk​λk​​]+[pk​pλ​​]
这里的 pkp_kpk​ 和 pλp_\lambdapλ​ 是求解下面的牛顿-KKT 系统得到:
[∇xx2Lk−AkTAk0][pkpλ]=[−∇fk+AkTλk−ck]\left[\begin{array}{cc} {\nabla_{x x}^{2} \mathcal{L}_{k}} & {-A_{k}^{T}} \\ {A_{k}} & {0} \end{array}\right]\left[\begin{array}{l} {p_{k}} \\ {p_{\lambda}} \end{array}\right]=\left[\begin{array}{c} {-\nabla f_{k}+A_{k}^{T} \lambda_{k}} \\ {-c_{k}} \end{array}\right][∇xx2​Lk​Ak​​−AkT​0​][pk​pλ​​]=[−∇fk​+AkT​λk​−ck​​]
这个方法一般就叫做牛顿-拉格朗日方法,对于 KKT 矩阵是非奇异的情况下还是很好用的。它具有二次收敛性。

我们可以换一个视角来看上面的牛顿迭代。假设我们在迭代过程中定义二次规划问题:
min⁡pfk+∇fkTp+12pT∇xx2Lkps.t. Akp+ck=0\begin{array}{ll} {\min _{p}} & {f_{k}+\nabla f_{k}^{T} p+\frac{1}{2} p^{T} \nabla_{x x}^{2} \mathcal{L}_{k} p} \\ {\text { s.t. }} & {A_{k} p+c_{k}=0} \end{array}minp​ s.t. ​fk​+∇fkT​p+21​pT∇xx2​Lk​pAk​p+ck​=0​
在一些假设满足的条件下(LICQ),这个问题有一个唯一的解 (pk,lk)\left(p_{k}, l_{k}\right)(pk​,lk​),满足,
∇xx2Lkpk+∇fk−AkTlk=0Akpk+ck=0\begin{aligned} \nabla_{x x}^{2} \mathcal{L}_{k} p_{k}+\nabla f_{k}-A_{k}^{T} l_{k} &=0 \\ A_{k} p_{k}+c_{k} &=0 \end{aligned}∇xx2​Lk​pk​+∇fk​−AkT​lk​Ak​pk​+ck​​=0=0​
仔细观察和对比,我们貌似可以发现,求解这个问题,好像就是在求解前面的牛顿-拉格朗日迭代的方向。将上面求牛顿方向系统的第一式的等式两边同时减去 AkTλkA_{k}^{T} \lambda_{k}AkT​λk​,就得到
[∇xx2Lk−AkTAk0][pkλk+1]=[−∇fk−ck]\left[\begin{array}{cc} {\nabla_{x x}^{2} \mathcal{L}_{k}} & {-A_{k}^{T}} \\ {A_{k}} & {0} \end{array}\right]\left[\begin{array}{c} {p_{k}} \\ {\lambda_{k+1}} \end{array}\right]=\left[\begin{array}{c} {-\nabla f_{k}} \\ {-c_{k}} \end{array}\right][∇xx2​Lk​Ak​​−AkT​0​][pk​λk+1​​]=[−∇fk​−ck​​]
对比中,我们可以发现,在迭代中,我们只要求解这个问题,并令 lk=λk+1=pλ+λkl_k=\lambda_{k+1}=p_\lambda+\lambda_klk​=λk+1​=pλ​+λk​,也就解决了牛顿迭代求方向问题,上面的二次迭代问题也就迎刃而解了。这也就是所谓的序列二次规划(SQP)方法,贴一个算法框架,如图。

二次规划的内点法

可行域指的是满足不等式和等式约束的那些点的集合。内点法也叫障碍法,保证迭代的点始终在可行域当中,而跑出不等式约束定义的高高的"围墙障碍",故叫它内点法。

考虑一个带不等式约束的凸二次规划问题:
min⁡xq(x)≡12xTGx+xTcs.t.Ax≥b\begin{array}{ll} {\min _{x}} & {q(x) \equiv \frac{1}{2} x^{T} G x+x^{T} c} \\ {\text {s.t.}} & {A x \geq b} \end{array}minx​s.t.​q(x)≡21​xTGx+xTcAx≥b​
这里的 GGG 是对称半正定的,AAA 是 m×nm\times nm×n 的。这个问题的 KKT 系统可以用松弛的方式写出,即
Gx−ATλ+c=0Ax−y−b=0yiλi=0,i=1,2,⋯,m(y,λ)≥0\begin{aligned} G x-A^{T} \lambda+c &=0 \\ A x-y-b &=0 \\ y_{i} \lambda_{i} &=0, \quad i=1,2, \cdots, m \\ (y, \lambda) & \geq 0 \end{aligned}Gx−ATλ+cAx−y−byi​λi​(y,λ)​=0=0=0,i=1,2,⋯,m≥0​
我们可以求解这个KKT系统来得到原问题的解。给定一个当前的迭代 (x,y,λ)(x, y, \lambda)(x,y,λ),它满足 (y,λ)>0(y, \lambda)>0(y,λ)>0,我们定义一个互补性度量,
μ=yTλm\mu=\frac{y^{T} \lambda}{m}μ=myTλ​
我们想使用原-对偶方法,考虑扰动的 KKT 系统:
F(x,y,λ,σ,μ)=[Gx−ATλ+cAx−y−bYΛe−σμe]=0F(x, y, \lambda, \sigma, \mu)=\left[\begin{array}{c} {G x-A^{T} \lambda+c} \\ {A x-y-b} \\ {\mathcal{Y} \Lambda e-\sigma \mu e} \end{array}\right]=0F(x,y,λ,σ,μ)=⎣⎡​Gx−ATλ+cAx−y−bYΛe−σμe​⎦⎤​=0
这里
Y=diag⁡(y1,⋯,ym),Λ=diag⁡(λ1,⋯,λm),e=(1,⋯,1)T\mathcal{Y}=\operatorname{diag}\left(y_{1}, \cdots, y_{m}\right), \Lambda=\operatorname{diag}\left(\lambda_{1}, \cdots, \lambda_{m}\right), e=(1, \cdots, 1)^{T}Y=diag(y1​,⋯,ym​),Λ=diag(λ1​,⋯,λm​),e=(1,⋯,1)T
并且 σ∈[0,1]\sigma \in[0,1]σ∈[0,1]。固定 μ\muμ 对上述系统使用牛顿方法,我们可以得到线性系统,
[G0−ATA−I00ΛY][ΔxΔyΔλ]=[−(Gx−ATλ+c)−(Ax−y−b)−Λye+σμe]\left[\begin{array}{ccc}{G} & {0} & {-A^{T}} \\ {A} & {-I} & {0} \\ {0} & {\Lambda} & {\mathcal{Y}}\end{array}\right]\left[\begin{array}{c}{\Delta x} \\ {\Delta y} \\ {\Delta \lambda}\end{array}\right]=\left[\begin{array}{c}{-\left(G x-A^{T} \lambda+c\right)} \\ {-(A x-y-b)} \\ {-\Lambda y e+\sigma \mu e}\end{array}\right]⎣⎡​GA0​0−IΛ​−AT0Y​⎦⎤​⎣⎡​ΔxΔyΔλ​⎦⎤​=⎣⎡​−(Gx−ATλ+c)−(Ax−y−b)−Λye+σμe​⎦⎤​
我们能得到下一步迭代,通过设置
(x+,y+,λ+)=(x,y,λ)+α(Δx,Δy,Δλ)\left(x^{+}, y^{+}, \lambda^{+}\right)=(x, y, \lambda)+\alpha(\Delta x, \Delta y, \Delta \lambda)(x+,y+,λ+)=(x,y,λ)+α(Δx,Δy,Δλ)
这里 α\alphaα 的选择使得不等式约束 (y+,λ+)>0\left(y^{+}, \lambda^{+}\right)>0(y+,λ+)>0 被满足,且尽可能地满足更多的条件。

其它

等式约束二次规划:对称无限期分解、shur补方法、零空间方法、Krylov方法(GMRES、QMR、LSQR)、CG 方法。

不等式约束:积极集方法,梯度投影方法,内点法。

有界约束优化。

梯度投影方法。

罚方法

l1l_1l1​和二次罚方法

惩罚函数法是求解有约束的最优化问题的一种算法。惩罚函数法的要旨是将一个有约束的最优化问题转化为一系列的无约束问题,这些无约束问题由原问题及罚函数,再加上惩罚因子组成。而且,这些无约束问题的解会收敛于所求问题的解。

一般的约束优化问题是:
min⁡x∈Rnf(x)subject to ci(x)=0,i∈E={1,…,me}ci(x)≥0,i∈I={me+1,…,m}\begin{array}{cl} {\min _{x \in \mathbb{R}^{n}}} & {f(x)} \\ {\text { subject to }} & {c_{i}(x)=0, \quad i \in \mathcal{E}=\left\{1, \ldots, m_{e}\right\}} \\ {} & {c_{i}(x) \geq 0, \quad i \in \mathcal{I}=\left\{m_{e}+1, \ldots, m\right\}} \end{array}minx∈Rn​ subject to ​f(x)ci​(x)=0,i∈E={1,…,me​}ci​(x)≥0,i∈I={me​+1,…,m}​
怎么构造罚函数?l1l_1l1​ 罚函数定义为:
ϕ1(x;μ)=f(x)+μ∑i∈E∣ci(x)∣+μ∑i∈I∣ci(x)∣−\phi_{1}(x ; \mu)=f(x)+\mu \sum_{i \in \mathcal{E}}\left|c_{i}(x)\right|+\mu \sum_{i \in \mathcal{I}}\left|c_{i}(x)\right|^{-}ϕ1​(x;μ)=f(x)+μi∈E∑​∣ci​(x)∣+μi∈I∑​∣ci​(x)∣−
这里 [z]−=max⁡{0,−z}[z]^{-}=\max \{0,-z\}[z]−=max{0,−z},μ\muμ 是罚因子。除了 l1l_1l1​ 罚方法,还有二次罚方法。考虑等式约束问题,
min⁡xf(x)s.t.ci(x)=0,i∈E\min _{x} f(x) \quad \text{s.t.} c_{i}(x)=0, \quad i \in \mathcal{E}xmin​f(x)s.t.ci​(x)=0,i∈E
那么它的罚函数就可以写为,
Q(x;μ)≡f(x)+μ2ci2(x)Q(x ; \mu) \equiv f(x)+\frac{\mu}{2} c_{i}^{2}(x)Q(x;μ)≡f(x)+2μ​ci2​(x)
一般的二次罚函数方法是,对于一般的约束问题,
min⁡xf(x)s.t. ci(x)=0,i∈E;ci(x)≥0,i∈I\min _{x} f(x) \quad \text { s.t. } c_{i}(x)=0, i \in \mathcal{E} ; c_{i}(x) \geq 0, i \in \mathcal{I}xmin​f(x) s.t. ci​(x)=0,i∈E;ci​(x)≥0,i∈I
它的二次罚函数定义为,
Q(x;μ)≡f(x)+μ2ci2(x)+μ2∑i∈I([ci(x)]−)2Q(x ; \mu) \equiv f(x)+\frac{\mu}{2} c_{i}^{2}(x)+\frac{\mu}{2} \sum_{i \in \mathcal{I}}\left(\left[c_{i}(x)\right]^{-}\right)^{2}Q(x;μ)≡f(x)+2μ​ci2​(x)+2μ​i∈I∑​([ci​(x)]−)2
这里[y]−:=max⁡(−y,0)[y]^{-}:=\max (-y, 0)[y]−:=max(−y,0)。

增广拉格朗日乘子法

增广拉格朗日法(Augmented Lagrange Method,简称ALM)是对二次惩罚法的一种改进。为了用无约束的目标函数替代原约束问题,二次惩罚法要求二次惩罚项的系数趋近于无穷(对约束的偏离给予很高的惩罚),但是这种要求会使得替代的目标函数的 Hessian 矩阵趋近于无穷(病态)。这使得替代函数的优化变得很困难,尤其是在最优点的附近。目标函数的行为很诡异,用二阶的泰勒公式逼近的话只有在非常小的区域内有效,因此收敛速度非常的慢。通过牛顿方程来计算下降方向会由于 Hessian 矩阵的病态性而变得很不准确。

为了解决这个问题,在二次惩罚的基础上引入了线性逼近的部分。个人感觉这种方法可以这样感性的理解:线性项和二次惩罚项实际是对约束偏离的一种惩罚,只不过他们有各自的针对性,二次项比较适合惩罚大的偏离,而小的偏离,只有当其系数很大时才起作用。相反,线性项比较适合小的偏离,而大的偏离二次项比它要好。那么这样的互补就能够使得在二次项系数比较小的情况下依然适用。而理论上恰恰可以验证这一点。细心的人就会发现,为什么不直接用拉格朗日乘子法求呢?这就是ALM算法巧妙的地方,因为多出一个二次惩罚项会使得算法的收敛速度很快。而且增广拉格朗日乘子法比拉格朗日乘子法普适性更好,需要的条件更加温和,比如不要求原函数是强凸的,甚至可以是非凸的。而且原函数在趋近于无穷的条件下,拉格朗日乘子法就无能为力了,可以用增广拉格朗日乘子法。究其原因,是因为二次惩罚项具有很好的矫正作用,在原函数非凸的情况下,只要满足一定的条件(二次惩罚项系数足够大),增广拉格朗日函数在最优点处的二阶导是正定的,因此具有严格的局部极小值。

增广拉格朗日方法其实是拉格朗日乘数法和二次罚方法的一个结合,比如,对于等式约束问题,增广拉格朗日函数写为:
LA(x,λ;μ)≡f(x)−∑i∈Eλici(x)+μ2∑i∈Eci2(x)\mathcal{L}_{A}(x, \lambda ; \mu) \equiv f(x)-\sum_{i \in \mathcal{E}} \lambda_{i} c_{i}(x)+\frac{\mu}{2} \sum_{i \in \mathcal{E}} c_{i}^{2}(x)LA​(x,λ;μ)≡f(x)−i∈E∑​λi​ci​(x)+2μ​i∈E∑​ci2​(x)

交替方向乘子法(ADMM)

网上的一些资料根本就没有把ADMM的来龙去脉说清楚,发现只是一个地方简单写了一下流程,别的地方就各种抄,共轭函数,对偶梯度上升什么的,都没讲清楚,给跪了。下面我来讲讲在机器学习中用得很多的ADMM方法到底是何方神圣。

共轭函数

给定函数 f:Rn→Rf: \mathbb{R}^{n} \rightarrow \mathbb{R}f:Rn→R,那么函数
f∗(y)=max⁡x(yTx−f(x))f^{*}(y)=\max _{x}( y^{T} x-f(x))f∗(y)=xmax​(yTx−f(x))
就叫做它的共轭函数。其实一个更直观的理解是:对一个固定的 yyy,将 yTxy^TxyTx 看成是一条斜率为 yyy 的直线,它和 f(x)f(x)f(x) 关于 xxx 的距离的最大值,就是 f∗(y)f^*(y)f∗(y)。百度百科有关于这个直观说法的一个解释,看看就明白了。

关于共轭函数有几点重要的说明:

  • 不管 fff 凸不凸,它的共轭函数总是一个凸函数。

  • 如果 fff 是闭凸的(闭指定义域是闭的),那么 f∗∗=ff^{**}=ff∗∗=f。

  • 如果 fff 是严格凸的,那么
    ∇f∗(y)=argmin⁡z(f(z)−yTz)\nabla f^{*}(y)=\underset{z}{\operatorname{argmin}} (f(z)-y^{T} z)∇f∗(y)=zargmin​(f(z)−yTz)

  • 共轭总是频频出现在对偶规划中,因为极小问题总是容易凑出一个共轭:−f∗(y)=min⁡x(f(x)−yTx)-f^{*}(y)=\min _{x} (f(x)-y^{T} x)−f∗(y)=minx​(f(x)−yTx)。

关于 f∗f^*f∗ 的凸性,这篇博客给了一个比较直观的图示说明,下面我从数学上,不太严格地做个简单证明。以一维的情况说明。

假设 fff 是一个凸函数,下面都不妨考虑函数的最值都不再边界处取到。max⁡x(yx−f(x))\max _{x} (yx-f(x))maxx​(yx−f(x)) 的极值点在 fx′(x)=yf'_x(x)=yfx′​(x)=y 处取到,定义 g:=(fx′)−1g:=(f'_x)^{-1}g:=(fx′​)−1,那么 x=g(y)x=g(y)x=g(y) 可能会是一堆点。则有
f∗(y)=max⁡x(yx−f(x))=yg(x)−f(g(y))f^*(y)=\max _{x}(yx-f(x))=yg(x)-f(g(y))f∗(y)=xmax​(yx−f(x))=yg(x)−f(g(y))
进而
(f∗(y))y′=g(y)+ygy′(y)−fx′(g(y))gy′(y)=g(y)(f^*(y))'_y = g(y)+yg'_y(y)-f'_x(g(y))g'_y(y) = g(y)(f∗(y))y′​=g(y)+ygy′​(y)−fx′​(g(y))gy′​(y)=g(y)
那么
(f∗(y))y′′y=gy′(y)=((fx′)−1)y′≥0(f^*(y))''_yy=g'_y(y)=((f'_x)^{-1})'_y \geq 0(f∗(y))y′′​y=gy′​(y)=((fx′​)−1)y′​≥0
故而,f∗f^*f∗ 是凸的。

关于 f∗∗=ff^{**}=ff∗∗=f,也是容易证明的。我们假设 fff 是闭凸的。max⁡y(zy−f∗(y))\max _y(zy-f^*(y))maxy​(zy−f∗(y)) 的值在 g(y)=zg(y)=zg(y)=z 处取到,那么
f∗∗(z)=max⁡y(zy−f∗(y))=f(g(g−1(z)))=f(z)f^{**}(z) = \max_y(zy-f^{*}(y))=f(g(g^{-1}(z)))=f(z)f∗∗(z)=ymax​(zy−f∗(y))=f(g(g−1(z)))=f(z)
zzz 换成 xxx 就是 f(x)f(x)f(x)。

第三条非常重要,它说明了共轭函数的梯度,其实就是共轭函数取到极大值对应的 xxx 值,它从 (f∗(y))y′=g(y)(f*(y))'_y = g(y)(f∗(y))y′​=g(y) 就可以看出来。

对偶梯度上升法

有了上知识的铺垫,我们就可以说清楚对偶上升方法了。以考虑等式约束问题为例(一般约束问题也是类似的流程),假设f(x)f(x)f(x) 是严格凸的,我们考虑问题:
min⁡xf(x)subject to Ax=b\min _{x} f(x) \text { subject to } A x=bxmin​f(x) subject to Ax=b
它的拉格朗日对偶问题是:
max⁡umin⁡x(f(x)+uT(Ax−b))\max _{u}\min _{x} (f(x)+u^T(Ax-b))umax​xmin​(f(x)+uT(Ax−b))
有理论表明,若原问题和对偶问题满足强对偶条件,即对偶函数关于 uuu 的最大值等价于原优化问题关于 xxx 的最小。那么原问题和对偶问题对于 xxx 是同解的。也就是说只要找到使得对偶问题对应最大的 uuu,其对应的 xxx 就是原优化问题的解,那么我们就解决了原始优化问题。

所以,下面我们来求解这个对偶问题。先把和 xxx 无关的变量提出 min⁡x\min _xminx​,再想办法凑出 f∗f^*f∗,因为我们要用到对偶的性质。
KaTeX parse error: No such environment: split at position 7: \begin{̲s̲p̲l̲i̲t̲}̲ \max _u \min…

那么对偶问题就成了
max⁡u−f∗(−ATu)−bTu\max _{u}-f^{*}\left(-A^{T} u\right)-b^{T} uumax​−f∗(−ATu)−bTu
这里 f∗f^*f∗ 是 fff 的共轭,这里 max⁡u\max _umaxu​ 后面不加括号,表示它管着下面的所有,下同,不再重述。定义 g(u)=−f∗(−ATu)−bTug(u)=-f^{*}\left(-A^{T} u\right)-b^{T} ug(u)=−f∗(−ATu)−bTu,我们希望能极大化 g(u)g(u)g(u),一个简单的想法是沿着 g(u)g(u)g(u) 梯度上升的方向去走。注意到,
∂g(u)=A∂f∗(−ATu)−b\partial g(u)=A \partial f^{*}\left(-A^{T} u\right)-b∂g(u)=A∂f∗(−ATu)−b
因此,利用共轭的性质,
∂g(u)=Ax−bwhere x∈argmin⁡zf(z)+uTAz\partial g(u)=A x-b \text { where } x \in \underset{z}{\operatorname{argmin}} f(z)+u^{T} A z∂g(u)=Ax−b where x∈zargmin​f(z)+uTAz
因为 fff 是严格凸的,f∗f^*f∗ 是可微的,那么,就有了所谓的对偶梯度上升方法。从一个对偶初值 u(0)u^{(0)}u(0) 开始,重复以下过程:
x(k)=argmin⁡xf(x)+(u(k−1))TAxu(k)=u(k−1)+tk(Ax(k)−b)\begin{aligned} &x^{(k)}=\underset{x}{\operatorname{argmin}} f(x)+\left(u^{(k-1)}\right)^{T} A x\\ &u^{(k)}=u^{(k-1)}+t_{k}\left(A x^{(k)}-b\right) \end{aligned}​x(k)=xargmin​f(x)+(u(k−1))TAxu(k)=u(k−1)+tk​(Ax(k)−b)​
这里的步长 tkt_ktk​ 使用标准的方式选取的。近端梯度和加速可以应用到这个过程中进行优化。

交替方向乘子法

交替方向乘子法(ADMM)是一种求解具有可分离的凸优化问题的重要方法,由于处理速度快,收敛性能好,ADMM算法在统计学习、机器学习等领域有着广泛应用。ADMM算法一般用于解决如下的凸优化问题:
min⁡x,yf(x)+g(y)subject to Ax+By=c\min _{x, y} f(x)+g(y) \text { subject to } A x+B y=cx,ymin​f(x)+g(y) subject to Ax+By=c
其中的 fff 和 ggg 都是凸函数。

它的增广拉格朗日函数如下:
Lp(x,y,λ)=f(x)+g(y)+λT(Ax+By−c)+(ρ/2)∥Ax+By−c∥22,ρ>0L_{p}(x, y, \lambda)=f(x)+g(y)+\lambda^{T}(A x+B y-c)+(\rho / 2)\|A x+B y-c\|_{2}^{2}, \rho>0Lp​(x,y,λ)=f(x)+g(y)+λT(Ax+By−c)+(ρ/2)∥Ax+By−c∥22​,ρ>0

ADMM算法求解思想和推导同梯度上升法,最后重复迭代以下过程:
xk+1:=arg⁡min⁡xLp(x,y,λ)xk+1:=arg⁡min⁡yLp(x,y,λ)λk+1:=λk+ρ(Axk+1+Byk+1−c)\begin{aligned} x^{k+1} &:=\arg \min _x L_{p}(x, y, \lambda) \\ x^{k+1} &:=\arg \min _y L_{p}(x, y, \lambda) \\ \lambda^{k+1} &:=\lambda^{k}+\rho\left(A x^{k+1}+B y^{k+1}-c\right) \end{aligned}xk+1xk+1λk+1​:=argxmin​Lp​(x,y,λ):=argymin​Lp​(x,y,λ):=λk+ρ(Axk+1+Byk+1−c)​
上述迭代可以进行简化。

  • 第一步简化,通过公式 ∥a+b∥22=∥a∥22+∥b∥22+2aTb\|a+b\|_{2}^{2}=\|a\|_{2}^{2}+\|b\|_{2}^{2}+2 a^{T} b∥a+b∥22​=∥a∥22​+∥b∥22​+2aTb,替换掉拉格朗日函数中的线性项 λT(Ax+By−c)\lambda^{T}(A x+B y-c)λT(Ax+By−c) 和二次项 ρ/2∥Ax+By−c∥22\rho/2\|A x+B y-c\|_{2}^{2}ρ/2∥Ax+By−c∥22​,可以得到
    λT(Ax+By−c)+ρ/2∥Ax+By−c∥22=ρ/2∥Ax+By−c+λ/ρ∥22−ρ/2∥λ/ρ∥22\lambda^{T}(A x+B y-c)+\rho/2\|A x+B y-c\|_{2}^{2}=\rho / 2\|A x+B y-c+\lambda/\rho\|_{2}^{2}-\rho / 2\|\lambda / \rho\|_{2}^{2}λT(Ax+By−c)+ρ/2∥Ax+By−c∥22​=ρ/2∥Ax+By−c+λ/ρ∥22​−ρ/2∥λ/ρ∥22​
    那么ADMM的过程可以化简如下:
    xk+1:=arg⁡min⁡x(f(x)+ρ/2∥Ax+Byk−c+λk/ρ∥22yk+1:=arg⁡min⁡y(g(y)+ρ/2∥Axk+1+By−c+λk/ρ∥22λk+1:=λk+ρ(Axk+1+Byk+1−c)\begin{aligned} x^{k+1} &:={\arg \min _x}\left(f(x)+\rho / 2\left\|A x+B y^{k}-c+\lambda^{k} / \rho\right\|_{2}^{2}\right.\\ y^{k+1} &:={\arg \min _y}\left(g(y)+\rho / 2\left\|A x^{k+1}+B y-c+\lambda^{k} / \rho\right\|_{2}^{2}\right.\\ \lambda^{k+1} &:=\lambda^{k}+\rho\left(A x^{k+1}+B y^{k+1}-c\right) \end{aligned}xk+1yk+1λk+1​:=argxmin​(f(x)+ρ/2∥∥​Ax+Byk−c+λk/ρ∥∥​22​:=argymin​(g(y)+ρ/2∥∥​Axk+1+By−c+λk/ρ∥∥​22​:=λk+ρ(Axk+1+Byk+1−c)​

  • 第二步化简,零缩放对偶变量u=λ/ρu = \lambda/\rhou=λ/ρ,于是ADMM过程可化简为:
    xk+1:=arg⁡min⁡(f(x)+ρ/2∥Ax+Byk−c+uk∥22yk+1:=arg⁡min⁡(g(y)+ρ/2∥Axk+1+By−c+uk∥22uk+1:=uk+(Axk+1+Byk+1−c)\begin{aligned} x^{k+1} &:={\arg \min}\left(f(x)+\rho / 2\left\|A x+B y^{k}-c+u^{k}\right\|_{2}^{2}\right.\\ y^{k+1} &:={\arg \min}\left(g(y)+\rho / 2\left\|A x^{k+1}+B y-c+u^{k}\right\|_{2}^{2}\right.\\ u^{k+1} &:=u^{k}+\left(A x^{k+1}+B y^{k+1}-c\right) \end{aligned}xk+1yk+1uk+1​:=argmin(f(x)+ρ/2∥∥​Ax+Byk−c+uk∥∥​22​:=argmin(g(y)+ρ/2∥∥​Axk+1+By−c+uk∥∥​22​:=uk+(Axk+1+Byk+1−c)​

ADMM相当于把一个大的问题分成了两个子问题,缩小了问题的规模,分而治之。

[help me with MathJax]

数据科学和机器学习中的优化理论与算法(下)相关推荐

  1. 数据科学和机器学习中的优化理论与算法(上)

    数据科学和机器学习中的优化理论与算法(上) 数据科学和机器学习当前越来越热,其中涉及的优化知识颇多.很多人在做机器学习或者数据科学时,对其中和优化相关的数学基础,包括随机梯度下降.ADMM.KKT 条 ...

  2. # 数据科学和机器学习中的优化理论与算法(上)

    本场 Chat 从基础知识的角度,用大白话对数据科学和机器学习中用到的最重要的优化理论和算法做个小结. 本场 Chat 内容如下: 优化中涉及的线性代数数学基础 优化理论中最常提到的一些定义.定理 求 ...

  3. 数据科学和机器学习中使用的最多的20个R语言包

    We list out the top 20 popular Machine Learning R packages by analysing the most downloaded R packag ...

  4. Python超过R,成为数据科学和机器学习的首选语言!

    | 全文1765共字,建议阅读时长3分钟 | 近期,数据挖掘资讯网站KDnuggets开展了一项调查,问题是"2016年和2017年,在数据分析.数据科学和机器学习工作中,你使用 ...

  5. Go语言的数据科学和机器学习:实现高效、准确和可靠的数据处理和预测

    作者:禅与计算机程序设计艺术 1.简介 数据科学和机器学习简介 数据科学(Data Science)是指利用数据提升业务决策能力的一门学科.它涵盖三个重要领域:数据获取.数据预处理.数据分析及数据挖掘 ...

  6. 机器学习中的数学——深度学习中的优化理论

    分类目录:<机器学习中的数学>总目录 深度学习算法在许多情况下都涉及优化.例如,模型中的进行推断涉及求解优化问题.我们经常使用解析优化去证明或设计算法.在深度学习涉及的诸多优化问题中,最难 ...

  7. netflix 数据科学家_数据科学和机器学习在Netflix中的应用

    netflix 数据科学家 数据科学 , 机器学习 , 技术 (Data Science, Machine Learning, Technology) Using data science, Netf ...

  8. 综述 | 深度学习中的优化理论

    来源:运筹OR帷幄 本文约5200字,建议阅读10+分钟. 展望未来研究趋势,拒绝做调参侠从我开始. 标签:人工智能 神经网络的训练主要通过求解一个优化问题来完成,但这是一个困难的非线性优化问题,传统 ...

  9. 综述:人工智能、数据科学、机器学习

    前言:学科交叉乃大势所趋,新兴学科应市场需求孕育而生.人数机,便产生在这样的时代背景下.什么,你所在的学校至今还没开设相关专业?不必惊慌,老牌资本主义国家德国同样如此.但是,学好微积分.线代.优化.统 ...

最新文章

  1. 简述网卡的作用和工作原理_凯狄简述抽芯铆钉的作用原理
  2. 深入剖析通信层和RPC调用的异步化(上)
  3. python中的方法和函数的区别_python中函数与方法的区别?
  4. UA MATH636 信息论5 信道编码简介
  5. 想学数据分析但不会Python,过来看看SQL吧(上)~
  6. SAP S/4HANA使用ABAP获得生产订单的状态 1
  7. php+ksort+返回true,PHP preg_replace函数
  8. C++总结8——shared_ptr和weak_ptr智能指针
  9. firefox应用自动全屏显示_【b】—自动化测试:基础selenium—API
  10. Spring Shell笔记-help方法及exit及其他方法
  11. 关于快速排序的一些理解
  12. neostrack服务器无响应,捷安特GPS码表NeosTrack试用评测
  13. eclipse技巧总结
  14. Pi3 中文环境以及输入法
  15. 最全 VxLAN 知识详解
  16. ulli中自定义属性后取值的问题
  17. 在spring中手动编写事务
  18. 【问】安装SQLserver2000 SP4补丁报错提示0*80070005.程序未能注册
  19. app_start(‘com.ss.android.ugc.aweme‘) 打不开app 无反应 Activity not started, unable to resolve Intent {
  20. 谷歌翻译停服后,chrome无法自动翻译?解决办法来了~

热门文章

  1. Matlab画天球坐标图,知道方位角和高度角
  2. 我为什么不愿意买衣服
  3. bitwise和shift arithmetic
  4. unity 图片遮罩有锯齿_如何消除UGUI Mask遮罩的锯齿
  5. Linux 查看服务器cpu信息常用命令大全
  6. 2021-05-27let的TDZ
  7. 威联通 nas mysql_威联通(NAS)应用篇:自建OwnCloud网盘(百度网盘,拜拜~~~)
  8. IDEA 运行时出现 too long 异常
  9. 询问HTG:升级Xbox 360 HDD,头痛免费的圣诞灯修复和剥离Kindle DRM
  10. 消息队列RabbitMQ入门与PHP实战