上篇博文介绍了《机器学习之支持向量机》后发现利用到了梯度、凸优化、拉格朗日对偶性等数学问题。而且凸优化是本科非数学专业学不到的科目,所以这篇博文就要和大家分享一下机器学习中常用的数学概念。

  博文重点:

  • 线性代数。
  • 凸优化。
  • 概率论(机器学习中的数学(中))。
  • 机器学习中常用的不等式(机器学习中的数学(下))。

1、线性代数

  这部分介绍一些机器学习中常用的线性代数知识点包括向量的范数和矩阵的范数及其相关性质。

1.1 向量和范数

  这一部分将通过H\mathbb HH来定义一个维数可能是无限的向量空间。

1.1.1 范数

定义1.1: 映射Φ:H→R+\Phi:\mathbb H\rightarrow\mathbb R_+Φ:H→R+​被认为是H\mathbb HH上的范数如果它满足如下公理:

  • 非负性(definiteness):∀x∈H,Φ(x)=0⇔x=0,Φ(x)>0⇔x≠0\forall \mathbf x\in\mathbb H,\Phi(\mathbf x)=0\Leftrightarrow\mathbf x=\mathbf 0,\Phi(\mathbf x)>0\Leftrightarrow\mathbf x\ne0∀x∈H,Φ(x)=0⇔x=0,Φ(x)>0⇔x​=0;
  • 同质性(齐次性)(homogeneity):∀x∈H,∀α∈R,Φ(αx)=∣α∣Φ(x)\forall \mathbf x\in\mathbb H,\forall{\alpha}\in{\mathbb{R}},\Phi(\alpha\mathbf{x})=|\alpha|\Phi(\mathbf x)∀x∈H,∀α∈R,Φ(αx)=∣α∣Φ(x);
  • 三角不等式(triangle inequality):∀x,y∈H,Φ(x+y)≤Φ(x)+Φ(y)\forall \mathbf x,\mathbf y\in\mathbb H,\Phi(\mathbf x+\mathbf y)\le\Phi(\mathbf x)+\Phi(\mathbf y)∀x,y∈H,Φ(x+y)≤Φ(x)+Φ(y)。

对任意p≥1p\ge1p≥1,LpL_pLp​范数可以通过下述定义:

∀x∈RN,∣∣x∣∣p=(∑j=1N∣xj∣p)1/p.\forall{\mathbf x}\in{\mathbb R}^N,||\mathbf x||_p=\Big(\sum_{j=1}^N|x_j|^p\Big)^{1/p}.∀x∈RN,∣∣x∣∣p​=(j=1∑N​∣xj​∣p)1/p.

L1,L2L_1,L_2L1​,L2​和L∞L_\inftyL∞​范数是用的最多的范数,其中∣∣x∣∣∞=max⁡j∈[N]∣xj∣||\mathbf x||_\infty=\max_{j\in[N]}|x_j|∣∣x∣∣∞​=maxj∈[N]​∣xj​∣。下述不等式都是成立的:

∣∣x∣∣2≤∣∣x∣∣1≤N∣∣x∣∣2∣∣x∣∣∞≤∣∣x∣∣2≤N∣∣x∣∣∞∣∣x∣∣∞≤∣∣x∣∣1≤N∣∣x∣∣∞.||\mathbf x||_2\le||\mathbf x||_1\le\sqrt{N}||\mathbf x||_2\\ ||\mathbf x||_\infty\le||\mathbf x||_2\le\sqrt{N}||\mathbf x||_\infty\\ ||\mathbf x||_\infty\le||\mathbf x||_1\le N||\mathbf x||_\infty.∣∣x∣∣2​≤∣∣x∣∣1​≤N​∣∣x∣∣2​∣∣x∣∣∞​≤∣∣x∣∣2​≤N​∣∣x∣∣∞​∣∣x∣∣∞​≤∣∣x∣∣1​≤N∣∣x∣∣∞​.

定义1.2:希尔伯特空间(Hilbert space): 希尔伯特空间是由向量空间的内积组成的⟨⋅,⋅⟩\langle\cdot,\cdot \rangle⟨⋅,⋅⟩,内积导出一个范数,定义如下:

∀x∈H,∣∣x∣∣H=⟨x,x⟩.\forall\mathbf x\in\mathbb H,||\mathbf x||_{\mathbb H}=\sqrt{\langle\mathbf x,\mathbf x \rangle}.∀x∈H,∣∣x∣∣H​=⟨x,x⟩​.

1.1.2 对偶范数(Dual norms)

定义1.3: 让∣∣⋅∣∣||\cdot||∣∣⋅∣∣表示一个在RN\mathbb R^NRN上的范数。与∣∣⋅∣∣||\cdot||∣∣⋅∣∣相关的对偶范数∣∣⋅∣∣∗||\cdot||_\ast∣∣⋅∣∣∗​是如下定义:

∀y∈RN,∣∣y∣∣∗=sup⁡∣∣x∣∣=1∣⟨y⋅x⟩∣.\forall \mathbf y\in{\mathbb R^N},||\mathbf y||_\ast=\sup_{||\mathbf x||=1}|\langle \mathbf y\cdot\mathbf x\rangle|.∀y∈RN,∣∣y∣∣∗​=∣∣x∣∣=1sup​∣⟨y⋅x⟩∣.

对任意的p,q≥1p,q\ge1p,q≥1是共轭的(conjugate)也就是1p+1q=1\frac{1}{p}+\frac{1}{q}=1p1​+q1​=1,则有LpL_pLp​和LqL_qLq​范数互为对偶范数。一般来说,L2L_2L2​的对偶范数是L2L_2L2​,L1L_1L1​的对偶范数是L∞L_\inftyL∞​。

命题1.4:Hölder不等式: 让p,q≥1p,q\ge1p,q≥1是共轭的,即1p+1q=1\frac{1}{p}+\frac{1}{q}=1p1​+q1​=1。对所有的x,y∈RNx,y\in{\mathbb R}^Nx,y∈RN,

∣⟨x,y⟩∣≤∣∣x∣∣p∣∣y∣∣q,|\langle\mathbf x,\mathbf y\rangle|\le||\mathbf x||_p||\mathbf y||_q,∣⟨x,y⟩∣≤∣∣x∣∣p​∣∣y∣∣q​,

当对于所有的i∈[N]i\in{[N]}i∈[N]时,∣yi∣=∣xi∣p−1|y_i|=|x_i|^{p-1}∣yi​∣=∣xi​∣p−1时,上式取等。

推论1.5:柯西-施瓦兹不等式(Cauchy-Schwarz inequality): 对所有的x,y∈RN\mathbf x,\mathbf y\in{\mathbb R}^Nx,y∈RN,

∣⟨x,y⟩∣≤∣∣x∣∣2∣∣y∣∣2,|\langle\mathbf x,\mathbf y\rangle|\le||\mathbf x||_2||\mathbf y||_2,∣⟨x,y⟩∣≤∣∣x∣∣2​∣∣y∣∣2​,当且仅当x,y\mathbf x,\mathbf yx,y共线时,上式取等。

1.2 矩阵

  对于M∈Rm×n\mathbf M\in\mathbb R^{m\times n}M∈Rm×n是一个mmm行nnn列的矩阵,定义Mij\mathbf M_{ij}Mij​是它的第iii行jjj列的元素。对任意m≥1m\ge1m≥1,通过Im\mathbf I_mIm​表示mmm维单位矩阵。

  矩阵M\mathbf MM的转置是M⊤\mathbf M^\topM⊤,对所有的(i,j)(i,j)(i,j)都有(M⊤)ij=Mji(\mathbf M^\top)_{ij}=\mathbf M_{ji}(M⊤)ij​=Mji​。对任意的两个矩阵M∈Rm×n\mathbf M\in\mathbb R^{m\times n}M∈Rm×n和N∈Rn×p\mathbf N\in\mathbb R^{n\times p}N∈Rn×p,(MN)⊤=N⊤M⊤(\mathbf M\mathbf N)^\top=\mathbf N^\top\mathbf M^\top(MN)⊤=N⊤M⊤。

  矩阵M\mathbf MM的迹Tr[M]=∑i=1NMii\text{Tr}[\mathbf M]=\sum_{i=1}^N\mathbf M_{ii}Tr[M]=∑i=1N​Mii​。对任意的两个矩阵M∈Rm×n\mathbf M\in\mathbb R^{m\times n}M∈Rm×n和N∈Rn×p\mathbf N\in\mathbb R^{n\times p}N∈Rn×p,都有Tr[MN]=Tr[NM]\text{Tr}[\mathbf M\mathbf N]=\text{Tr}[\mathbf N\mathbf M]Tr[MN]=Tr[NM]成立。

  满秩矩阵M\mathbf MM的逆,定义为M−1\mathbf M^{-1}M−1,满足MM−1=M−1M=I\mathbf M\mathbf M^{-1}=\mathbf{M}^{-1}\mathbf{M}=\mathbf{I}MM−1=M−1M=I。

1.2.1 矩阵范数

  矩阵范数是定义在Rm×n\mathbb R^{ m\times n}Rm×n上的范数,其中mmm和nnn是矩阵的维度。许多矩阵范数满足下列次乘法性质(相容性)

∣∣MN∣∣≤∣∣M∣∣⋅∣∣N∣∣.||\mathbf M\mathbf N||\le||\mathbf M||\cdot||\mathbf N||.∣∣MN∣∣≤∣∣M∣∣⋅∣∣N∣∣.

  由向量ppp范数诱导的矩阵范数如下:

∣∣M∣∣p=sup⁡∣∣x∣∣p≤1∣∣Mx∣∣p.||\mathbf M||_p=\sup_{||\mathbf x||_p\le1}||\mathbf M\mathbf x||_{p}.∣∣M∣∣p​=∣∣x∣∣p​≤1sup​∣∣Mx∣∣p​.

当p=2p=2p=2时被称为是谱范数( spectral norm),谱范数等于该矩阵的最大奇异值或者是M⊤M\mathbf M^\top\mathbf MM⊤M的最大特征值的平方根

∣∣M∣∣2=σ1(M)=λmax⁡(M⊤M).||\mathbf M||_2=\sigma_1(\mathbf M)=\sqrt{\lambda_{\max}(\mathbf M^\top\mathbf M)}.∣∣M∣∣2​=σ1​(M)=λmax​(M⊤M)​.

  不是所有的范数都是向量诱导范数。Frobenius范数就是非诱导范数:

∣∣M∣∣F=(∑i=1m∑j=1nMij2)1/2.||\mathbf M||_F=\Big(\sum_{i=1}^m\sum_{j=1}^n\mathbf M^2_{ij}\Big)^{1/2}.∣∣M∣∣F​=(i=1∑m​j=1∑n​Mij2​)1/2.

显然,当M\mathbf MM是一个长度为mnmnmn的向量时,此时的FFF范数就是向量的L2L_2L2​范数了。矩阵的FFF范数和矩阵的迹的关系:

⟨M,N⟩F=Tr[M⊤N].\langle\mathbf M,\mathbf N\rangle_{F}=\text{Tr}[\mathbf M^\top\mathbf N].⟨M,N⟩F​=Tr[M⊤N].

FFF范数与矩阵M\mathbf MM奇异值的相关性:

∣∣M∣∣F2=Tr[M⊤M]=∑i=1r[σi(M)]2,||\mathbf M||_{F}^2=\text{Tr}[\mathbf M^\top\mathbf M]=\sum_{i=1}^r[\sigma_i(\mathbf M)]^2,∣∣M∣∣F2​=Tr[M⊤M]=i=1∑r​[σi​(M)]2,其中rrr是MMM的秩。

  对任意j∈[N]j\in{[N]}j∈[N],让Mj\mathbf M_jMj​表示矩阵M\mathbf MM的第jjj列,M=[M1⋯Mn]\mathbf M=[\mathbf M_1\cdots\mathbf M_n]M=[M1​⋯Mn​]。对任意p,r≥1p,r\ge1p,r≥1,M\mathbf MM的组范数(group norm )Lp,rL_{p,r}Lp,r​是:

∣∣M∣∣p,r=(∑j=1n∣∣M∣∣pr)1/r.||\mathbf M||_{p,r}=\Big(\sum_{j=1}^n||\mathbf M||_{p}^r\Big)^{1/r}.∣∣M∣∣p,r​=(j=1∑n​∣∣M∣∣pr​)1/r.

使用最多的组范数是L2,1L_{2,1}L2,1​范数,如下定义:

∣∣M∣∣2,1=∑i=1n∣∣Mi∣∣2.||\mathbf M||_{2,1}=\sum_{i=1}^n||\mathbf M_{i}||_{2}.∣∣M∣∣2,1​=i=1∑n​∣∣Mi​∣∣2​.

就是矩阵每列作为向量的L2L_2L2​范数的逐一求和。

1.2.2 奇异值分解(Singular value decomposition)

  矩阵M\mathbf MM的秩rrr满足:r=rank(M)≤min⁡(m,n)r=\text{rank}(\mathbf M)\le\min(m,n)r=rank(M)≤min(m,n)。矩阵的奇异值分解如下:

M=UMΣMVM⊤.\mathbf M=\mathbf U_{M}\mathbf\Sigma_M\mathbf V_M^\top.M=UM​ΣM​VM⊤​.

其中,矩阵ΣM=diag(σ1,⋯,σr)\mathbf\Sigma_M=\text{diag}(\sigma_1,\cdots,\sigma_r)ΣM​=diag(σ1​,⋯,σr​)是包含矩阵M\mathbf MM的非零奇异值按照递减排列的对角阵,即σ1≥⋯≥σr>0\sigma_1\ge\cdots\ge\sigma_r>0σ1​≥⋯≥σr​>0。矩阵UM∈Rm×r\mathbf U_M\in{\mathbb R^{m\times r}}UM​∈Rm×r和VM∈Rn×r\mathbf V_M\in\mathbb R^{n\times r}VM​∈Rn×r中的列向量是矩阵M\mathbf MM的奇异值的左右奇异正交向量。通过Uk∈Rm×k,k≤r\mathbf U_k\in{\mathbb R}^{m\times{k}},k\le rUk​∈Rm×k,k≤r来表示M\mathbf MM的左奇异值向量。

  投影到Uk\mathbf U_kUk​的正交映射可以写成PUk=UkUk⊤\mathbf P_{U_k}=\mathbf U_k\mathbf U_k^\topPUk​​=Uk​Uk⊤​,并且PUk\mathbf P_{U_k}PUk​​是对称半正定和幂等的,即PUk2=PUk\mathbf P_{U_k}^2=\mathbf P_{ U_k}PUk​2​=PUk​​。矩阵M\mathbf MM的右奇异值向量也是一样的。

  对于M\mathbf MM的广义逆矩阵或者是Moore-Penrose伪逆矩阵M†\mathbf M^{\dagger}M†如下定义:

M†=UMΣM†VM⊤,\mathbf M^\dagger=\mathbf U_M\Sigma_M^\dagger\mathbf V_M^\top,M†=UM​ΣM†​VM⊤​,

其中ΣM†=(σ1−1,⋯,σr−1)\Sigma_M^\dagger=(\sigma_1^{-1},\cdots,\sigma_r^{-1})ΣM†​=(σ1−1​,⋯,σr−1​),对任何m×mm\times mm×m的满秩矩阵M\mathbf MM,矩阵的伪逆矩阵就是矩阵的逆:M†=M−1\mathbf M^\dagger=\mathbf M^{-1}M†=M−1。

1.2.3 对称正半定矩阵(Symmetric positive semidefinite (SPSD) matrices)

定义7: 一个对称矩阵是M∈Rm×m\mathbf M\in\mathbb R^{m\times m}M∈Rm×m是半正定的,当且仅当,对所有的x∈Rm\mathbf x\in \mathbb R^mx∈Rm:

x⊤Mx≥0.\mathbf x^\top\mathbf{M}\mathbf{x}\ge0.x⊤Mx≥0.
当上式严格大于零时,M\mathbf MM是正定的。也可以说,当且仅当一个矩阵的特征值非负时, M\mathbf MM是对称正半定的。下述特点对任何对称半正定矩阵M\mathbf MM均成立:

  • 对某些矩阵X\mathbf XX,M\mathbf MM可以分解成M=X⊤X\mathbf M=\mathbf X^\top\mathbf XM=X⊤X。
  • M\mathbf MM的左右奇异值向量是相同的,并且M\mathbf MM的奇异值分解也是它的特征值分解。
  • 任意矩阵X=UXΣXVX⊤\mathbf X=\mathbf U_X\mathbf\Sigma_X\mathbf V_X^\topX=UX​ΣX​VX⊤​的奇异值分解就是两个相关的对称正半定矩阵的奇异值分解:左奇异值向量是XX⊤\mathbf X\mathbf X^\topXX⊤的特征向量,右奇异值向量就是X⊤X\mathbf X^\top\mathbf XX⊤X的特征向量。并且X\mathbf XX的非零奇异值是XX⊤\mathbf X\mathbf X^\topXX⊤和X⊤X\mathbf X^\top\mathbf XX⊤X非零特征值的平方根。
  • X\mathbf XX的迹是它的奇异值的和,Tr[M]=∑i=1rσi(M)\text{Tr}[\mathbf M]=\sum_{i=1}^r\sigma_i(\mathbf M)Tr[M]=∑i=1r​σi​(M),其中rank(M)=r\text{rank}(\mathbf M)=rrank(M)=r。

2、凸优化(Convex Optimization)

  这一小节介绍机器学习中常用的凸优化问题。

2.1 可微和无约束最优化(Differentiation and unconstrained optimization)

  我们从一些基本的微分定义开始,这些定义是介绍费马定理和描述凸函数的一些性质所必要的准备。

定义2.1:梯度 令f:X⊆RN→Rf:\mathcal{X}\subseteq\mathbb R^N\rightarrow\mathbb Rf:X⊆RN→R是一个可微函数。fff在x∈X\mathbf x\in\mathcal{X}x∈X向量处的梯度表示为∇f(x)\nabla f(\mathbf x)∇f(x)并有如下定义:

∇f(x)=[∂f∂x1(x)⋮∂f∂xN(x)].\nabla f(\mathbf x)=\begin{bmatrix}\frac{\partial f}{\partial\mathbf x_1}(\mathbf x)\\\vdots\\\frac{\partial f}{\partial\mathbf x_N}(\mathbf x)\end{bmatrix}.∇f(x)=⎣⎢⎡​∂x1​∂f​(x)⋮∂xN​∂f​(x)​⎦⎥⎤​.

定义2.2: 海森(Hessian) 令f:X⊆RN→Rf:\mathcal{X}\subseteq\mathbb R^N\rightarrow\mathbb Rf:X⊆RN→R是一个二阶可微函数。则fff在x∈X\mathbf x\in\mathcal Xx∈X处的海森矩阵是表示为∇2f(x)\nabla^2f(\mathbf x)∇2f(x) 的 RN×N\mathbb R^{N\times N}RN×N的矩阵,定义如下:

∇2f(x)=[∂2f∂xi∂xj(x)]1≤i,j≤N.\nabla^2f(\mathbf x)=\Big[\frac{\partial^2f}{\partial \mathbf x_i\partial\mathbf x_j}(\mathbf x)\Big]_{1\le i,j\le N}.∇2f(x)=[∂xi​∂xj​∂2f​(x)]1≤i,j≤N​.

  接下来,我们给出了无约束优化的一个经典结果。

定理2.3:费马定理(Fermat’s theorem) 令f:X⊆RN→Rf:\mathcal{X}\subseteq\mathbb R^N\rightarrow\mathbb Rf:X⊆RN→R是一个可微函数。如果x∗∈X\mathbf x^\ast\in\mathcal{X}x∗∈X是fff的一个局部极值,则∇f(x∗)=0\nabla f(\mathbf x^\ast)=0∇f(x∗)=0,也就是说,x∗\mathbf x^\astx∗是一个驻点(stationary point)

2.2 凸性(Convexity)

  这一部分将要介绍凸集凸函数的概念。凸函数在机器学习算法的设计和分析中起着重要的作用,部分原因是凸函数的局部极小值就是全局最小值。因此,一个假设的特点是通过凸优化寻找到的局部最小值往往很好理解,而对于一些非凸优化问题可能会有大量的局部最小值没有明显特征的假设可以学习。

定义2.4:凸集 一个集合X⊆RN\mathcal X\subseteq \mathbb R^NX⊆RN被认为是凸的,如果任意两个点x,y∈X\mathbf x,\mathbf y\in\mathcal Xx,y∈X,区间[x,y]⊆X[\mathbf x,\mathbf y]\subseteq\mathcal X[x,y]⊆X,满足

{αx+(1−α)y:0≤α≤1}⊆X.\{\alpha\mathbf{x}+(1-\alpha)\mathbf y:0\le\alpha\le1\}\subseteq\mathcal X.{αx+(1−α)y:0≤α≤1}⊆X.
具体地说,在欧氏空间中,凸集是对于集合内的每一对点,连接该对点的直线段上的每个点也在该集合内。

  下面的引理阐述了在凸集上保持凸性的几种操作。这些将有助于证明本节的几个后续结果。

引理 2.5 凸集的一些操作

  • 令集合{Ci}i∈I\{\mathcal{C}_i\}_{i\in{I}}{Ci​}i∈I​是凸集,则集合任意部分⋂i∈ICi\bigcap_{i\in{I}}\mathcal C_i⋂i∈I​Ci​也是凸集。
  • 令集合C1\mathcal{C}_1C1​和C2\mathcal{C}_2C2​是凸集,则它们的和C1+C2={x1+x2:x1∈C1,x2∈C2}\mathcal{C}_1+\mathcal{C}_2=\{x_1+x_2:x_1\in\mathcal{C}_1,x_2\in\mathcal{C}_2\}C1​+C2​={x1​+x2​:x1​∈C1​,x2​∈C2​}也是凸集。
  • 令集合C1\mathcal{C}_1C1​和C2\mathcal{C}_2C2​是凸集,则它们叉积( cross-product)(C1×C2\mathcal{C}_1\times\mathcal{C}_2C1​×C2​)也是凸的(叉积:a×b=∣a∣⋅∣b∣⋅sin⁡θ\mathbf a\times\mathbf b=|\mathbf a|\cdot|\mathbf b|\cdot\sin\thetaa×b=∣a∣⋅∣b∣⋅sinθ)。
  • 凸集C\mathcal CC的任何投影也是凸的。

定义2.6:凸包(Convex hull) 一系列点X∈RN\mathcal{X}\in{\mathbb{R}^N}X∈RN的凸包conv(X)\text{conv}(\mathcal{X})conv(X)是包含X\mathcal{X}X的最小凸集,等价于如下定义:

conv(X)={∑i=1mαixi:m≥1,∀i∈[m],xi∈X,αi>0,∑i=1mαi=1}.\text{conv}(\mathcal X)=\Big\{\sum_{i=1}^m\alpha_i\mathbf x_i:m\ge1,\forall i\in{[m]},\mathbf x_i\in\mathcal X,\alpha_i>0,\sum_{i=1}^m\alpha_i=1\Big\}.conv(X)={i=1∑m​αi​xi​:m≥1,∀i∈[m],xi​∈X,αi​>0,i=1∑m​αi​=1}.

让Epif\text{Epi}\;fEpif表示f:X→Rf:\mathcal X\rightarrow\mathbb Rf:X→R的epigraph ,也就是一系列的点在函数图像的上面:{(x,y):x∈X,y≥f(x)}\{(x,y):x\in\mathcal X,y\ge f(x)\}{(x,y):x∈X,y≥f(x)}。

定义2.7:凸函数(Convex function) 令X\mathcal XX表示凸集。函数f:X→Rf:\mathcal X\rightarrow\mathbb Rf:X→R是凸集当且仅当Epif\text{Epi}\;fEpif是凸集,或者对所有x,y∈X\mathbf x,\mathbf y\in\mathcal Xx,y∈X和α∈[0,1]\alpha\in[0,1]α∈[0,1],

f(αx+(1−αy))≤αf(x)+(1−α)f(y).f(\alpha\mathbf x+(1-\alpha\mathbf y))\le\alpha{f}(\mathbf x)+(1-\alpha)f(\mathbf y).f(αx+(1−αy))≤αf(x)+(1−α)f(y).

当上式x≠y\mathbf x\ne\mathbf yx​=y时,fff是严格凸函数。fff是(严格)凹函数当−f-f−f是(严格)凸函数。下图是一个简单的凸凹函数的例子。凸函数也可以用它们的一阶或二阶微分来表示。

上图:(左)凸和(右)凹函数的例子。注意,在凸函数上两点之间绘制的任何线段都位于函数图形的上方,而在凹函数上两点之间绘制的任何线段都位于函数图形的下方。

定理2.8: 令fff是可微函数,fff是凸的当且仅当dom(f)\text{dom}(f)dom(f)是凸的,并且下述不等式成立:

∀x,y∈dom(f),f(y)−f(x)≥∇f(x)⋅(y−x).\forall\mathbf x,\mathbf y\in{\text{dom}}(f),f(\mathbf y)-f(\mathbf{x})\ge\nabla{f}(\mathbf x)\cdot(\mathbf y-\mathbf x).∀x,y∈dom(f),f(y)−f(x)≥∇f(x)⋅(y−x).

下图展示了上述不等式的性质:对于一个凸函数,超平面在x\mathbf xx处的切线总是在函数图像的下方。

定理2.9: 令fff为二次可微函数,fff是凸的当且仅当domf\text{dom}fdomf是凸的并且它的海森矩阵是正半定的:

∀x∈dom(f),∇2f(x)≥0.\forall \mathbf x\in\text{dom}(f),\nabla^2f(\mathbf x) \ge0.∀x∈dom(f),∇2f(x)≥0.

如果一个对称矩阵的所有特征值都是非负的,那么它就是半正定的。那么当fff是标量时,这个定理表明fff是凸的当且仅当它的二阶导数总是非负的,即对于所有x∈dom(f),f′′(x)≥0x\in\text{dom}(f),f^{\prime\prime}(x)\ge0x∈dom(f),f′′(x)≥0。

例子2.10: 线性函数(Linear functions)任何线性函数fff既是凸又是凹的,因为根据线性方程的定义,定义2.7对于fff和−f-f−f都成立。

例子2.11: 二次函数(Quadratic functions) 函数f:x↦x2f:x\mapsto x^2f:x↦x2是定义在R\mathbb RR上的凸函数,因为它是二次可微的并且对于所有x∈Rx\in\mathbb Rx∈R,f′′(x)=2>0f^{\prime\prime}(x)=2>0f′′(x)=2>0。

例子2.12:范数(Norms) 由范数的齐次性和三角不等式性,定义在凸集X\mathcal XX上的任意范数∣∣⋅∣∣||\cdot||∣∣⋅∣∣是凸的。对所有的α∈[0,1],x,y∈X\alpha\in[0,1],\mathbf x,\mathbf y\in\mathcal Xα∈[0,1],x,y∈X,我门可以写成

∣∣αx+(1−α)y∣∣≤∣∣αx∣∣+∣∣(1−α)y∣∣=α∣∣x∣∣+(1−α)∣∣y∣∣.||\alpha\mathbf x+(1-\alpha)\mathbf y||\le||\alpha\mathbf x||+||(1-\alpha)\mathbf y||=\alpha||\mathbf x||+(1-\alpha)||\mathbf y||.∣∣αx+(1−α)y∣∣≤∣∣αx∣∣+∣∣(1−α)y∣∣=α∣∣x∣∣+(1−α)∣∣y∣∣.

定理2.13:琴生不等式(Jensen’s inequality) 令X\mathbf XX是来自取值为一个非空凸集C⊆RN\mathcal C\subseteq\mathbb R^NC⊆RN并且其有限期望是E[X]\mathbb E[\mathbf X]E[X]的随机变量并且fff是定义在C\mathcal{C}C上的可测凸函数。则E[X]\mathbb E[\mathbf X]E[X]属于凸集C\mathcal CC并且E[X]\mathbb E[\mathbf X]E[X]是有限的,则下述不等式成立:

f(E[X])≤E[f(X)].f(\mathbb E[\mathbf X])\le\mathbb E[f(\mathbf X)].f(E[X])≤E[f(X)].

2.3 约束最优化(Constrained optimization)

  我们现在定义一个一般的约束优化问题和凸约束优化问题的具体性质。

定义2.14:约束最优化问题(Constrained optimization problem) 令X⊆RN\mathcal X\subseteq\mathbb R^NX⊆RN并对所有的i∈[m]i\in[m]i∈[m],f,gi:X→Rf,g_i:\mathcal X\rightarrow\mathbb Rf,gi​:X→R。则约束最优化问题是如下形式:

min⁡x∈Xf(x)subjext to:gi(x)≤0,∀i∈{1,⋯,m}.\min_{\mathbf x\in\mathcal X}f(\mathbf x)\\\text{subjext to}:g_i(\mathbf x)\le0,\forall i\in\{1,\cdots,m\}.x∈Xmin​f(x)subjext to:gi​(x)≤0,∀i∈{1,⋯,m}.

这个一般公式不做任何凸性假设,并且可以用等式约束加以扩充。与稍后介绍的相关问题相比,它被称为原始问题(primal problem)。我们将用p∗p^\astp∗来表示目标函数的最佳值。

  对于任何x∈X\mathbf x\in\mathcal Xx∈X,我们将用g(x)g(\mathbf x)g(x)表示向量(g1(x),⋯,gm(x))⊤(g_1(\mathbf x),\cdots,g_m(\mathbf x))^\top(g1​(x),⋯,gm​(x))⊤。因此,约束可以写成g(x)≤0g(\mathbf x)\le0g(x)≤0。对于任何约束优化问题,我们可以把在分析问题或与另一个相关的优化问题中起重要作用的拉格朗日函数(Lagrange function)联系起来。

定义2.15:拉格朗日(Lagrangian) 与一般约束最优化问题相关的拉格朗日函数在X∈R+\mathcal X\in\mathbb R_+X∈R+​的定义如下:

∀x∈X,∀α≥0,L(x,α)=f(x)+∑i=1mαigi(x).\forall\mathbb x\in\mathcal X,\forall\alpha\ge0,\;\;\;\mathcal L(\mathbf x,\alpha)=f(\mathbf x)+\sum_{i=1}^m\alpha_ig_i(\mathbf x).∀x∈X,∀α≥0,L(x,α)=f(x)+i=1∑m​αi​gi​(x).

注意,对于凸优化问题,等式约束函数g(x)g(\mathbf x)g(x)必须是仿射函数,因为无论是g(x)g(\mathbf x)g(x)和−g(x)-g(\mathbf x)−g(x)都需要是凸的。

定义2.16:对偶函数(Dual function) 与约束优化问题相关的(拉格朗日)对偶函数定义如下:

∀α>0,F(α)=inf⁡x∈XL(x,α)=inf⁡x∈X(f(x)+∑i=1mαigi(x)).\forall\alpha>0,F(\alpha)=\inf_{\mathbf x\in\mathcal X}\mathcal L(\mathbf x,\alpha)=\inf_{\mathbf x\in\mathcal X}(f(\mathbf x)+\sum_{i=1}^m\alpha_ig_i(\mathbf x)).∀α>0,F(α)=x∈Xinf​L(x,α)=x∈Xinf​(f(x)+i=1∑m​αi​gi​(x)).

注意FFF经常是凹函数,因为关于α\alphaα的拉格朗日函数是线性的,因为下确界保留凹性。我们进一步观察到

∀α≥0,F(α)≤p∗,\forall\alpha\ge0,F(\alpha)\le p^\ast,∀α≥0,F(α)≤p∗,

因为对于任何的x\mathbf xx,f(x)+∑i=1mαigi(x)≤f(x)f(\mathbf x)+\sum_{i=1}^m\alpha_ig_i(\mathbf x)\le f(\mathbf x)f(x)+∑i=1m​αi​gi​(x)≤f(x)。对偶函数自然会导致下述优化问题。

定义2.17:对偶问题(Dual problem) 与对偶(优化)问题相关联的约束优化问题是

max⁡αF(α)subject to:α≥0.\max_{\alpha}F(\mathbf \alpha)\\\text{subject to}:\alpha\ge0.αmax​F(α)subject to:α≥0.

对偶问题总是凸优化问题(最大化凹问题)。令d∗d^\astd∗表示最优解,下述不等式成立:

d∗≤p∗.d^\ast\le p^\ast.d∗≤p∗.

上式是弱对偶问题。它们的差值是p∗−d∗p^\ast- d^\astp∗−d∗,也被称作是对偶差(duality gap)。上式取等时,称为强对偶问题

  如果需要深入研究凸优化等问题,推荐Stephen boyd的《凸优化》,下篇更新《机器学习中的数学(中)》,to be continued…

机器学习中的数学(上)相关推荐

  1. 机器学习中的数学——上溢和下溢

    分类目录:<机器学习中的数学>总目录 连续数学在数字计算机上的根本困难是,我们需要通过有限数量的位模式来表示无限多的实数.这意味着我们在计算机中表示实数时,几乎总会引入一些近似误差.在许多 ...

  2. 机器学习中的数学:一份新鲜出炉的热门草稿

    来源:机器之心 本文约1500字,建议阅读5分钟. 本文为你分享近日<Mathematics for Machine Learning>的全部草稿已放出,我们整理了这本书的简要概述. 近日 ...

  3. 我们该如何学习机器学习中的数学

    数学在机器学习中非常重要,不论是在算法上理解模型代码,还是在工程上构建系统,数学都必不可少.通常离开学校后很难有机会静下心学习数学知识,因此我们最好能通过阅读小组或读书会等形式营造环境,并专注学习那些 ...

  4. 机器学习中的数学(七)--凸优化的基础知识

    写在前面 <机器学习中的数学>系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等.本系列重在描述基本概念,并不在应用的方面的做深入的探讨, ...

  5. 机器学习中的数学(六)--信息论与激活函数

    写在前面 <机器学习中的数学>系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等.本系列重在描述基本概念,并不在应用的方面的做深入的探讨, ...

  6. 机器学习中的数学(四)--线性代数

    写在前面 <机器学习中的数学>系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等.本系列重在描述基本概念,并不在应用的方面的做深入的探讨, ...

  7. 机器学习中的数学(三)--牛顿法

    写在前面 <机器学习中的数学>系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等.本系列重在描述基本概念,并不在应用的方面的做深入的探讨, ...

  8. 机器学习中的数学(二)--梯度下降法

    写在前面 <机器学习中的数学>系列主要列举了在机器学习中用到的较多的数学知识,包括微积分,线性代数,概率统计,信息论以及凸优化等等.本系列重在描述基本概念,并不在应用的方面的做深入的探讨, ...

  9. 机器学习中的数学——拟牛顿法(Quasi-Newton Methods)

    分类目录:<机器学习中的数学>总目录 相关文章: · 梯度下降法(Gradient Descent) · 随机梯度下降(Stochastic Gradient Descent, SGD) ...

最新文章

  1. Android设计模式-观察者模式
  2. python读音发音器-python3 - 文本读音器
  3. 线上服务CPU100%问题快速定位实战(转载公众号:架构师之路)
  4. 修改Mysql表中自增字段的初始值
  5. java自定义异常报错
  6. arm linux 中断 分析,armlinux中断异常的处理分析.pdf
  7. qt设置鼠标追踪后,鼠标还是需要点击后才能变样式
  8. comparator比较器用法_汽车三元催化器堵塞咋办?不拆不换,用这招清理干净、动力猛如虎...
  9. Android 使用GridView以表格的形式显示多张图片
  10. 无线通信-信道模型概念
  11. 离散数学|代数系统(超详细期末复习)
  12. Java Static关键字详解
  13. Windows7下chm文件打不开
  14. java9 javascript_[Java教程]9最好的JavaScript压缩工具
  15. 大型网站图片服务器架构的演进!
  16. python实训报告万能模板_实训报告万能模板1000字
  17. AI 助力智慧城市发展 | 腾讯视觉峰会回顾
  18. 红红火火恍恍惚惚(bfs_plus.2)(知道吉米你很急!)
  19. 混合拉普拉斯分布(LMM)推导及实现
  20. 两万文字多图详解常用软件工具使用(持续更新)

热门文章

  1. 怎样有效的检索文献?
  2. #800 Div.2 E. Keshi in Search of AmShZ 最短路
  3. ExoPlayer网速估计方法
  4. 计算机无法开机出现英文,电脑开机出现英文字母开不了机解决方法
  5. Android发送短信的两种方法
  6. 遗传算法 python 简书_基于DEAP库的Python进化算法从入门到入土—(二)简单遗传算法实现...
  7. 2022年3000元电脑最强组装 组装电脑配置推荐3000元左右
  8. tableau 超级市场仪表板
  9. 软件测试bug日志信息,软件测试bug收集策略 - Mr.南柯 - 51Testing软件测试网 51Testing软件测试网-软件测试人的精神家园...
  10. Java基础复习总结笔记(上)