作者:張張張張
github地址:https://github.com/zhanghekai
【转载请注明出处,谢谢!】

【机器学习系列】之SVM硬间隔和软间隔
【机器学习系列】之SVM核函数和SMO算法
【机器学习系列】之支持向量回归SVR
【机器学习系列】之sklearn实现SVM代码

一、SVM回归模型概述

对于SVM回归模型:给定样本D={(x1,y1),(x2,y2),⋯ ,(xm,ym)},y∈RD=\{(x_1,y_1),(x_2,y_2),\cdots ,(x_m,y_m)\}, y\in RD={(x1​,y1​),(x2​,y2​),⋯,(xm​,ym​)},y∈R(由于是回归模型,yyy没有类别),我们的目标是让训练集中的每个点(xi,yi)(x_i,y_i)(xi​,yi​)尽量拟合到一个线性模型yi=w⋅ϕ(xi)+by_i=w\cdot\phi(x_i)+byi​=w⋅ϕ(xi​)+b。

对于一般的回归模型: 通常采用均方差作为损失函数。传统回归模型通常直接基于“模型输出”与“真实输出”之间的差别来计算损失,当切仅当二者完全相同时,损失才为000。

对于SVM回归模型: “支持向量回归(Support Vector Regression)”需要定义一个常量ϵ>0\epsilon>0ϵ>0,ϵ\epsilonϵ为能容忍“模型输出”与“真实输出”之间最多有ϵ\epsilonϵ的偏差。

  • 如果∣yi−w⋅ϕ(xi)−b∣≤ϵ|y_i-w\cdot\phi(x_i)-b|\leq\epsilon∣yi​−w⋅ϕ(xi​)−b∣≤ϵ,则完全没有损失;
  • 如果∣yi−w⋅ϕ(xi)−b∣≥ϵ|y_i-w\cdot\phi(x_i)-b|\geq\epsilon∣yi​−w⋅ϕ(xi​)−b∣≥ϵ,则对应的损失为∣yi−w⋅ϕ(xi)−b∣−ϵ|y_i-w\cdot\phi(x_i)-b|-\epsilon∣yi​−w⋅ϕ(xi​)−b∣−ϵ

即: 仅当f(x)=w⋅ϕ(xi)−bf(x)=w\cdot\phi(x_i)-bf(x)=w⋅ϕ(xi​)−b与yyy之间的差别绝对值大于ϵ\epsilonϵ时才计算损失。

如下图所示,这相当于以f(x)f(x)f(x)为中心,构建了一个宽度为2ϵ2\epsilon2ϵ的间隔带,若训练样本落入此间隔带,则认为是被预测正确的。


综上所述,SVM回归模型的损失函数度量为:
err(xi,yi)={0,∣yi−w⋅ϕ(xi)−b∣≤ϵ∣yi−w⋅ϕ(xi)−b∣−ϵ,∣yi−w⋅ϕ(xi)−b∣>ϵerr(x_i,y_i)=\begin{cases}0,\qquad\qquad\qquad\qquad\qquad\qquad |y_i-w\cdot\phi(x_i)-b|\leq\epsilon\\ |y_i-w\cdot\phi(x_i)-b|-\epsilon,\qquad\quad|y_i-w\cdot\phi(x_i)-b|>\epsilon \end{cases}err(xi​,yi​)={0,∣yi​−w⋅ϕ(xi​)−b∣≤ϵ∣yi​−w⋅ϕ(xi​)−b∣−ϵ,∣yi​−w⋅ϕ(xi​)−b∣>ϵ​

二、SVM回归模型目标函数

定义SVM回归模型目标函数为:
min⎵w,b  12∣∣w∣∣2s.t.∣yi−w⋅ϕ(xi)−b∣≤ϵ  (i=1,2,⋯ ,m)\underbrace{min}_{w,b}\;\frac{1}{2}||w||^2\\ s.t. \quad|y_i-w\cdot\phi(x_i)-b|\leq\epsilon\;(i = 1,2,\cdots,m)w,bmin​​21​∣∣w∣∣2s.t.∣yi​−w⋅ϕ(xi​)−b∣≤ϵ(i=1,2,⋯,m)

回归模型也可以对每个样本加入松弛变量,但由于这里s.t.s.t.s.t.处用的是绝对值,实际上是两个不等式,即两边都需要松弛变量,定义松弛变量为ξˇ、ξ^\check{\xi}、\hat{\xi}ξˇ​、ξ^​,加入松弛变量后的SVM回归模型的损失函数为:
min⎵w,b,ξˇi,ξ^i  12∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)s.t.−ϵ−ξˇi≤yi−w⋅ϕ(xi)−b≤ϵ+ξ^iξˇi≥0,ξ^i≥0(i=1,2,⋯ ,m)\underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}\;\frac{1}{2}||w||^2+C\sum_{i=1}^{m}(\check{\xi}_i+\hat{\xi}_i)\\ s.t.\quad -\epsilon-\check{\xi}_i\leq y_i-w\cdot \phi(x_i)-b\leq\epsilon+\hat{\xi}_i\\ \check{\xi}_i\geq 0,\hat{\xi}_i\geq0\quad(i=1,2,\cdots,m)w,b,ξˇ​i​,ξ^​i​min​​21​∣∣w∣∣2+Ci=1∑m​(ξˇ​i​+ξ^​i​)s.t.−ϵ−ξˇ​i​≤yi​−w⋅ϕ(xi​)−b≤ϵ+ξ^​i​ξˇ​i​≥0,ξ^​i​≥0(i=1,2,⋯,m)

间隔带两侧的松弛程度可有所不同。

同SVM分类模型相似,可以用拉格朗日函数将目标优化哈数变成无约束的形式:

  • 带求目标f(x)=min⎵w,b,ξˇi,ξ^i  12∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)f(x)=\underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}\;\frac{1}{2}||w||^2+C\sum_{i=1}^{m}(\check{\xi}_i+\hat{\xi}_i)f(x)=w,b,ξˇ​i​,ξ^​i​min​​21​∣∣w∣∣2+C∑i=1m​(ξˇ​i​+ξ^​i​)
  • 不等式约束:
    • h1(x)=yi−w⋅ϕ(xi)−b−ϵ−ξ^i≤0h_1(x)=y_i-w\cdot\phi(x_i)-b- \epsilon-\hat{\xi}_i\leq0h1​(x)=yi​−w⋅ϕ(xi​)−b−ϵ−ξ^​i​≤0
    • h2(x)=w⋅ϕ(xi)+b−yi−ϵ−ξˇi≤0h_2(x)=w\cdot\phi(x_i)+b-y_i- \epsilon-\check{\xi}_i\leq0h2​(x)=w⋅ϕ(xi​)+b−yi​−ϵ−ξˇ​i​≤0
    • g1(x)=−ξˇi≤0g_1(x)=-\check{\xi}_i\leq0g1​(x)=−ξˇ​i​≤0
    • g2(x)=−ξ^i≤0g_2(x)=-\hat{\xi}_i\leq0g2​(x)=−ξ^​i​≤0
  • 拉格朗日乘子:
    • α^i=(α^1,α^2,⋯ ,α^m)\hat{\alpha}_i = (\hat{\alpha}_1,\hat{\alpha}_2,\cdots,\hat{\alpha}_m)α^i​=(α^1​,α^2​,⋯,α^m​)
    • αˇi=(αˇ1,αˇ2,⋯ ,αˇm)\check{\alpha}_i = (\check{\alpha}_1,\check{\alpha}_2,\cdots,\check{\alpha}_m)αˇi​=(αˇ1​,αˇ2​,⋯,αˇm​)
    • μ^i=(μ^1,μ^2,⋯ ,μ^m)\hat{\mu}_i=(\hat{\mu}_1,\hat{\mu}_2,\cdots,\hat{\mu}_m)μ^​i​=(μ^​1​,μ^​2​,⋯,μ^​m​)
    • μˇi=(μˇ1,μˇ2,⋯ ,μˇm)\check{\mu}_i=(\check{\mu}_1,\check{\mu}_2,\cdots,\check{\mu}_m)μˇ​i​=(μˇ​1​,μˇ​2​,⋯,μˇ​m​)
  • 拉格朗日函数:
    L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)=f(x)+α^ih1(x)+αˇih2(x)+μˇig1(x)+μ^ig2(x)=12∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)+∑i=1mα^i(yi−w⋅ϕ(xi)−b−ϵ−ξ^i)+∑i=1mαˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇ)−∑i=1mμˇiξˇi−∑i=1mμ^iξ^iL(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)=f(x)+\hat{\alpha}_ih_1(x)+\check{\alpha}_ih_2(x)+\check{\mu}_ig_1(x)+\hat{\mu}_ig_2(x)\\ =\frac{1}{2}||w||^2+C\sum_{i=1}^{m}(\check{\xi}_i+\hat{\xi}_i)+\sum_{i=1}^{m}\hat{\alpha}_i(y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i)\\ +\sum_{i=1}^{m}\check{\alpha}_i(x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi})-\sum_{i=1}^{m}\check{\mu}_i\check{\xi}_i-\sum_{i=1}^{m}\hat{\mu}_i\hat{\xi}_iL(w,b,ξˇ​i​,ξ^​i​,αˇi​,α^i​,μˇ​i​,μ^​i​)=f(x)+α^i​h1​(x)+αˇi​h2​(x)+μˇ​i​g1​(x)+μ^​i​g2​(x)=21​∣∣w∣∣2+Ci=1∑m​(ξˇ​i​+ξ^​i​)+i=1∑m​α^i​(yi​−w⋅ϕ(xi​)−b−ϵ−ξ^​i​)+i=1∑m​αˇi​(x⋅ϕ(xi​)+b−yi​−ϵ−ξˇ​)−i=1∑m​μˇ​i​ξˇ​i​−i=1∑m​μ^​i​ξ^​i​

SVM回归模型原始形式:
min⎵w,b,ξˇi,ξ^imax⎵α^i≥0,αˇi≥0,μ^i≥0,μˇi≥0L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)\underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}\quad \underbrace{max}_{\hat{\alpha}_i\geq0,\check{\alpha}_i\geq0,\hat{\mu}_i\geq0,\check{\mu}_i\geq0}L(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)w,b,ξˇ​i​,ξ^​i​min​​α^i​≥0,αˇi​≥0,μ^​i​≥0,μˇ​i​≥0max​​L(w,b,ξˇ​i​,ξ^​i​,αˇi​,α^i​,μˇ​i​,μ^​i​)

和SVM分类模型一样,这个优目标也满足KKT条件,可以通过拉格朗日对偶将优化问题转化为等价的对偶问题来求解:
max⎵α^i≥0,αˇi≥0,μ^i≥0,μˇi≥0min⎵w,b,ξˇi,ξ^iL(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)\underbrace{max}_{\hat{\alpha}_i\geq0,\check{\alpha}_i\geq0,\hat{\mu}_i\geq0,\check{\mu}_i\geq0}\quad \underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}L(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)α^i​≥0,αˇi​≥0,μ^​i​≥0,μˇ​i​≥0max​​w,b,ξˇ​i​,ξ^​i​min​​L(w,b,ξˇ​i​,ξ^​i​,αˇi​,α^i​,μˇ​i​,μ^​i​)
可以先求优化函数对于w,b,ξˇi,ξ^iw,b,\check{\xi}_i,\hat{\xi}_iw,b,ξˇ​i​,ξ^​i​的极小值,接着再求拉格朗日乘子α^i,αˇi,μ^i,μˇi\hat{\alpha}_i,\check{\alpha}_i,\hat{\mu}_i,\check{\mu}_iα^i​,αˇi​,μ^​i​,μˇ​i​的极大值。

三、SVM回归模型目标函数求解

首先来求优化函数对于w,b,ξˇi,ξ^iw,b,\check{\xi}_i,\hat{\xi}_iw,b,ξˇ​i​,ξ^​i​的极小值,这个可以通过对LLL求偏导数求得:
∂L∂w=0  ⟹  w=∑i=1m(α^i−αˇi)ϕ(xi)∂L∂b=0  ⟹  ∑i=1m(α^i−αˇi)=0∂L∂ξˇi=0  ⟹  C=αˇi+μˇi∂L∂ξ^i=0  ⟹  C=α^i+μ^i\frac{\partial L}{\partial w}=0\implies w=\sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)\phi(x_i)\\[1ex] \frac{\partial L}{\partial b}=0\implies\sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)=0\\[1ex] \frac{\partial L}{\partial \check{\xi}_i}=0\implies C=\check{\alpha}_i+\check{\mu}_i\\[1ex] \frac{\partial L}{\partial \hat{\xi}_i}=0\implies C=\hat{\alpha}_i+\hat{\mu}_i∂w∂L​=0⟹w=i=1∑m​(α^i​−αˇi​)ϕ(xi​)∂b∂L​=0⟹i=1∑m​(α^i​−αˇi​)=0∂ξˇ​i​∂L​=0⟹C=αˇi​+μˇ​i​∂ξ^​i​∂L​=0⟹C=α^i​+μ^​i​

将上述4个式子带入L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)L(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)L(w,b,ξˇ​i​,ξ^​i​,αˇi​,α^i​,μˇ​i​,μ^​i​),消去w,b,ξˇi,ξ^iw,b,\check{\xi}_i,\hat{\xi}_iw,b,ξˇ​i​,ξ^​i​。
max⎵αˇi,α^i∑i=1m(yi(α^i−αˇi)−ϵ(α^i+αˇi))−12∑i=1m∑j=1m(α^i−αˇi)(α^j−αˇj)κijs.t.∑i=1m(α^i−αˇi)=00&lt;αiˇ&lt;C(i=1,2,⋯&ThinSpace;,m)0&lt;α^i&lt;C(i=1,2,⋯&ThinSpace;,m)\underbrace{max}_{\check{\alpha}_i,\hat{\alpha}_i}\quad\sum_{i=1}^{m}(y_i(\hat{\alpha}_i-\check{\alpha}_i)-\epsilon(\hat{\alpha}_i+\check{\alpha}_i))-\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)(\hat{\alpha}_j-\check{\alpha}_j)\kappa_{ij}\\ s.t. \quad \sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)=0\\ 0&lt;\check{\alpha_i}&lt;C\quad(i=1,2,\cdots,m)\\ 0&lt;\hat{\alpha}_i&lt;C \quad(i=1,2,\cdots,m)αˇi​,α^i​max​​i=1∑m​(yi​(α^i​−αˇi​)−ϵ(α^i​+αˇi​))−21​i=1∑m​j=1∑m​(α^i​−αˇi​)(α^j​−αˇj​)κij​s.t.i=1∑m​(α^i​−αˇi​)=00<αi​ˇ​<C(i=1,2,⋯,m)0<α^i​<C(i=1,2,⋯,m)

对目标函数取负号,得到求极小值的目标函数如下:
min⎵α^i,αˇi12∑i=1m∑j=1m(α^i−αˇi)(α^j−αˇj)κij−∑i=1m(yi(α^i−αˇi)−ϵ(α^i+αˇi))s.t.∑i=1m(α^i−αˇi)=00&lt;αiˇ&lt;C(i=1,2,⋯&ThinSpace;,m)0&lt;α^i&lt;C(i=1,2,⋯&ThinSpace;,m)\underbrace{min}_{\hat{\alpha}_i,\check{\alpha}_i}\quad\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)(\hat{\alpha}_j-\check{\alpha}_j)\kappa_{ij}-\sum_{i=1}^{m}(y_i(\hat{\alpha}_i-\check{\alpha}_i)-\epsilon(\hat{\alpha}_i+\check{\alpha}_i))\\ s.t. \quad \sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)=0\\ 0&lt;\check{\alpha_i}&lt;C\quad(i=1,2,\cdots,m)\\ 0&lt;\hat{\alpha}_i&lt;C \quad(i=1,2,\cdots,m)α^i​,αˇi​min​​21​i=1∑m​j=1∑m​(α^i​−αˇi​)(α^j​−αˇj​)κij​−i=1∑m​(yi​(α^i​−αˇi​)−ϵ(α^i​+αˇi​))s.t.i=1∑m​(α^i​−αˇi​)=00<αi​ˇ​<C(i=1,2,⋯,m)0<α^i​<C(i=1,2,⋯,m)

对于这个目标函数,依然可以用SMO算法来求出对应的αiˇ,αi^\check{\alpha_i},\hat{\alpha_i}αi​ˇ​,αi​^​,进而求出回归模型系数w,bw,bw,b。

四、SVM回归模型系数的系数的稀疏性

上述过程需满足KKT条件,即要求:
{α^i(yi−w⋅ϕ(xi)−b−ϵ−ξ^i)=0αˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇi)=0αˇiα^i=0,ξˇiξ^i=0(C−αˇi)ξˇi=0,(C−α^i)ξ^i=0\begin{cases}\hat{\alpha}_i(y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i)=0\\ \check{\alpha}_i(x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i)=0\\ \check{\alpha}_i\hat{\alpha}_i=0,\quad\check{\xi}_i\hat{\xi}_i=0\\ (C-\check{\alpha}_i)\check{\xi}_i=0,\quad (C-\hat{\alpha}_i)\hat{\xi}_i=0 \end{cases}⎩⎪⎪⎪⎨⎪⎪⎪⎧​α^i​(yi​−w⋅ϕ(xi​)−b−ϵ−ξ^​i​)=0αˇi​(x⋅ϕ(xi​)+b−yi​−ϵ−ξˇ​i​)=0αˇi​α^i​=0,ξˇ​i​ξ^​i​=0(C−αˇi​)ξˇ​i​=0,(C−α^i​)ξ^​i​=0​

由KKT条件知:

  • 当且仅当yi−w⋅ϕ(xi)−b−ϵ−ξ^i=0y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i=0yi​−w⋅ϕ(xi​)−b−ϵ−ξ^​i​=0时,α^i\hat{\alpha}_iα^i​能取非零值;
  • 当且仅当x⋅ϕ(xi)+b−yi−ϵ−ξˇi=0x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i=0x⋅ϕ(xi​)+b−yi​−ϵ−ξˇ​i​=0时,αˇi\check{\alpha}_iαˇi​能取非零值;
  • 总结: 仅当样本(xi,yi)(x_i,y_i)(xi​,yi​)不落入ϵ−\epsilon-ϵ−间隔带中,相应的αˇi\check{\alpha}_iαˇi​和α^i\hat{\alpha}_iα^i​才能取非零值。
  • 约束yi−w⋅ϕ(xi)−b−ϵ−ξ^i=0y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i=0yi​−w⋅ϕ(xi​)−b−ϵ−ξ^​i​=0和x⋅ϕ(xi)+b−yi−ϵ−ξˇi=0x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i=0x⋅ϕ(xi​)+b−yi​−ϵ−ξˇ​i​=0不能同时成立,因此αˇi\check{\alpha}_iαˇi​和α^i\hat{\alpha}_iα^i​中至少有一个为000。
  • 落在ϵ−\epsilon-ϵ−间隔带中的样本都满足αˇi=0\check{\alpha}_i=0αˇi​=0且α^i=0\hat{\alpha}_i=0α^i​=0。

最终SVM线性回归的解形式如下:
f(x)=∑i=1m(α^i−αˇi)κ(x,xi)+bf(x)=\sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)\kappa(x,x_i)+bf(x)=i=1∑m​(α^i​−αˇi​)κ(x,xi​)+b
其中κ(xi,xj)=ϕ(xi)Tϕ(xj)\kappa(x_i,x_j)=\phi(x_i)^T\phi(x_j)κ(xi​,xj​)=ϕ(xi​)Tϕ(xj​)为核函数。

能使f(x)f(x)f(x)中的(α^i−αˇi)(\hat{\alpha}_i-\check{\alpha}_i)(α^i​−αˇi​)不等于000的样本即为SVR的支持向量,它们必落在ϵ−\epsilon-ϵ−间隔带之外。 显然,SVR的支持向量仅是训练样本的一部分。

由KKT条件可以看出,对每个样本(xi,yi)(x_i,y_i)(xi​,yi​)都有: (C−αˇi)ξˇi=0(C-\check{\alpha}_i)\check{\xi}_i=0(C−αˇi​)ξˇ​i​=0且αˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇi)=0\check{\alpha}_i(x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i)=0αˇi​(x⋅ϕ(xi​)+b−yi​−ϵ−ξˇ​i​)=0。于是,在得到αˇi\check{\alpha}_iαˇi​后,若0&lt;αˇi&lt;C0&lt;\check{\alpha}_i&lt;C0<αˇi​<C,必有ξiˇ=0\check{\xi_i}=0ξi​ˇ​=0,则x⋅ϕ(xi)+b−yi−ϵ=0x\cdot\phi(x_i)+b-y_i-\epsilon=0x⋅ϕ(xi​)+b−yi​−ϵ=0,进而有:
b=yi+ϵ−∑j=1m(α^j−αˇj)xjTxib=y_i+\epsilon-\sum_{j=1}^{m}(\hat{\alpha}_j-\check{\alpha}_j)x_j^Tx_ib=yi​+ϵ−j=1∑m​(α^j​−αˇj​)xjT​xi​
因此,通过SMO算法得到αˇi\check{\alpha}_iαˇi​后,可任意选取满足0&lt;αˇi&lt;C0&lt;\check{\alpha}_i&lt;C0<αˇi​<C的样本通过上式求得bbb。实践中常采用一种更鲁棒的办法:选取多个(或所有)满足条件0&lt;αˇi&lt;C0&lt;\check{\alpha}_i&lt;C0<αˇi​<C的样本求解b后取平均值。


【参考文献】

  • 刘建平 博客园:https://www.cnblogs.com/pinard/
  • 周志华 《机器学习》

【机器学习系列】之支持向量回归SVR相关推荐

  1. 机器学习——支持向量回归(SVR)

    机器学习--支持向量回归(SVR) educoder平台练习题 如果博客中图片加载失败可点击链接跳转至实训详情 https://www.educoder.net/shixuns/b6yi97f2/ch ...

  2. 机器学习西瓜书笔记:软间隔和支持向量回归SVR

    1.首先由SVM问题(最大间隔超平面模型):所有样本都可以正确分类的最优化问题,引入软间隔SVM(允许分类错误)的最优化问题,即需要添加损失函数(样本不满足约束的程度,或者说分类错误的程度),然后最优 ...

  3. ❤️解决非线性回归问题的机器学习方法总结:多项式线性模型、广义线性(GAM)模型、回归树模型、支持向量回归(SVR)模型

    文章目录 前言 多项式回归模型 概念解释: sklearn实现多项式回归模型: 广义线性可加(GAM)模型 概念解释: pygam实现广义线性可加模型: GAM模型的优点与不足: 回归树模型 概念解释 ...

  4. 【视频】支持向量机SVM、支持向量回归SVR和R语言网格搜索超参数优化实例

    最近我们被客户要求撰写关于SVM的研究报告,包括一些图形和统计输出. 什么是支持向量机 (SVM)? 我们将从简单的理解 SVM 开始. [视频]支持向量机SVM.支持向量回归SVR和R语言网格搜索超 ...

  5. 基于DDTBOX,使用线性支持向量回归(SVR)从ERP数据中解码连续变量

    导读 事件相关电位(ERP)数据的多变量分类分析是预测认知变量的强大工具.然而,分类通常仅限于分类变量,并未充分利用连续数据,如反应时间.反应力或主观评分.另一种方法是支持向量回归(SVR),它使用单 ...

  6. 使用最大离散重叠小波变换MODWT和支持向量回归 SVR的金融时间序列预测

    本例使用的数据链接如下:https://www.histdata.com/download-free-forex-historical-data/?/ascii/tick-data-quotes/AU ...

  7. [翻译] 支持向量回归SVR的介绍

    X. Introduction 本文先翻译一下: http://www.saedsayad.com/support_vector_machine_reg.htm Support Vector Mach ...

  8. python 最小二乘回归 高斯核_机器学习技法6-(支持向量回归)

    一.核岭回归 线性分类模型加入了L2正则化以后,最佳解是w关于z的线性组合,因此带有L2正则化的线性分类模型能引入核函数,也就是把线性模型变成核函数的形式. 在线性回归模型中,损失函数为: 当给线性回 ...

  9. 【机器学习基础】支持向量回归

    引言 这一小节介绍一下支持向量回归,我们在之前介绍的核逻辑回归使用表示定理(Representer Theorem),将逻辑回归编程Kernel的形式,这一节我们沿着这个思路出发,看看如何将回归问题和 ...

最新文章

  1. sqlalchemy(一)基本操作
  2. @Service注解的使用
  3. 计算机网络---物理层
  4. SpringBoot 缓存之 @Cacheable 详细介绍
  5. rffc2071_基于 RFFC2071的变频器设计
  6. storyboard搭建项目_swift项目第五天:swift中storyBoard Reference搭建主界面
  7. 第一个python解释器哪年问世_Python即Python解释器的发展史
  8. linux登录显示 Error in service module错误
  9. 像素类沙盒游戏还存有哪些致命伤?
  10. 直流电机单闭环调速matlab仿真,单闭环直流电机调速Simulink仿真.docx
  11. 安居客数据的爬取并保存到MySQL
  12. javaweb实现即时消息推送功能
  13. 免费混合虚拟化OVM数据中心解决方案
  14. 好用的 Puppeteer 辅助工具 Puppeteer Recorder
  15. 容联云通讯完成发送验证码
  16. Google Chrome 源码下载
  17. 最新大数据产业生态地图:十大爆发点,百大公司起底
  18. 解决专为旧版android打造
  19. 网络安全职业_我如何开始网络安全职业
  20. 如何在公司建立好一个较为完整的固定资产设备台账

热门文章

  1. 右键新建excel文档无法打开,提示“文件格式或扩展名无效”
  2. “大片”火了毁大片,“IP”火了毁IP,现在整个电影圈都在研究什么才是好剧本
  3. linux修图软件 知乎,推荐几款适合大学生用的电脑!
  4. ubuntu20.04开展华为手机adb安装及调试app运行出错闪退的步骤
  5. 循环语句中continue和break的使用
  6. CRM 导入数据失败,显示【ISV 代码已中止操作】
  7. 易观分析对《上海市促进人工智能产业发展条例》的解读
  8. 并发编程--利用sleep防止CPU空转
  9. 之江实验室提出:用于弱监督目标定位的再注意Transformer
  10. python猪肉价格预测_预测猪肉年底会涨到30元,用python分析:肉涨真正利好哪些股?...