【机器学习系列】之支持向量回归SVR
作者:張張張張
github地址:https://github.com/zhanghekai
【转载请注明出处,谢谢!】
【机器学习系列】之SVM硬间隔和软间隔
【机器学习系列】之SVM核函数和SMO算法
【机器学习系列】之支持向量回归SVR
【机器学习系列】之sklearn实现SVM代码
一、SVM回归模型概述
对于SVM回归模型:给定样本D={(x1,y1),(x2,y2),⋯ ,(xm,ym)},y∈RD=\{(x_1,y_1),(x_2,y_2),\cdots ,(x_m,y_m)\}, y\in RD={(x1,y1),(x2,y2),⋯,(xm,ym)},y∈R(由于是回归模型,yyy没有类别),我们的目标是让训练集中的每个点(xi,yi)(x_i,y_i)(xi,yi)尽量拟合到一个线性模型yi=w⋅ϕ(xi)+by_i=w\cdot\phi(x_i)+byi=w⋅ϕ(xi)+b。
对于一般的回归模型: 通常采用均方差作为损失函数。传统回归模型通常直接基于“模型输出”与“真实输出”之间的差别来计算损失,当切仅当二者完全相同时,损失才为000。
对于SVM回归模型: “支持向量回归(Support Vector Regression)”需要定义一个常量ϵ>0\epsilon>0ϵ>0,ϵ\epsilonϵ为能容忍“模型输出”与“真实输出”之间最多有ϵ\epsilonϵ的偏差。
- 如果∣yi−w⋅ϕ(xi)−b∣≤ϵ|y_i-w\cdot\phi(x_i)-b|\leq\epsilon∣yi−w⋅ϕ(xi)−b∣≤ϵ,则完全没有损失;
- 如果∣yi−w⋅ϕ(xi)−b∣≥ϵ|y_i-w\cdot\phi(x_i)-b|\geq\epsilon∣yi−w⋅ϕ(xi)−b∣≥ϵ,则对应的损失为∣yi−w⋅ϕ(xi)−b∣−ϵ|y_i-w\cdot\phi(x_i)-b|-\epsilon∣yi−w⋅ϕ(xi)−b∣−ϵ
即: 仅当f(x)=w⋅ϕ(xi)−bf(x)=w\cdot\phi(x_i)-bf(x)=w⋅ϕ(xi)−b与yyy之间的差别绝对值大于ϵ\epsilonϵ时才计算损失。
如下图所示,这相当于以f(x)f(x)f(x)为中心,构建了一个宽度为2ϵ2\epsilon2ϵ的间隔带,若训练样本落入此间隔带,则认为是被预测正确的。
综上所述,SVM回归模型的损失函数度量为:
err(xi,yi)={0,∣yi−w⋅ϕ(xi)−b∣≤ϵ∣yi−w⋅ϕ(xi)−b∣−ϵ,∣yi−w⋅ϕ(xi)−b∣>ϵerr(x_i,y_i)=\begin{cases}0,\qquad\qquad\qquad\qquad\qquad\qquad |y_i-w\cdot\phi(x_i)-b|\leq\epsilon\\ |y_i-w\cdot\phi(x_i)-b|-\epsilon,\qquad\quad|y_i-w\cdot\phi(x_i)-b|>\epsilon \end{cases}err(xi,yi)={0,∣yi−w⋅ϕ(xi)−b∣≤ϵ∣yi−w⋅ϕ(xi)−b∣−ϵ,∣yi−w⋅ϕ(xi)−b∣>ϵ
二、SVM回归模型目标函数
定义SVM回归模型目标函数为:
min⎵w,b  12∣∣w∣∣2s.t.∣yi−w⋅ϕ(xi)−b∣≤ϵ  (i=1,2,⋯ ,m)\underbrace{min}_{w,b}\;\frac{1}{2}||w||^2\\ s.t. \quad|y_i-w\cdot\phi(x_i)-b|\leq\epsilon\;(i = 1,2,\cdots,m)w,bmin21∣∣w∣∣2s.t.∣yi−w⋅ϕ(xi)−b∣≤ϵ(i=1,2,⋯,m)
回归模型也可以对每个样本加入松弛变量,但由于这里s.t.s.t.s.t.处用的是绝对值,实际上是两个不等式,即两边都需要松弛变量,定义松弛变量为ξˇ、ξ^\check{\xi}、\hat{\xi}ξˇ、ξ^,加入松弛变量后的SVM回归模型的损失函数为:
min⎵w,b,ξˇi,ξ^i  12∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)s.t.−ϵ−ξˇi≤yi−w⋅ϕ(xi)−b≤ϵ+ξ^iξˇi≥0,ξ^i≥0(i=1,2,⋯ ,m)\underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}\;\frac{1}{2}||w||^2+C\sum_{i=1}^{m}(\check{\xi}_i+\hat{\xi}_i)\\ s.t.\quad -\epsilon-\check{\xi}_i\leq y_i-w\cdot \phi(x_i)-b\leq\epsilon+\hat{\xi}_i\\ \check{\xi}_i\geq 0,\hat{\xi}_i\geq0\quad(i=1,2,\cdots,m)w,b,ξˇi,ξ^imin21∣∣w∣∣2+Ci=1∑m(ξˇi+ξ^i)s.t.−ϵ−ξˇi≤yi−w⋅ϕ(xi)−b≤ϵ+ξ^iξˇi≥0,ξ^i≥0(i=1,2,⋯,m)
间隔带两侧的松弛程度可有所不同。
同SVM分类模型相似,可以用拉格朗日函数将目标优化哈数变成无约束的形式:
- 带求目标f(x)=min⎵w,b,ξˇi,ξ^i  12∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)f(x)=\underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}\;\frac{1}{2}||w||^2+C\sum_{i=1}^{m}(\check{\xi}_i+\hat{\xi}_i)f(x)=w,b,ξˇi,ξ^imin21∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)
- 不等式约束:
- h1(x)=yi−w⋅ϕ(xi)−b−ϵ−ξ^i≤0h_1(x)=y_i-w\cdot\phi(x_i)-b- \epsilon-\hat{\xi}_i\leq0h1(x)=yi−w⋅ϕ(xi)−b−ϵ−ξ^i≤0
- h2(x)=w⋅ϕ(xi)+b−yi−ϵ−ξˇi≤0h_2(x)=w\cdot\phi(x_i)+b-y_i- \epsilon-\check{\xi}_i\leq0h2(x)=w⋅ϕ(xi)+b−yi−ϵ−ξˇi≤0
- g1(x)=−ξˇi≤0g_1(x)=-\check{\xi}_i\leq0g1(x)=−ξˇi≤0
- g2(x)=−ξ^i≤0g_2(x)=-\hat{\xi}_i\leq0g2(x)=−ξ^i≤0
- 拉格朗日乘子:
- α^i=(α^1,α^2,⋯ ,α^m)\hat{\alpha}_i = (\hat{\alpha}_1,\hat{\alpha}_2,\cdots,\hat{\alpha}_m)α^i=(α^1,α^2,⋯,α^m)
- αˇi=(αˇ1,αˇ2,⋯ ,αˇm)\check{\alpha}_i = (\check{\alpha}_1,\check{\alpha}_2,\cdots,\check{\alpha}_m)αˇi=(αˇ1,αˇ2,⋯,αˇm)
- μ^i=(μ^1,μ^2,⋯ ,μ^m)\hat{\mu}_i=(\hat{\mu}_1,\hat{\mu}_2,\cdots,\hat{\mu}_m)μ^i=(μ^1,μ^2,⋯,μ^m)
- μˇi=(μˇ1,μˇ2,⋯ ,μˇm)\check{\mu}_i=(\check{\mu}_1,\check{\mu}_2,\cdots,\check{\mu}_m)μˇi=(μˇ1,μˇ2,⋯,μˇm)
- 拉格朗日函数:
L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)=f(x)+α^ih1(x)+αˇih2(x)+μˇig1(x)+μ^ig2(x)=12∣∣w∣∣2+C∑i=1m(ξˇi+ξ^i)+∑i=1mα^i(yi−w⋅ϕ(xi)−b−ϵ−ξ^i)+∑i=1mαˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇ)−∑i=1mμˇiξˇi−∑i=1mμ^iξ^iL(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)=f(x)+\hat{\alpha}_ih_1(x)+\check{\alpha}_ih_2(x)+\check{\mu}_ig_1(x)+\hat{\mu}_ig_2(x)\\ =\frac{1}{2}||w||^2+C\sum_{i=1}^{m}(\check{\xi}_i+\hat{\xi}_i)+\sum_{i=1}^{m}\hat{\alpha}_i(y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i)\\ +\sum_{i=1}^{m}\check{\alpha}_i(x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi})-\sum_{i=1}^{m}\check{\mu}_i\check{\xi}_i-\sum_{i=1}^{m}\hat{\mu}_i\hat{\xi}_iL(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)=f(x)+α^ih1(x)+αˇih2(x)+μˇig1(x)+μ^ig2(x)=21∣∣w∣∣2+Ci=1∑m(ξˇi+ξ^i)+i=1∑mα^i(yi−w⋅ϕ(xi)−b−ϵ−ξ^i)+i=1∑mαˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇ)−i=1∑mμˇiξˇi−i=1∑mμ^iξ^i
SVM回归模型原始形式:
min⎵w,b,ξˇi,ξ^imax⎵α^i≥0,αˇi≥0,μ^i≥0,μˇi≥0L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)\underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}\quad \underbrace{max}_{\hat{\alpha}_i\geq0,\check{\alpha}_i\geq0,\hat{\mu}_i\geq0,\check{\mu}_i\geq0}L(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)w,b,ξˇi,ξ^iminα^i≥0,αˇi≥0,μ^i≥0,μˇi≥0maxL(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)
和SVM分类模型一样,这个优目标也满足KKT条件,可以通过拉格朗日对偶将优化问题转化为等价的对偶问题来求解:
max⎵α^i≥0,αˇi≥0,μ^i≥0,μˇi≥0min⎵w,b,ξˇi,ξ^iL(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)\underbrace{max}_{\hat{\alpha}_i\geq0,\check{\alpha}_i\geq0,\hat{\mu}_i\geq0,\check{\mu}_i\geq0}\quad \underbrace{min}_{w,b,\check{\xi}_i,\hat{\xi}_i}L(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)α^i≥0,αˇi≥0,μ^i≥0,μˇi≥0maxw,b,ξˇi,ξ^iminL(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)
可以先求优化函数对于w,b,ξˇi,ξ^iw,b,\check{\xi}_i,\hat{\xi}_iw,b,ξˇi,ξ^i的极小值,接着再求拉格朗日乘子α^i,αˇi,μ^i,μˇi\hat{\alpha}_i,\check{\alpha}_i,\hat{\mu}_i,\check{\mu}_iα^i,αˇi,μ^i,μˇi的极大值。
三、SVM回归模型目标函数求解
首先来求优化函数对于w,b,ξˇi,ξ^iw,b,\check{\xi}_i,\hat{\xi}_iw,b,ξˇi,ξ^i的极小值,这个可以通过对LLL求偏导数求得:
∂L∂w=0  ⟹  w=∑i=1m(α^i−αˇi)ϕ(xi)∂L∂b=0  ⟹  ∑i=1m(α^i−αˇi)=0∂L∂ξˇi=0  ⟹  C=αˇi+μˇi∂L∂ξ^i=0  ⟹  C=α^i+μ^i\frac{\partial L}{\partial w}=0\implies w=\sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)\phi(x_i)\\[1ex] \frac{\partial L}{\partial b}=0\implies\sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)=0\\[1ex] \frac{\partial L}{\partial \check{\xi}_i}=0\implies C=\check{\alpha}_i+\check{\mu}_i\\[1ex] \frac{\partial L}{\partial \hat{\xi}_i}=0\implies C=\hat{\alpha}_i+\hat{\mu}_i∂w∂L=0⟹w=i=1∑m(α^i−αˇi)ϕ(xi)∂b∂L=0⟹i=1∑m(α^i−αˇi)=0∂ξˇi∂L=0⟹C=αˇi+μˇi∂ξ^i∂L=0⟹C=α^i+μ^i
将上述4个式子带入L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i)L(w,b,\check{\xi}_i,\hat{\xi}_i,\check{\alpha}_i,\hat{\alpha}_i,\check{\mu}_i,\hat{\mu}_i)L(w,b,ξˇi,ξ^i,αˇi,α^i,μˇi,μ^i),消去w,b,ξˇi,ξ^iw,b,\check{\xi}_i,\hat{\xi}_iw,b,ξˇi,ξ^i。
max⎵αˇi,α^i∑i=1m(yi(α^i−αˇi)−ϵ(α^i+αˇi))−12∑i=1m∑j=1m(α^i−αˇi)(α^j−αˇj)κijs.t.∑i=1m(α^i−αˇi)=00<αiˇ<C(i=1,2,⋯ ,m)0<α^i<C(i=1,2,⋯ ,m)\underbrace{max}_{\check{\alpha}_i,\hat{\alpha}_i}\quad\sum_{i=1}^{m}(y_i(\hat{\alpha}_i-\check{\alpha}_i)-\epsilon(\hat{\alpha}_i+\check{\alpha}_i))-\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)(\hat{\alpha}_j-\check{\alpha}_j)\kappa_{ij}\\ s.t. \quad \sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)=0\\ 0<\check{\alpha_i}<C\quad(i=1,2,\cdots,m)\\ 0<\hat{\alpha}_i<C \quad(i=1,2,\cdots,m)αˇi,α^imaxi=1∑m(yi(α^i−αˇi)−ϵ(α^i+αˇi))−21i=1∑mj=1∑m(α^i−αˇi)(α^j−αˇj)κijs.t.i=1∑m(α^i−αˇi)=00<αiˇ<C(i=1,2,⋯,m)0<α^i<C(i=1,2,⋯,m)
对目标函数取负号,得到求极小值的目标函数如下:
min⎵α^i,αˇi12∑i=1m∑j=1m(α^i−αˇi)(α^j−αˇj)κij−∑i=1m(yi(α^i−αˇi)−ϵ(α^i+αˇi))s.t.∑i=1m(α^i−αˇi)=00<αiˇ<C(i=1,2,⋯ ,m)0<α^i<C(i=1,2,⋯ ,m)\underbrace{min}_{\hat{\alpha}_i,\check{\alpha}_i}\quad\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)(\hat{\alpha}_j-\check{\alpha}_j)\kappa_{ij}-\sum_{i=1}^{m}(y_i(\hat{\alpha}_i-\check{\alpha}_i)-\epsilon(\hat{\alpha}_i+\check{\alpha}_i))\\ s.t. \quad \sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)=0\\ 0<\check{\alpha_i}<C\quad(i=1,2,\cdots,m)\\ 0<\hat{\alpha}_i<C \quad(i=1,2,\cdots,m)α^i,αˇimin21i=1∑mj=1∑m(α^i−αˇi)(α^j−αˇj)κij−i=1∑m(yi(α^i−αˇi)−ϵ(α^i+αˇi))s.t.i=1∑m(α^i−αˇi)=00<αiˇ<C(i=1,2,⋯,m)0<α^i<C(i=1,2,⋯,m)
对于这个目标函数,依然可以用SMO算法来求出对应的αiˇ,αi^\check{\alpha_i},\hat{\alpha_i}αiˇ,αi^,进而求出回归模型系数w,bw,bw,b。
四、SVM回归模型系数的系数的稀疏性
上述过程需满足KKT条件,即要求:
{α^i(yi−w⋅ϕ(xi)−b−ϵ−ξ^i)=0αˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇi)=0αˇiα^i=0,ξˇiξ^i=0(C−αˇi)ξˇi=0,(C−α^i)ξ^i=0\begin{cases}\hat{\alpha}_i(y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i)=0\\ \check{\alpha}_i(x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i)=0\\ \check{\alpha}_i\hat{\alpha}_i=0,\quad\check{\xi}_i\hat{\xi}_i=0\\ (C-\check{\alpha}_i)\check{\xi}_i=0,\quad (C-\hat{\alpha}_i)\hat{\xi}_i=0 \end{cases}⎩⎪⎪⎪⎨⎪⎪⎪⎧α^i(yi−w⋅ϕ(xi)−b−ϵ−ξ^i)=0αˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇi)=0αˇiα^i=0,ξˇiξ^i=0(C−αˇi)ξˇi=0,(C−α^i)ξ^i=0
由KKT条件知:
- 当且仅当yi−w⋅ϕ(xi)−b−ϵ−ξ^i=0y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i=0yi−w⋅ϕ(xi)−b−ϵ−ξ^i=0时,α^i\hat{\alpha}_iα^i能取非零值;
- 当且仅当x⋅ϕ(xi)+b−yi−ϵ−ξˇi=0x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i=0x⋅ϕ(xi)+b−yi−ϵ−ξˇi=0时,αˇi\check{\alpha}_iαˇi能取非零值;
- 总结: 仅当样本(xi,yi)(x_i,y_i)(xi,yi)不落入ϵ−\epsilon-ϵ−间隔带中,相应的αˇi\check{\alpha}_iαˇi和α^i\hat{\alpha}_iα^i才能取非零值。
- 约束yi−w⋅ϕ(xi)−b−ϵ−ξ^i=0y_i-w\cdot\phi(x_i)-b-\epsilon-\hat{\xi}_i=0yi−w⋅ϕ(xi)−b−ϵ−ξ^i=0和x⋅ϕ(xi)+b−yi−ϵ−ξˇi=0x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i=0x⋅ϕ(xi)+b−yi−ϵ−ξˇi=0不能同时成立,因此αˇi\check{\alpha}_iαˇi和α^i\hat{\alpha}_iα^i中至少有一个为000。
- 落在ϵ−\epsilon-ϵ−间隔带中的样本都满足αˇi=0\check{\alpha}_i=0αˇi=0且α^i=0\hat{\alpha}_i=0α^i=0。
最终SVM线性回归的解形式如下:
f(x)=∑i=1m(α^i−αˇi)κ(x,xi)+bf(x)=\sum_{i=1}^{m}(\hat{\alpha}_i-\check{\alpha}_i)\kappa(x,x_i)+bf(x)=i=1∑m(α^i−αˇi)κ(x,xi)+b
其中κ(xi,xj)=ϕ(xi)Tϕ(xj)\kappa(x_i,x_j)=\phi(x_i)^T\phi(x_j)κ(xi,xj)=ϕ(xi)Tϕ(xj)为核函数。
能使f(x)f(x)f(x)中的(α^i−αˇi)(\hat{\alpha}_i-\check{\alpha}_i)(α^i−αˇi)不等于000的样本即为SVR的支持向量,它们必落在ϵ−\epsilon-ϵ−间隔带之外。 显然,SVR的支持向量仅是训练样本的一部分。
由KKT条件可以看出,对每个样本(xi,yi)(x_i,y_i)(xi,yi)都有: (C−αˇi)ξˇi=0(C-\check{\alpha}_i)\check{\xi}_i=0(C−αˇi)ξˇi=0且αˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇi)=0\check{\alpha}_i(x\cdot\phi(x_i)+b-y_i-\epsilon-\check{\xi}_i)=0αˇi(x⋅ϕ(xi)+b−yi−ϵ−ξˇi)=0。于是,在得到αˇi\check{\alpha}_iαˇi后,若0<αˇi<C0<\check{\alpha}_i<C0<αˇi<C,必有ξiˇ=0\check{\xi_i}=0ξiˇ=0,则x⋅ϕ(xi)+b−yi−ϵ=0x\cdot\phi(x_i)+b-y_i-\epsilon=0x⋅ϕ(xi)+b−yi−ϵ=0,进而有:
b=yi+ϵ−∑j=1m(α^j−αˇj)xjTxib=y_i+\epsilon-\sum_{j=1}^{m}(\hat{\alpha}_j-\check{\alpha}_j)x_j^Tx_ib=yi+ϵ−j=1∑m(α^j−αˇj)xjTxi
因此,通过SMO算法得到αˇi\check{\alpha}_iαˇi后,可任意选取满足0<αˇi<C0<\check{\alpha}_i<C0<αˇi<C的样本通过上式求得bbb。实践中常采用一种更鲁棒的办法:选取多个(或所有)满足条件0<αˇi<C0<\check{\alpha}_i<C0<αˇi<C的样本求解b后取平均值。
【参考文献】
- 刘建平 博客园:https://www.cnblogs.com/pinard/
- 周志华 《机器学习》
【机器学习系列】之支持向量回归SVR相关推荐
- 机器学习——支持向量回归(SVR)
机器学习--支持向量回归(SVR) educoder平台练习题 如果博客中图片加载失败可点击链接跳转至实训详情 https://www.educoder.net/shixuns/b6yi97f2/ch ...
- 机器学习西瓜书笔记:软间隔和支持向量回归SVR
1.首先由SVM问题(最大间隔超平面模型):所有样本都可以正确分类的最优化问题,引入软间隔SVM(允许分类错误)的最优化问题,即需要添加损失函数(样本不满足约束的程度,或者说分类错误的程度),然后最优 ...
- ❤️解决非线性回归问题的机器学习方法总结:多项式线性模型、广义线性(GAM)模型、回归树模型、支持向量回归(SVR)模型
文章目录 前言 多项式回归模型 概念解释: sklearn实现多项式回归模型: 广义线性可加(GAM)模型 概念解释: pygam实现广义线性可加模型: GAM模型的优点与不足: 回归树模型 概念解释 ...
- 【视频】支持向量机SVM、支持向量回归SVR和R语言网格搜索超参数优化实例
最近我们被客户要求撰写关于SVM的研究报告,包括一些图形和统计输出. 什么是支持向量机 (SVM)? 我们将从简单的理解 SVM 开始. [视频]支持向量机SVM.支持向量回归SVR和R语言网格搜索超 ...
- 基于DDTBOX,使用线性支持向量回归(SVR)从ERP数据中解码连续变量
导读 事件相关电位(ERP)数据的多变量分类分析是预测认知变量的强大工具.然而,分类通常仅限于分类变量,并未充分利用连续数据,如反应时间.反应力或主观评分.另一种方法是支持向量回归(SVR),它使用单 ...
- 使用最大离散重叠小波变换MODWT和支持向量回归 SVR的金融时间序列预测
本例使用的数据链接如下:https://www.histdata.com/download-free-forex-historical-data/?/ascii/tick-data-quotes/AU ...
- [翻译] 支持向量回归SVR的介绍
X. Introduction 本文先翻译一下: http://www.saedsayad.com/support_vector_machine_reg.htm Support Vector Mach ...
- python 最小二乘回归 高斯核_机器学习技法6-(支持向量回归)
一.核岭回归 线性分类模型加入了L2正则化以后,最佳解是w关于z的线性组合,因此带有L2正则化的线性分类模型能引入核函数,也就是把线性模型变成核函数的形式. 在线性回归模型中,损失函数为: 当给线性回 ...
- 【机器学习基础】支持向量回归
引言 这一小节介绍一下支持向量回归,我们在之前介绍的核逻辑回归使用表示定理(Representer Theorem),将逻辑回归编程Kernel的形式,这一节我们沿着这个思路出发,看看如何将回归问题和 ...
最新文章
- sqlalchemy(一)基本操作
- @Service注解的使用
- 计算机网络---物理层
- SpringBoot 缓存之 @Cacheable 详细介绍
- rffc2071_基于 RFFC2071的变频器设计
- storyboard搭建项目_swift项目第五天:swift中storyBoard Reference搭建主界面
- 第一个python解释器哪年问世_Python即Python解释器的发展史
- linux登录显示 Error in service module错误
- 像素类沙盒游戏还存有哪些致命伤?
- 直流电机单闭环调速matlab仿真,单闭环直流电机调速Simulink仿真.docx
- 安居客数据的爬取并保存到MySQL
- javaweb实现即时消息推送功能
- 免费混合虚拟化OVM数据中心解决方案
- 好用的 Puppeteer 辅助工具 Puppeteer Recorder
- 容联云通讯完成发送验证码
- Google Chrome 源码下载
- 最新大数据产业生态地图:十大爆发点,百大公司起底
- 解决专为旧版android打造
- 网络安全职业_我如何开始网络安全职业
- 如何在公司建立好一个较为完整的固定资产设备台账
热门文章
- 右键新建excel文档无法打开,提示“文件格式或扩展名无效”
- “大片”火了毁大片,“IP”火了毁IP,现在整个电影圈都在研究什么才是好剧本
- linux修图软件 知乎,推荐几款适合大学生用的电脑!
- ubuntu20.04开展华为手机adb安装及调试app运行出错闪退的步骤
- 循环语句中continue和break的使用
- CRM 导入数据失败,显示【ISV 代码已中止操作】
- 易观分析对《上海市促进人工智能产业发展条例》的解读
- 并发编程--利用sleep防止CPU空转
- 之江实验室提出:用于弱监督目标定位的再注意Transformer
- python猪肉价格预测_预测猪肉年底会涨到30元,用python分析:肉涨真正利好哪些股?...