SVM 支持向量机算法(Support Vector Machine )【Python机器学习系列(十四)】

文章目录

  • 1.SVM简介
  • 2. SVM 逻辑推导
    • 2.1 Part1 化简限制条件
    • 2.2 Part2 SVM拉格朗日乘子法求解
    • 2.3 Part3 求解超平面
  • 3.核函数
  • 4. 软间隔支持向量机
  • 5. 支持向量回归 SVR
  • 6.python实现支持向量机
    • 6.1 方法详解
    • 6.2 案例展示

      ʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞ
                 
    ʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞʚʕ̯•͡˔•̯᷅ʔɞ


大家好,我是侯小啾!

今天分享的内容是支持向量机算法的逻辑,及其python实现。


1.SVM简介

在深度学习出现之前,支持向量机 被称为表现最好的算法。支持向量机算法适用于一些复杂数据的分类。现在更多用的是深度学习,深度学习的效果大于SVM。但是SVM作为经典算法,还是十分重要,是学习机器学习过程的必修内容。

SVM具有两个特点:1.适合小样本。2.数学逻辑优美。

支持向量机算法分为线性可分的支持向量机非线性可分的支持向量机

线性可分样本集:只要我们可以用一条直线可以把样本集的两类完全分开,就可以将其称为线性可分样本集。反之,称为非线性可分样本集。

支持向量机的超平面具有唯一性。可以分割样本数据的线(或超平面)存在有无数条,但是只有一条是最好的。找到这条线(或超平面),是支持向量机算法要做的。

SVM算法的目标即为:找到使分类间隔最小距离d 最大的超平面。


2. SVM 逻辑推导

2.1 Part1 化简限制条件

给定样本数据集,假设样本特征为X,样本标签为y。
每个样本的特征值可以展示为:x1x_1x1​,x2x_2x2​,x3x_3x3​,…xnx_nxn​。y 的取值只能有+1和-1.

欲将这些样本分为二类,则需要找到中间的超平面。该超平面表示为:

         ωTx+b=0\omega^Tx + b = 0ωTx+b=0

其中 ω\omegaω 称为法向量,其决定了超平面的方向。

点到超平面的距离可以表示为
         ri=∣ωTxi+b∣∣∣ω∣∣r_i = \frac{|\omega^Tx_i + b |}{||\omega||}ri​=∣∣ω∣∣∣ωTxi​+b∣​

这里的xix_ixi​指的不再是超平面上的点,而是样本点的向量。

以二维的情况中点与线的关系为例进行说明,假设有一个点 点A(m,n) 和一条线ax+by+c=0,则当点在线上时,直线的等号会刚好成立。当点分布于直线的两侧时,分别可写作am+bn+c>0,am+bn+c<0。多维情况下,也是同理。

再结合点到超平面的距离公式,rir_iri​也可以写为:

         ri=ωTxi+b∣∣ω∣∣yir_i =\frac{\omega^Tx_i + b}{||\omega||}y_iri​=∣∣ω∣∣ωTxi​+b​yi​

其中,位于超平面 ωTxi+b=0\omega^Tx_i + b = 0ωTxi​+b=0 左右的标签对应的y_i的正负不要设定反了,只有设定正确该公式才可以保证得到正值。不然的话保证得到的就会是负值。

然后就是要寻找 支持向量。支持向量是距离超平面最近的点的向量,分布在超平面的两边,所以这样的点至少有两个,即支持向量至少有两个。(至少左右各一个)。

我们下一步要做的,即:求rir_iri​关于xix_ixi​的极小值,再求该极小值关于ω\omegaω和bbb的极大值。

对该距离公式的分子, ωTxi+b\omega^Tx_i + bωTxi​+b,即超平面的方程 ωTx+b=0\omega^Tx + b = 0ωTx+b=0 的一部分,考虑到超平立面的方程,就像二维的直线方程一样是可以放缩的(登号两边同乘以一个数),因此可以通过放缩,使得 ωTxi+b=1\omega^Tx_i + b =1ωTxi​+b=1成立。以此作为限制条件,这样就可以把分母消去了。

该约束条件可表示为
         ri=ωTxi+b∣∣ω∣∣yi≥1∣∣ω∣∣r_i =\frac{\omega^Tx_i + b}{||\omega||}y_i≥\frac{1}{||\omega||}ri​=∣∣ω∣∣ωTxi​+b​yi​≥∣∣ω∣∣1​

提示:这里的限制条件只用了一个表达式表示,实际上有m个(m也是样本点的个数)。每个样本点对应一个限制条件。
当且仅目标当样本xix_ixi​为支持向量时,等号成立,取得点到超平面的最小距离1∣∣ω∣∣\frac{1}{||\omega||}∣∣ω∣∣1​。

目标函数,即点到超平面的最小距离1∣∣ω∣∣\frac{1}{||\omega||}∣∣ω∣∣1​。要使该最小距离最大化,即∣∣ω∣∣||\omega||∣∣ω∣∣最小,为了后边计算方便,进一步将研究问题及表达式转化为,求12∣∣ω∣∣2\frac{1}{2}||\omega||^221​∣∣ω∣∣2关于ω\omegaω和bbb的最小值。
目标函数即:

          minω,b12∣∣ω∣∣2min_{\omega,b}\frac{1}{2}||\omega||^2minω,b​21​∣∣ω∣∣2

进一步,限制条件可再转化为:
         (ωTxi+b)yi−1≥0(\omega^Tx_i + b)y_i-1 ≥ 0(ωTxi​+b)yi​−1≥0


2.2 Part2 SVM拉格朗日乘子法求解

现在我们已经得到了目标函数表达式与限制条件的表达式,可以使用拉格朗日乘子法对其进行求解。
构建拉格朗日函数表达式如下:

    L(ω,b,λ)=12∣∣ω∣∣2+∑i=1mλi[1−(ωTxi+b)yi]L(\omega,b,\lambda)=\frac{1}{2}||\omega||^2+\sum_{i=1}^{m}{\lambda_i}{[1-(\omega^Tx_i+b)y_i]}L(ω,b,λ)=21​∣∣ω∣∣2+∑i=1m​λi​[1−(ωTxi​+b)yi​]

        =12ωTω+∑i=1mλi[1−(ωTxi+b)yi]=\frac{1}{2}\omega^T \omega+\sum_{i=1}^{m}{\lambda_i}{[1-(\omega^Tx_i+b)y_i]}=21​ωTω+∑i=1m​λi​[1−(ωTxi​+b)yi​]

目标问题是一个凸二次规划问题:目标函数是二次型函数,且约束函数是仿射函数。所以该问题有全局最小值。

其中,λ\lambdaλ是拉格朗日乘子,这里的m是样本的个数,每个样本对应一个拉格朗日算子,共计m个拉格朗日算子,对应m个限制条件。

对F(ω,b,λ)对F(\omega,b,\lambda)对F(ω,b,λ)求关于ω\omegaω 和 bbb的偏导,并令其为0,再求解:

    ∂L(ω,b,λ)∂ω=ω−∑i=1mλiyixi=0\frac{∂L(\omega,b,\lambda)}{∂\omega}=\omega-\sum_{i=1}^{m}\lambda_iy_ix_i=0∂ω∂L(ω,b,λ)​=ω−∑i=1m​λi​yi​xi​=0

    ∂L(ω,b,λ)∂b=−∑i=1mλiyi=0\frac{∂L(\omega,b,\lambda)}{∂b}=-\sum_{i=1}^{m}\lambda_iy_i=0∂b∂L(ω,b,λ)​=−∑i=1m​λi​yi​=0

解得

         ω=∑i=1mλiyixi\omega=\sum_{i=1}^{m}\lambda_iy_ix_iω=∑i=1m​λi​yi​xi​

         0=∑i=1mλiyi0=\sum_{i=1}^{m}\lambda_iy_i0=∑i=1m​λi​yi​

将求解结果带回原L(ω,b,λ)L(\omega,b,\lambda)L(ω,b,λ),并进一步化简得:

    L(ω,b,λ)=12ωTω+∑i=1mλi−ωT∑i=1mλiyixi−b∑i=1mλiyiL(\omega,b,\lambda)=\frac{1}{2}\omega^T \omega+\sum_{i=1}^{m}\lambda_i -\omega^T\sum_{i=1}^{m}\lambda_iy_ix_i-b\sum_{i=1}^{m}\lambda_iy_iL(ω,b,λ)=21​ωTω+∑i=1m​λi​−ωT∑i=1m​λi​yi​xi​−b∑i=1m​λi​yi​

         =∑i=1mλi−12ωTω=\sum_{i=1}^{m}\lambda_i-\frac{1}{2}\omega^T\omega=∑i=1m​λi​−21​ωTω

         =∑i=1mλi−12(∑i=1mλiyixi)T(∑i=1mλiyixi)=\sum_{i=1}^{m}\lambda_i - \frac{1}{2}( \sum_{i=1}^{m}\lambda_iy_ix_i)^T (\sum_{i=1}^{m}\lambda_iy_ix_i)=∑i=1m​λi​−21​(∑i=1m​λi​yi​xi​)T(∑i=1m​λi​yi​xi​)

         =∑i=1mλi−12∑i=1m∑j=1mλiλjyiyjxiTxj=\sum_{i=1}^{m}\lambda_i-\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\lambda_i\lambda_jy_iy_jx_i^Tx_j=∑i=1m​λi​−21​∑i=1m​∑j=1m​λi​λj​yi​yj​xiT​xj​

上边已经说到,将这两个表达式带入L(ω,b,λ)L(\omega,b,\lambda)L(ω,b,λ)后,我们得到的新的表达式中已经没有了ω\omegaω和bbb,只剩下的参数为λ\lambdaλ,这个新表达式的限制条件即为我们带入的两个式子,这两个式子表示该表达式关于ω\omegaω和bbb的极小值。

进而求关于λ\lambdaλ的极值,到此要求解的函数已经转化为:

         ∑i=1mλi−12∑i=1m∑j=1mλiλjyiyjxiTxj\sum_{i=1}^{m}\lambda_i-\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\lambda_i\lambda_jy_iy_jx_i^Tx_j∑i=1m​λi​−21​∑i=1m​∑j=1m​λi​λj​yi​yj​xiT​xj​

要求解的是该式关于λ\lambdaλ的极大值,所以也即求解

         12∑i=1m∑j=1mλiλjyiyjxiTxj−∑i=1mλi\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\lambda_i\lambda_jy_iy_jx_i^Tx_j-\sum_{i=1}^{m}\lambda_i21​∑i=1m​∑j=1m​λi​λj​yi​yj​xiT​xj​−∑i=1m​λi​

的极小值。

限制条件为:
       s.t.s.t.s.t.  ∑i=1mλiyi=0\sum_{i=1}^{m}\lambda_iy_i=0∑i=1m​λi​yi​=0
           λi≥0\lambda_i≥0λi​≥0, i=1,2,…,m


2.3 Part3 求解超平面

目标函数:
         minω,bmin_{\omega,b}minω,b​ 12∑i=1m∑j=1mλiλjyiyjxiTxj−∑i=1mλi\frac{1}{2}\sum_{i=1}^{m}\sum_{j=1}^{m}\lambda_i\lambda_jy_iy_jx_i^Tx_j-\sum_{i=1}^{m}\lambda_i21​∑i=1m​∑j=1m​λi​λj​yi​yj​xiT​xj​−∑i=1m​λi​

限制条件:
       s.t.s.t.s.t.  ∑i=1mλiyi=0\sum_{i=1}^{m}\lambda_iy_i=0∑i=1m​λi​yi​=0
           λi≥0\lambda_i≥0λi​≥0, i=1,2,…,m

然后接下来,不难发现这是一个二次规划问题,将每个样本点的xix_ixi​、yiy_iyi​替换为样本值数字,然后求目标函数关于λ1\lambda_1λ1​,λ2\lambda_2λ2​,… ,λn\lambda_nλn​的偏导数,并令其等于0,从而得到m个等式,联立这 m 个等式,以及∑i=1mλiyi=0\sum_{i=1}^{m}\lambda_iy_i=0∑i=1m​λi​yi​=0进行求解。理论上即可以求出λ1\lambda_1λ1​,λ2\lambda_2λ2​,… ,λn\lambda_nλn​的值。

再将这些值代入表达式 ω∗=∑i=1mλiyixi\omega^*=\sum_{i=1}^{m}\lambda_iy_ix_iω∗=∑i=1m​λi​yi​xi​ 即可求解出 ω∗\omega^*ω∗。(ω1\omega_1ω1​, ω2\omega_2ω2​, … , ωn\omega_nωn​)

再由公式
          b∗=y−∑i=1mλiyixiTxib^* =y-\sum_{i=1}^{m}\lambda_iy_ix_i^Tx_ib∗=y−∑i=1m​λi​yi​xiT​xi​

代入支持向量,即可求得参数b的值。这是一种解方程的思路。但是这种方法过于繁琐,只是理论上可行。
在解决这个问题方面,先辈们提出了很多高效的算法,比如SMO算法(Sequential Minimal Optimization)。
使用梯度下降法,也可以如愿求得超平面的方程。

最后,根据下式(符号函数sgn)即可对样本数据进行分类:

          f(x)=sgn(ω∗Tx+b∗)f(x)=sgn(\omega^{*T}x+b^*)f(x)=sgn(ω∗Tx+b∗)


3.核函数

到此我们已经完整地实现了线性可分的支持向量机。但是现实中目标数据未必一直是线性可分的。面对这样的情况,我们可以使用 核函数 对原始目标数据进行“升维”操作。
如果原始数据是有限维的,那么一定会存在一个更高维的特征空间使得样本线性可分。
用ϕ(x)\phi(x)ϕ(x)表示xxx经过映射后的特征向量,则核函数可以表示为

         k(xi,xj)=<ϕ(xi),ϕ(xj)>=ϕ(xi)Tϕ(xj)k(x_i,x_j)=<\phi(x_i),\phi(x_j)>=\phi(x_i)^T\phi(x_j)k(xi​,xj​)=<ϕ(xi​),ϕ(xj​)>=ϕ(xi​)Tϕ(xj​)

核函数的具体形式我们通常是不知道的。
但是 核函数定理表明,只要一个对称函数(k(xi,xi)k(x_i,x_i)k(xi​,xi​))对应的核矩阵半正定,它就能作为核函数使用。

几种常用的核函数如下:

核函数 描述 参数
线性核 k(xi,xj)=xiTxjk(x_i,x_j)=x_i^Tx_jk(xi​,xj​)=xiT​xj​
多项式核 k(xi,xj)=(xiTxj)dk(x_i,x_j)=(x_i^Tx_j)^dk(xi​,xj​)=(xiT​xj​)d d≥1d≥1d≥1,表示多项式的次数
高斯核 k(xi,xj)=exp(−∣∣xi−xj∣∣22σ2)k(x_i,x_j)=exp(-\frac{||x_i-x_j||^2}{2\sigma^2})k(xi​,xj​)=exp(−2σ2∣∣xi​−xj​∣∣2​) σ>0\sigma>0σ>0,为高斯核的带宽(width)
拉普拉斯核 k(xi,xj)=exp(−∣∣xi−xj∣∣σ)k(x_i,x_j)=exp(-\frac{||x_i-x_j||}{\sigma})k(xi​,xj​)=exp(−σ∣∣xi​−xj​∣∣​) σ>0\sigma>0σ>0
Sigmoid核 k(xi,xj)=tanh(βxiT+θ)k(x_i,x_j)=tanh(\beta x_i^T+\theta)k(xi​,xj​)=tanh(βxiT​+θ) tanh是双曲正切函数,β>0,θ<0\beta>0,\theta<0β>0,θ<0

其中,高斯核函数,也称径向基函数(Radial Basis Function 简称RBF)。

此外,核函数也可以通过多个核函数与正数的线性组合得到,如 ak1+bk2ak_1+bk_2ak1​+bk2​;
也可以通过两个核函数的直积得到:k1(x,z)k2(x,z)k_1(x,z)k_2(x,z)k1​(x,z)k2​(x,z);
也可以通过任意函数g(x)得到:g(x)k1(x,z)g(z)g(x)k1(x,z)g(z)g(x)k1(x,z)g(z)。


4. 软间隔支持向量机

线性可分支持向量机中的约束条件要求所有的样本都必须划分正确,这个间隔称为“硬间隔”。这也导致线性可分的支持向量机可能带来过拟合的问题,为了缓解这个问题,可以通过使用 软间隔 来允许支持向量机在对少数样本分类时出错。
于是,经过优化的目标函数可以写为:

  minω,bmin_{\omega,b}minω,b​ 12∣∣ω∣∣2+C∑i=1mφ0/1(yi(ωTxi+b)−1)\frac{1}{2}||\omega||^2+C\sum_{i=1}^{m}\varphi_{0/1}(y_i(\omega^Tx_i+b)-1)21​∣∣ω∣∣2+C∑i=1m​φ0/1​(yi​(ωTxi​+b)−1)

其中,C>0,C是一个常数。C越大,则分类的准确性就会越高,但是会因为过拟合导致,泛化能力会变差
C越小则分类的准确性会越低。

φ0/1\varphi_{0/1}φ0/1​是损失函数:

φ0/1(z)={1,ifz<0;0,otherwise\varphi_{0/1}(z)=\left\{ \begin{aligned} 1 &,& if\quad z<0; \\ 0&,&otherwise \end{aligned} \right. φ0/1​(z)={10​,,​ifz<0;otherwise​

然而这个损失函数的性质不太好导致后续不易求解,所以可以使用“替代损失”函数,
三种常用的替代损失函数如下:

hinge损失:φhinge(z)=max(0,1−z)\varphi_{hinge}(z)=max(0,1-z)φhinge​(z)=max(0,1−z)

指数损失φexponentialloss=exp(−z)\varphi_{exponential loss}=exp(-z)φexponentialloss​=exp(−z)

对率损失φlogisticloss=log(1+exp(−z))\varphi_{logistic loss}=log(1+exp(-z))φlogisticloss​=log(1+exp(−z))


5. 支持向量回归 SVR

线性可分的支持向量机SVM通过求解出的超平面对数据进行分类,因此该算法不仅仅可以分类,也可以稍作迁移,当作回归算法来使用。求解超平面的过程,也即求解回归方程的过程,该过程被称为支持向量回归(SVR)。

显然,支持向量回归不同于传统的回归过程,传统的回归过程会计算所有回归值与真实值之间的损失,但是SVR则会假设一个ϵ\epsilonϵ作为一个偏差值,只有当真实值与回归值的差别绝对值大于ϵ\epsilonϵ时,才会计算损失。(即形成了一条“隔离带”,在隔离带外的点才计算损失)


6.python实现支持向量机

6.1 方法详解

sklearn.svm中提供了SVC, SVR,LinearSVC, LinearSVR, NuSVC, NuSVR, OneClassSVM, l1_min_c一系列类。

其中,SVC和SVR分别对应着通用的 支持向量机支持向量回归,可以通过改变其参数来灵活应用。默认使用高斯核函数(即默认参数 kernel=“rbf”)。参数C即正则化常数,默认为1且大于0,正则化的程度与C成反比,C越大,则算法区域迫使所有样本满足约束,以至于可能导致过拟合;C取有限制时则会允许一些样本不满足约束。

其中,使用核函数时,参数kernel可用的值汇总如下:

参数值 描述
‘rbf’ 高斯核函数,也称径向基函数,是默认值
‘linear’ 线性核函数
‘poly’ 多项式核函数
‘sigmoid’ Sigmoid核函数
‘precomputed’ 自定义核

LinearSVC, LinearSVR即为线性支持向量机,和线性支持向量回归,相当于是指定使用线性核的SVC和SVR。所以没有kernel参数,不能指定核函数。

NuSVC支持向量机,NuSVR支持向量回归,与SCV和SCR不同的是,NuSVC支持向量机和NuSVR支持向量回归没有参数C,但是有一个nu参数。
参数nu代表训练集训练的错误率的上限,或者说是支持向量的百分比下限,取值范围为(0,1],默认为0.5.它和惩罚系数C类似,都可以控制惩罚的力度。nu可以理解为是C的再参数化,在数学上是等效的。
此外,其默认也是使用rbf核函数(高斯核函数)。

类OneClassSVM实现了一个用于离群点检测的类;l1_min_c是用于计算C的下界,以便获得非“空”(所有特征权重为零)模型的。这里在这方面不做过多深入。


6.2 案例展示

使用支持向量机对葡萄酒数据进行分类为例,过程中使用线性核函数,且指定正则化常数C为2(默认为1)。算法的逻辑虽然有些复杂,但是代码非常简单。

from sklearn.svm import SVC
from sklearn.datasets import load_wine
from sklearn.model_selection import train_test_splitwine = load_wine()
x_data = wine.data
y_data = wine.targetx_train, x_test, y_train, y_test = train_test_split(x_data, y_data, random_state=1)
model = SVC(C=2, kernel='linear')
model.fit(x_train, y_train)test_score = model.score(x_test,y_test)
pred = model.predict(x_test)print('模型得分:{:.3f}'.format(model.score(x_test, y_test)))
print(pred)

模型得分与预测结果如下图所示:
     

本次分享就到这里,小啾感谢您的关注与支持!

SVM 支持向量机算法(Support Vector Machine )【Python机器学习系列(十四)】相关推荐

  1. 【机器学习算法】支持向量机(support Vector Machine,SVM)

    目录 支持向量机 支持向量机概述 线性可分及线性不可分的问题 线性可分的支持向量机 线性不可分的支持向量机 支持向量机与神经网络之间的关系 处理两类以上的分类问题. 我的主页:晴天qt01的博客_CS ...

  2. Ex6_机器学习_吴恩达课程作业(Python):SVM支持向量机(Support Vector Machines)

    Ex6_机器学习_吴恩达课程作业(Python):SVM支持向量机(Support Vector Machines) 文章目录 Ex6_机器学习_吴恩达课程作业(Python):SVM支持向量机(Su ...

  3. Task02——支持向量机(Support Vector Machine,SVM)

    支持向量机(Support Vector Machine,SVM) 本系列是2022年12月DataWhale组队学习中sklearn机器学习实战中的第二个学习任务--SVM,开源的在线学习地址 ,下 ...

  4. 详解支持向量机(Support Vector Machine, SVM)

    接触支持向量机(Support Vector Machine, SVM)有很长一段时间了,对它的原理一直懵懵懂懂.有幸在国科大听了兰艳艳老师的课,对SVM有了更加深入的认识,决定写成笔记记录下来,当作 ...

  5. 支持向量机(Support Vector Machine)原理总结(二)

    上篇我们探讨了线性支持向量机和线性可分支持向量机的原理,它们在线性可分的数据表现很好,但是没办法对线性不可分的数据进行分类.那么有没有一些技巧,让支持向量机也能处理线性不可分的数据呢?本篇我们将探讨核 ...

  6. 李宏毅svm_【李宏毅机器学习笔记】 18、支持向量机(Support Vector Machine,SVM)...

    [李宏毅机器学习笔记]1.回归问题(Regression) [李宏毅机器学习笔记]2.error产生自哪里? [李宏毅机器学习笔记]3.gradient descent [李宏毅机器学习笔记]4.Cl ...

  7. PRML读书会第七章 Sparse Kernel Machines(支持向量机, support vector machine ,KKT条件,RVM)...

    主讲人 网神 (新浪微博: @豆角茄子麻酱凉面) 网神(66707180) 18:59:22  大家好,今天一起交流下PRML第7章.第六章核函数里提到,有一类机器学习算法,不是对参数做点估计或求其分 ...

  8. 支持向量机(Support Vector Machine, SVM)基础知识

    这篇文章仅介绍支持向量机的基础知识,不涉及特别复杂的求解.不清楚基础知识的小伙伴可以看一下这篇文章. 首先呢,支持向量机解决的是将数据点分成两类的问题.本文只考虑线性分类器.对于二维的数据而言,就是要 ...

  9. 【Python学习系列十四】IPython命令行式交互界面工具Jupyter

    好的IDE对提高编码质量很有帮助,Jupyter Notebook的即编即视效果很有利于调试. IPython 是 Python 的原生交互式 shell 的增强版,可以完成许多不同寻常的任务,比如帮 ...

  10. 机器学习实战(五)支持向量机SVM(Support Vector Machine)

    目录 0. 前言 1. 寻找最大间隔 2. 拉格朗日乘子法和KKT条件 3. 松弛变量 4. 带松弛变量的拉格朗日乘子法和KKT条件 5. 序列最小优化SMO(Sequential Minimal O ...

最新文章

  1. springcloud-spring cloud config统一配置中心
  2. M-point moving-average(M点滑动平均)Matlab 实现
  3. button theme
  4. java是如何实现原语的_Java中的低GC:使用原语而不是包装器
  5. Almost Arithmetic Progression
  6. Go工程化 - 手摸手带你理解依赖注入
  7. HashTable Dictionary HashMap
  8. 移动端WEB前端开发最佳实践
  9. 诺基亚、罗永浩,中国手机2014八大关键词
  10. 满足国六标准通用型故障诊断仪:Q-OBD
  11. 【Java】线程池、Lambda表达式
  12. 既然心动,那就赶快行动吧!
  13. 人脸对齐算法常用评价标准总结
  14. My sql 统计一个字段某种类型的总数(非group by)
  15. dvwa之 file upload (low)一句话木马和中国菜刀
  16. Could not find a package; ld returned 1 exit status;error while loading shared libraries
  17. 解决IDEA占用C盘空间过大的问题
  18. 交易猫 转转 闲鱼后台源码
  19. 三菱FX3U与2台台达温控器modbus通讯案例 功能:三菱FX3U与2台台达温控器进行modbus通讯
  20. shell 阶乘,shell运算

热门文章

  1. DWG and DGN file viewer
  2. 私人记账本程序cashbook
  3. 《CLR via C#》设计类型.接口
  4. 原神|2023-荒泷极意堂堂斗虫大试合
  5. 老赖的未来生活,竟然是这样!
  6. 10种 排序算法 稳定性,复杂度的分析
  7. jquery.orgchart.js
  8. python for循环求和_pythonfor循环语句求和
  9. 2022年都快结束了,Java的这些新技术、热门技术,你不会还不知道吧?
  10. Java开发常用软件下载地址合集