周志华机器学习(6):支持向量机

  • 6 支持向量机
    • 6.1 间隔与支持向量
    • 6.2 对偶问题(dual problem)
    • 6.3 核函数
    • 6.4 软间隔与正则化

基本是大段摘录西瓜书加上一些自己的解释补充,去除了冗余的话。

6 支持向量机

6.1 间隔与支持向量

给定训练样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } D=\{(\boldsymbol x_1,y_1),(\boldsymbol x_2,y_2),\cdots,(\boldsymbol x_m,y_m)\} D={(x1​,y1​),(x2​,y2​),⋯,(xm​,ym​)}, y ∈ { − 1 , + 1 } y\in\{-1,+1\} y∈{−1,+1}, 分类学习最基本的想法就是基于训练集D在样本空间中找到一个划分超平面,将不同类别的样本分开。但能将训练样本分开的划分超平面可能有很多,所以应该努力去找划分结果最鲁棒的那个平面,也就是图6.1中中间那条加粗的。

这张图中,两个轴 x 1 x_1 x1​、 x 2 x_2 x2​ 是 x \boldsymbol x x 的属性,这里假定有两个属性。其实应该加上垂直于纸面表示标记的y轴,在这里,从y轴垂直往下看,y轴被压缩成了一个点。划分超平面公式:


如图6.2所示,距离超平面最近的这几个训练样本点使式(6.3)的等号成立,它们被称为“支持向量”(support vector),两个异类支持向量到超平面的距离之和为:

这个约束就是式(6.3)的变种。式(6.5)可以重写为:

6.2 对偶问题(dual problem)

拉格朗日:通过拉格朗日的办法重新定义一个无约束问题这个无约束问题等价于原来的约束优化问题,从而将约束问题无约束化。
如果原始问题求解棘手,在满足KKT的条件下用求解对偶问题来代替求解原始问题,使得问题求解更加容易。
对偶问题的上界在KKT条件下等于原始问题的下界,因为原问题求解太复杂,就可以在满足KKT条件下求解对偶问题。
拉格朗日对偶问题(Lagrange duality)

希望求解式(6.6),用拉格朗日乘子法得到其对偶问题,就是对每一个约束都添加拉格朗日乘子 α i ≥ 0 \alpha_i\geq 0 αi​≥0,则拉格朗日函数为:

如何求解式(6.11)?——SMO(Sequential Minimal Optimization)

6.3 核函数

现实任务中,原始样本空间内也许并不存在一个能正确划分两类样本的超平面。
可将样本从原始空间映射到一个更高维的特征空间,使其在更高维特征空间内线性可分。
如果原始空间是有限维,即属性数有限,那么一定存在一个高维特征空间使样本可分。

在特征空间划分超平面对应的模型:



式(6.24)显示出模型最优解可通过训练样本的核函数展开,这一展式亦称“支持向量展式”(supportvector expansion). .

显然,若已知映射 ϕ ( ⋅ ) \phi(\cdot) ϕ(⋅)的具体形式,则可写出核函数 κ ( ⋅ , ⋅ ) \kappa(\cdot,\cdot) κ(⋅,⋅)。
但在现实任务中我们通常不知道 ϕ ( ⋅ ) \phi(\cdot) ϕ(⋅)是什么形式,是否存在合适的核函数?什么样的函数能做核函数?定理如下:

核函数选择是SVM的最大变数,几种常用的核函数:

核函数还可以通过核函数的线性组合、直积、对核函数进行函数操作来得到。

6.4 软间隔与正则化

软间隔(soft margin):现实任务中很难有合适的核函数使得训练样本在特征空间中线性可分,即使有,也可能是过拟合。

上图中(6.3)的约束被写为一个不等式,即为式(6.28)




还可以把式(6.29)中的0/1损失函数换成别的替代损失函数以得到其他学习模型,这些模型的性质与所用的替代函数直接相关:

周志华机器学习(6):支持向量机相关推荐

  1. 【周志华机器学习】支持向量机

    第六章 支持向量机 间隔与支持向量 对偶问题 核函数 软间隔与正则化 支持向量回归 间隔与支持向量 分类学习最基本的想法就是基于训练集在样本空间中找到一个划分超平面,将不同类别的样本分开.但能将训练样 ...

  2. 周志华机器学习-支持向量机

    周志华机器学习-支持向量机 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 – 文章目录 周 ...

  3. 周志华机器学习--绪论

    周志华机器学习–绪论 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周志华机器学 ...

  4. 周志华机器学习(西瓜书)学习笔记(持续更新)

    <周志华机器学习>笔记 第1章 绪论 1.1 引言 1.2 基本术语 1.3 假设空间 1.4 归纳偏好 1.5 发展历程 1.6 应用现状 第2章 模型评估与选择 2.1 经验误差与过拟 ...

  5. 周志华机器学习--模型评估与选择

    周志华机器学习–模型评估与选择 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周 ...

  6. 周志华机器学习-决策树

    周志华机器学习-决策树 第一章 绪论 第二章 模型评估与选择 第三章 线性模型 第四章 决策树 第五章 支持向量机 第六章 神经网络 第七章 贝叶斯分类器 第八章 集成学习和聚类 文章目录 周志华机器 ...

  7. 周志华-机器学习西瓜书-第三章习题3.3 编程实现对率回归

    本文为周志华机器学习西瓜书第三章课后习题3.3答案,编程实现对率回归,数据集为书本第89页的数据 使用tensorflow实现过程 # coding=utf-8 import tensorflow a ...

  8. 【读书笔记】周志华 机器学习 第二章 模型评估和选择

    第二章 模型评估和选择 1 欠拟合和过拟合 偏差和方差 1.1 欠拟合和过拟合 1.2 偏差和方差 2 评估方法 性能度量 2.1 评估方法 2.1.1 留出法 2.2.2 交叉验证法 2.2.3 自 ...

  9. 【周志华机器学习】六、支持向量机

    文章目录 参考资料 前言:一个关于SVM的童话故事 1. 基本概念 1.1 函数间隔与几何间隔 1.1.1 函数间隔 1.1.2 几何间隔 1.2 最大间隔与支持向量 1.3 从原始优化问题到对偶问题 ...

最新文章

  1. 11g废弃的Hint - BYPASS_UJVC
  2. Netty框架整体架构及源码知识点
  3. 如何将 SAP UI5 应用托管到 Github 网站上并运行
  4. a*算法的时间复杂度_数据结构(1)——算法和时间复杂度
  5. 手把手教你学习ROR-6.Rooter的配置
  6. 处理 git 合并冲突
  7. 自动阅读行业又出新招?离线阅读脚本套路满满
  8. 如何用银灿IS903主控DIY自己的U盘?(练习BGA焊接的好项目)
  9. 菠萝派php示例,简易菠萝派 - 美食杰 - 美食,菜谱 - 中国最全的家常菜谱美食网...
  10. 计算机显示器闪烁,电脑显示器闪屏怎么办 显示器闪屏原因【解决方法】
  11. 读书百客:《月夜》鉴赏
  12. 税务计算机违规外联整改报告,县地税局开展税务业务专网及其终端“违规外联”检查...
  13. ajax中怎样获取下拉列表,如何从Ajax/Jquery的下拉列表中获取复选框中的数据
  14. 《魔兽世界插件》教程—21点扑克游戏 Blackjack
  15. KEIL 提示L6406E L6407E的解决方法
  16. java多线程之Executors
  17. ionic开发——获取手机唯一标识imei码
  18. 用Python实现与智能机器人对话
  19. python随机生成0-1之间的小数
  20. 微信扫描二维码调用手机默认浏览器打开APP(APK)应用链接下载

热门文章

  1. 艾美捷人重组MEGACD40L蛋白(可溶性)实例展示
  2. python读取csv求平均数_python列表切片读取csv数据计算导购客单价.py
  3. 首批5G手机概念热炒,但你真的敢用?
  4. python 利用递归算法来完成计算乘阶、斐波那契数列、汉诺塔
  5. android studio couldn‘t find so
  6. 再来学习一下“八荣八耻”
  7. 麒麟820鸿蒙,华为最强千元机:绝版麒麟820+首升鸿蒙2.0+完美全屏!
  8. redis实现setnx,setex连用实现分布式锁
  9. Linux下关于snmp的snmpwalk命令
  10. RunC漏洞导致容器逃逸(CVE-2021-30465)