原文:

http://blog.csdn.net/ikerpeng/article/details/40147733

在机器学习或者是模式识别当中有一种重要的分类器叫做:SVM 。这个被广泛的应用于各个领域。但是其计算的复杂度以及训练的速度是制约其在实时的计算机应用的主要原因。因此也很很多的算法被提出来,如SMO,Kernel的方法。

但是这里要提到的 Regularized least-squares classification 是一个和他有着同样的效果的分类器。比较而言计算却比较的简单(We see that a Regularized Least-Squares Classification problem can be solved by solving a single system of linear
equations.)。接下来将对其进行介绍。

首先我们知道最终要求得的结果是: f(x)= <W, x> +b

策略函数:

我们还是要来看一下他的策略:结构风险最小化Function。

通过使用kernel的方法将x 投影到希尔伯特空间(只需要隐式的表示)得到的结果是:

( 这里的alpha就是下面的c啦!)

带入到目标函数以及简化,我们得到最终要求的函数 f*(x):

这就是最终要求的结果。后面额的核函数我们可以采用一些常用的核函数处理掉(比如说:高斯核(Gaussian Kernel)等)。那如何来解决ci勒?

如何解c:

大家都知道在SVM当中采用的是合页损失函数(hinge loss Function)。但是很显然这里是平方损失函数:

同时我们对于上面的f*(x)带入到最开始的策略函数当中:

于是我们再来通过求导,令导数等于0,解出这个方程:

有没有发现异常的简单啊!

这里要注意的是: K 是一个n*n的方阵,对于训练来讲,没两个样本(投影到高维空间后)都要做内积才能够得到K。

但其实作者也说了,可以通过一个线性的问题来解决并不意味着它的时间复杂度和空间复杂度就小了:训练一个Kernel的时间还是需要很长的。同时也需要较大的空间来存储下这样的核:K。但是仍旧是可以通过一些的方法来明显的提高它的性能的。

结果的比较:

文章中提到:It took 10,045 seconds (on a Pentium IV running at 1.5 GhZ) to train 20 one-vs-all SVMs, and only 1,309 seconds to train the equivalent RLSC classifiers. At test time, both SVM and RLSC yield a linear hyperplane, so testing times are equivalent. 足见速度可以达到SVM的速度的9倍左右,而精度却可以达到相当的程度。

我们再来看一个测试的比较,下表表示的是两种算法在两个数据集上面的错误率:

最上面的数据代表训练的样本数,下面书错误率。可以看得出来RLS的方法还是很好的。

Regularized least-squares classification(RLSC)相关推荐

  1. 知识蒸馏论文翻译(5)—— Feature Normalized Knowledge Distillation for Image Classification(图像分类)

    知识蒸馏论文翻译(5)-- Feature Normalized Knowledge Distillation for Image Classification(图像分类) 用于图像分类的特征归一化知 ...

  2. Deep Few-Shot Learning for Hyperspectral Image Classification(2019)——深度学习论文笔记(四)

    Deep Few-Shot Learning for Hyperspectral Image Classification(2019) 文章目录 Deep Few-Shot Learning for ...

  3. NLP Prompting for Text Classification(1)

    NLP Prompting for Text Classification UniFew LM-BFF UniFew 号称是简单,没有现在普遍的定制的.通常是复杂的元学习算法,大量手动/自动工程文本p ...

  4. partial least squares regresssion (PLSR)偏最小二乘

    适用范围 样本量很小,不是正态分布(线性回归一般需要满足正态分布) 原理 使用了包括PCA,典型相关 步骤 第一步:确认主成分数量,通过交叉有效性,RMSEP图和投影重要性VIP分析进行确认: 第二步 ...

  5. ICLR 2019:A CLOSER LOOK AT FEW-SHOT CLASSIFICATION (ACK-FSC)

    下方↓公众号后台回复"ACKFSC",即可获得论文原文电子资源. A CLOSER LOOK AT FEW-SHOT CLASSIFICATION 内容提要 本文工作 现有工作 现 ...

  6. Efficient Shapelet Discovery for Time Series Classification(TKDE)

    时间序列shapelets是一种鉴别子序列,近年来被发现用于时间序列分类(TSC).很明显,shapelets的质量对TSC的准确性至关重要.然而,主要的研究集中在从一些候选shapelet中建立精确 ...

  7. METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS 翻译(六)

    METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS(六) 之后的两个方法都是针对无法进行解析求导情况下的处理方法,大多数情况下并不会用到 3.5. L-M 方法 ...

  8. METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS 翻译(一)

    METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS(一) 分章节更新,剩下两部分一周内上传 1. 介绍和定义 在本手册中,我们考虑了以下问题 定义1.1. 最小 ...

  9. METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS 翻译(三)

    METHODS FOR NON-LINEAR LEAST SQUARES PROBLEMS(三) 3. 非线性最小二乘问题 在本手册的其余部分中,我们将讨论求解非线性最小二乘问题的方法.给定一个向量函 ...

最新文章

  1. Ubuntu “载入软件包列表失败”
  2. JavaScript 日期格式化 简单有用
  3. Bug人生---超越bug杀手
  4. 【原创】C# war3 巨魔精灵 minimap
  5. python基础知识-8-三元和一行代码(推导式)
  6. java matching_LeetCode第[44]题(Java):Wildcard Matching
  7. drools 将添加switch支持
  8. 写一个程序,打印数字1到100,3的倍数打印“Fizz”来替换这个数,5的倍数打印“Buzz”,对于既是3的倍数又是5的倍数的数字打印“FizzBuzz”...
  9. 学习C语言的必备书籍-从入门到精通
  10. MPU6050数据分析
  11. 深蓝学院-视觉SLAM课程-第4讲作业(T5矩阵微分,T6手写高斯牛顿,T7批量MLE)
  12. 盘点:2017年GitHub上30个优秀的机器学习项目
  13. 《观沧海》课文练习题及答案
  14. JUC辅助类 Semaphore
  15. 从计算机内部提取型号和mac,Mac计算机型号这么多 我该选哪一个?
  16. 硬盘 SMART 检测参数详解
  17. 基于Tensorflow 2.x手动复现BERT
  18. noip模拟赛 终末
  19. cmd命令行中文显示乱码解决办法
  20. threejs+vue房子模型,实现BSP模型剪切,导入obj+mtl文件

热门文章

  1. Mac解压Windows 压缩文件(.zip格式)乱码问题
  2. Android源码编译到/data/app方法
  3. Linux的diff和git diff生成patch/打patch
  4. android 4.0 蓝牙分析之一
  5. Scheme学习系列O:启动篇
  6. 深度学习自学(二十一):连续保存人脸检测、关键点检测后人脸状态-循环队列实现
  7. 深度学习自学(二):人脸检测MTCNN学习总结
  8. ubuntu常用状态查看命令
  9. mac php 403,mac下配置apache以及403问题
  10. hive表指定分区字段搜索_hive导出分区表到mysql 分区字段值怎么取