• 1. 图像的预处理问题->为什么要减去均值图像
  • 2. SVM分类器
    • a. 背景知识
    • b. SVM(Multiclass Support Vector Machine)
    • c. practical consideration
    • d. 计算倒数※(难点)
    • e.作业代码详解

1. 图像的预处理问题->为什么要减去均值图像

(ROW(行)与COLUMN(列))
这里涉及到了图像处理中常用的归一化问题。数据预处理中,标准的第一步是数据归一化。虽然这里有一系列可行的方法,但是这一步通常是根据数据的具体情况而明确选择的。特征归一化常用的方法包含如下几种:

  • 简单缩放
  • 逐样本均值消减(也称为移除直流分量)
  • 特征标准化(使数据集中所有特征都具有零均值和单位方差)
    https://blog.csdn.net/dcxhun3/article/details/47999281 萌面女xia的文章有详细的讲解
    逐个样本减去均值
    其主要原理是我们默认自然图像是一类平稳的数据分布(即数据每一维的统计都服从相同分布),此时,在每个样本上减去数据的统计平均值可以移除共同的部分,凸显个体差异。
    最值得注意的一点是,在计算均值之前就要预先划分好训练集验证集和测试集,然后只针对训练集计算均值,否则就违背了深度学习的原则:模型训练过程仅能从训练模型中获取信息。得到训练集的均值后,对训练集验证集和测试集分别减去该均值。

2. SVM分类器

a. 背景知识

损失函数:

我们通过权重矩阵 W 计算得到了预测分类的分数(predicted class scores),例如在课程中举例的cat,dog,ship

在我们得到预测分数后,需要一种方法衡量预测值和真实值之间的误差,这就需要用到了损失函数(loss function)

常用的损失函数:

  • svm(hinge):到达边界(margin)后无法继续优化
  • softmax: 可以不断优化概率
  • mean_squared_error/mse:方差,反省数据集的离散程度
  • mean_absolute_error/mae:平均绝对值误差:反应预测值误差的实际情况
  • mean_absolute_percentage/mape:平均绝对百分比误差
  • mean_squared_logarithmic_error/msle:均方对数误差
  • binary_crossentropy : 对数损失。与sigmoid相对应的损失函数,常用二分类问题
  • Categorical_crossentropy:多分类对数损失函数,与softmax分类器对应的损失函数。Sigmoid用于二分类,而softmax用于多分类

b. SVM(Multiclass Support Vector Machine)

svm loss希望正确的分类的得分高于不正确项的得分,如果正确项≥错误项得分+边界值,我们认为没有误差,如果正确项<错误项+边界值(这里先不考虑边界值的选取),我们认为存在误差(loss)。svm loss计算公式

svm loss计算举例:

由于W是矩阵,所以sj = wj×xi ,这里的×是点乘也就是矩阵乘法,xi为一列,Wi为W矩阵的第i行,所以公式可以写为:(公式中的转置符号让我有些困惑,大佬可以帮忙解答一下)

regularization penalty

应用于解决过拟合问题。在我们上文提到的Li公式中,可能我们会有一组W,完美的将数据集分类全部正确,这时会造成过拟合的问题(下图)。因为我们通过训练数据集需要找到的并不是完美分类训练集的模型参数,而是要找到一组模型参数具有很好的泛化能力,可以在训练集之外的数据上正确预测分类。所以我们为了防止出现过拟合的情况,加入了惩罚项(regularization penalty)R(W)。

模型选择的典型方法是正则化。正则化是结构风险最小化策略的实现,是在经验风险上加一个正则化项(regularizer)或罚项(penalty term)。正则化项一般是模型复杂度的单调递增函数,模型越复杂,正则化值就越大。比如,正则化项可以是模型参数向量的范数。

则化符合奥卡姆剃刀(Occam’s razor)原理。奥卡姆剃刀原理应用于模型选择时变为以下想法:在所有可能选择的模型中,能够很好地解释已知数据并且十分简单才是最好的模型,也就是应该选择的模型。从贝叶斯估计的角度来看,正则化项对应于模型的先验概率。可以假设复杂的模型有较大的先验概率,简单的模型有较小的先验概率。-----李航博士《统计学习方法》

最常见的正则化惩罚是L2范数,其通过对所有参数的元素二次惩罚来阻止大权重:

在上面的公式中我们可以看到惩罚项和训练数据无关,之和权重矩阵W相关。加入惩罚项后我们实现了完整的SVM loss,它由两部分组成:data loss + regularization loss, 完整公式如下:

N是训练数据的数量。我们用超参数λ来作为惩罚项的权重,没有简单有效的方法去设置超参数λ的值,它通常和交叉验证有关。
总结关于引入惩罚项(regularization penalty)的优点:惩罚大的权重项,提高模型的泛化能力。因为我们不希望W矩阵中的某一个很大的权重值对我们的预测产生很大的影响。(The most appealing property is that penalizing large weights tends to improve generalization, because it means that no input dimension can have a very large influence on the scores all by itself.)分类器更希望通过衡量所有输入维度去综合得出分类结果,而不是仅仅考虑某一两个有很高的权重的维度。我们做的就是找到权重矩阵得到尽可能小的损失值。

现在回到我们的第一张图,我们会发现影响我们最终分类结果的不仅仅有权重矩阵W,还有误差b,但是由于b并不影响我们的输入数据,所以我们并不对b进行正则化。

c. practical consideration

a. Setting Delta(Δ)边界值
可以安全的设置成 Δ = 1.0 下面解释的很清楚,Δ的设置影响的是预测得分差异(score differences)的大小,并不影响相对结果。因此真正有用的是如何设置超参数λ来控制权重矩阵。

d. 计算倒数※(难点)

在这一节的作业中,主要包含两个难点:一是损失函数的求值,二是对得损失函数求梯度。这里涉及到了一个很蠢但又很关键的问题:为什么要求梯度?
这里我们要再次回顾一下我们到底在干什么:我们现在研究的是图像的分类问题,将数据集分成了训练集(training),验证集(validation),测试集(test)。

  • 训练集:用来训练模型,在这里可以简单的认为不断通过损失函数和优化函数去优化权重矩阵W
  • 验证集:用来调节超参数,在模型中有些参数只能人为设定,我们称之为超参数(hyperparameters)。通过验证集来找到合适的超参数。
  • 测试集:最后评估模型的性能。

注:区分参数(parameters)和超参数(hyperparameters),参数是模型可以自己学习出的变量,超参数是人为根据经验调整的变量。

并且我们规定了一个简单的得分函数(score function) f(xi,W)=Wxi ,其中W为我们的权重矩阵,我们的目的是通过训练集和验证集不断的去优化我们的权重矩阵,最后在我们的测试集上得到很好的分类结果。如何判断权重矩阵的优劣,这时我们引入了损失函数(loss function) 来衡量预测结果和真实结果的偏差,并且我们通过优化器(optimization) 来找到最合适的权重矩阵W使得我们的损失函数尽可能的小。回想我们高中学过的知识,求一个函数的最小值往往是求导找零点,这里也是用到的这个原理。
梯度可以分为数值梯度(numerical gradient)和分析梯度(analytic gradient),简单理解是数值梯度根据梯度的定义计算的,分析梯度根据函数求导得到。数值梯度计算效率低,所以我们使用效率高但是容易出错的分析梯度。
这里介绍了一个梯度检验(gradient check)的概念

下面我们来详细介绍分析梯度(analytic gradient)的计算:
计算分析梯度需要微积分知识(函数求导、链式法则等)。

当我们计算出梯度后在应用梯度下降法就可以不断的更新参数了。
下面讲解代码中损失值和梯度的计算:
在应用循环求损失值的过程很简单,就是应用上面两个公式。
在使用向量运算求损失值和梯度时,我们必须首先明确不同矩阵行和列代表的含义。

看下面的 svm_loss_vectorized() 函数,scores = X.dot(W)首先找到我们的得分矩阵(N by C),N代表输入的N个用例,C代表最后分类结果总共有C类。 scores_correct = scores[np.arange(num_train), y] 这一行代码的用法很巧妙,用到的原理还不是很清楚,但实现的操作是找到scores中每一行y位置的元素,最后返回scores_correct(1 by N),下图有这种用法的举例。所以scores_correct中记录的是每一行(每一个样本)正确的分类得分结果。为了方便计算我们把它reshape成(N by 1)的矩阵,margins = scores - scores_correct + 1.0就是我们上面求Li的公式,scores(N by C) - scores_correct(N by 1)这里用到的是广播(broadcasting)原理可自行百度,得到结果为margins(N by C)margins[np.arange(num_train), y] = 0.0现在这种用法应该不陌生了吧(看看下面的图片),实现的是margins矩阵上正确分类位置的数值置0,为什么置零,因为我们是对j≠yi位置的元素求和看上面Li公式。 margins[margins<=0] = 0.0 #这种用法很秀这种用法很秀,值得我们好好学习,完成的是公式中max的任务。
(代码中关于矩阵的行列大小一定要搞清楚)
下面求梯度的方法和上面公式实现方法一致。详细介绍可以参考这篇博客讲的很详细,重点还是在于对上面两个求梯度公式的理解。

e.作业代码详解

import numpy as np
from random import shuffledef svm_loss_naive(W, X, y, reg):"""Structured SVM loss function, naive implementation (with loops).Inputs have dimension D, there are C classes, and we operate on minibatchesof N examples.Inputs:- W: A numpy array of shape (D, C) containing weights.- X: A numpy array of shape (N, D) containing a minibatch of data.- y: A numpy array of shape (N,) containing training labels; y[i] = c meansthat X[i] has label c, where 0 <= c < C.- reg: (float) regularization strengthReturns a tuple of:- loss as single float- gradient with respect to weights W; an array of same shape as W"""dW = np.zeros(W.shape) # initialize the gradient as zero# compute the loss and the gradientnum_classes = W.shape[1]num_train = X.shape[0]loss = 0.0for i in range(num_train):scores = X[i].dot(W)correct_class_score = scores[y[i]]for j in range(num_classes):if j == y[i]:continuemargin = scores[j] - correct_class_score + 1 # note delta = 1if margin > 0:loss += margindW[:,y[i]] += -X[i,:]dW[:,j] += X[i,:]# Right now the loss is a sum over all training examples, but we want it# to be an average instead so we divide by num_train.loss /= num_traindW /= num_train# Add regularization to the loss.loss += reg * np.sum(W * W)dW += reg* Wreturn loss, dWdef svm_loss_vectorized(W, X, y, reg):"""Structured SVM loss function, vectorized implementation.Inputs and outputs are the same as svm_loss_naive."""loss = 0.0dW = np.zeros(W.shape) # initialize the gradient as zeronum_train= X.shape[0]  # Nnum_classes = W.shape[1]  # Cscores = X.dot(W)  # N by Cscores_correct = scores[np.arange(num_train), y]  # 1 by N broadcastingscores_correct = np.reshape(scores_correct, (num_train, 1)) # N by 1margins = scores - scores_correct + 1.0margins[np.arange(num_train), y] = 0.0margins[margins<=0] = 0.0 #loss += np.sum(margins) / num_trainloss += 0.5 * reg *np.sum(W * W)#compute the gradientmargins[margins>0] = 1.0row_sum = np.sum(margins, axis=1)margins[np.arange(num_train), y] = -row_sumdW += np.dot(X.T, margins)/num_train + reg* Wreturn loss, dW

cs231n assignment1 SVM详解相关推荐

  1. cs231n assignment1 SVM

    上一篇:cs231n assignment1 knn 文章目录 SVM Inline Question SVM 支持向量机的损失函数为 Li=∑j!=yimax⁡(0,sj−syi+△)L_{i}=\ ...

  2. 文本分类之支持向量机SVM详解(6)机器学习

    1 支持向量机介绍   对两类样本点进行分类,如下图,有a线.b线.c线三条线都可以将两类样本点很好的分开类,我们可以观察到b线将两类样本点分类最好,原因是我们训练出来的分类模型主要应用到未知样本中, ...

  3. SVM详解(一)线性可分支持向量机与硬间隔最大化

    文章目录 1. 引言 2. 函数间隔与几何间隔 3. 间隔最大化 4. 最大间隔分离超平面的存在唯一性 5. 支持向量和间隔边界 6. 学习的对偶算法 1. 引言 我们在介绍感知机的时候知道,对于线性 ...

  4. SVM详解(三)支持向量机使用核技巧

    文章目录 1. 数据升维处理非线性可分问题 2. CoverCoverCover 定理 3. 核函数 4. 常用核函数 5. 非线性支持向量机学习算法 1. 数据升维处理非线性可分问题 通过前面的学习 ...

  5. 支持向量机SVM详解——带有松弛变量的数学模型

    上一节的例子是基于两个类别的数据是完全可分的情况下,没有异常点的数学模型,如果出现了异常点:在某一个类别包含另一个类别的数据,如果不放松要求的话,根本无法分割两类样本,这个时候我们必须放松限制. ξ- ...

  6. SVM分类器原理详解

    SVM分类器原理详解 标签: svm文本分类java 2015-08-21 11:51 2399人阅读 评论(0) 收藏 举报  分类: 数据挖掘 文本处理(16)  机器学习 分类算法(10)  目 ...

  7. SVM -支持向量机原理详解与实践之五

    SVM -支持向量机原理详解与实践之四 SVM原理分析 SMO算法分析 SMO即Sequential minmal optimization, 是最快的二次规划的优化算法,特使对线性SVM和稀疏数据性 ...

  8. 斯坦福CS231n 2017最新课程:李飞飞详解深度学习的框架实现与对比

     斯坦福CS231n 2017最新课程:李飞飞详解深度学习的框架实现与对比 By ZhuZhiboSmith2017年6月19日 13:37 斯坦福大学的课程 CS231n (Convolutio ...

  9. Sklearn参数详解—SVM

    总第108篇 本篇主要讲讲Sklearn中SVM,SVM主要有LinearSVC.NuSVC和SVC三种方法,我们将具体介绍这三种分类方法都有哪些参数值以及不同参数值的含义. 在开始看本篇前你可以看看 ...

  10. python支持向量机回归_Python中支持向量机SVM的使用方法详解

    除了在Matlab中使用PRTools工具箱中的svm算法,Python中一样可以使用支持向量机做分类.因为Python中的sklearn库也集成了SVM算法,本文的运行环境是Pycharm. 一.导 ...

最新文章

  1. 【机器学习算法专题(蓄力计划)】十九、机器学习中SVM算法代码实操
  2. ubuntu18.04下利用deepin-wine-wechat安装微信显示问题
  3. iview render的时候可以写控件的基本格式
  4. 美国团购网站Groupon的盈利模式
  5. tengine简单安装_树莓派使用宝塔面板安装LNMP环境
  6. 设计类网站|超实用的工具型网站!
  7. 10、Lctech Pi(F1C200S)驱动电阻屏触摸芯片ns2009(ts2007),buildroot配置tslib(CherryPi,Mangopi,F1C100S)
  8. fastboot刷机工具_红魔3/3S 刷机教程
  9. 高数篇(三)-- 最小二乘法、正则化
  10. 用JavaScript实现用户登录验证、注册信息格式检验(附代码)
  11. plsql远程连接oracle数据库及报ORA-12514错误解决
  12. 成功解决The type Dog is already defined问题
  13. 2011年第36届大连赛区现场赛Board
  14. 能锦上添花不能雪中送炭,公关救不了货车帮和作业帮
  15. unity3D地形编辑器—Terrain
  16. 【广度优先搜索-中等】1905. 统计子岛屿
  17. 两自由度非平面机械臂运动方程推导
  18. SQL Server附加数据库错误5123,另一个进程正在调用
  19. Revit API 开发(12): Revit 文件存储结构
  20. java背包_java-背包的实现

热门文章

  1. R语言学习之R程序包安装
  2. R语言安装包的几种方法
  3. 话单分析账单分析行踪分析三合一数据分析
  4. 高级商务办公软件应用【6】
  5. zepto 清除html,Zepto的使用
  6. 安装英伟达驱动,提示驱动和windows版本不兼容或是硬件不兼容的问题
  7. arcmap加载GPS定位终端数据
  8. 中英文计算机核心期刊目录
  9. html登录注册页面验证代码,登录注册页面验证码问题
  10. 关于单片机(MCU)最强科普(万字总结,先马后看)