问题描述:根据水库中蓄水标线(water level) 使用正则化的线性回归模型预 水流量(water flowing out of dam),然后 debug 学习算法 以及 讨论偏差和方差对 该线性回归模型的影响

①可视化数据集

本作业的数据集分成三部分:

ⓐ训练集(training set),样本矩阵(训练集):X,结果标签(label of result)向量 y

ⓑ交叉验证集(cross validation set),确定正则化参数 Xval 和 yval

ⓒ测试集(test set) for evaluating performance,测试集中的数据 是从未出现在 训练集中的

将数据加载到Octave中如下:训练集中一共有12个训练实例,每个训练实例只有一个特征。故假设函数hθ(x) = θ0·x0 + θ1·x1 ,用向量表示成:hθ(x) = θT·x

一般地,x0 为 bais unit,默认 x0==1

数据可视化:

②正则化线性回归模型的代价函数

代价函数公式如下:

Octave代码实现如下:这里的代价函数是用向量(矩阵)乘法来实现的。

reg = (lambda / (2*m)) * ( ( theta( 2:length(theta) ) )' * theta(2:length(theta)) );
J = sum((X*theta-y).^2)/(2*m) + reg;

注意:由于θ0不参与正则化项的,故上面Octave数组下标是从2开始的(Matlab数组下标是从1开始的,θ0是Matlab数组中的第一个元素)。

③正则化的线性回归梯度

梯度的计算公式如下:

其中,下面公式的向量表示就是:[XT · (X·θ - y)]/m,用Matlab表示就是:X'*(X*theta-y) / m

梯度的Octave代码实现如下:

grad_tmp = X'*(X*theta-y) / m;
grad = [ grad_tmp(1:1); grad_tmp(2:end) + (lambda/m)*theta(2:end) ];

function [J, grad] = linearRegCostFunction(X, y, theta, lambda)
%LINEARREGCOSTFUNCTION Compute cost and gradient for regularized linear
%regression with multiple variables
%   [J, grad] = LINEARREGCOSTFUNCTION(X, y, theta, lambda) computes the
%   cost of using theta as the parameter for linear regression to fit the
%   data points in X and y. Returns the cost in J and the gradient in grad% Initialize some useful values
m = length(y); % number of training examples% You need to return the following variables correctly
J = 0;
grad = zeros(size(theta));% ====================== YOUR CODE HERE ======================
% Instructions: Compute the cost and gradient of regularized linear
%               regression for a particular choice of theta.
%
%               You should set J to the cost and grad to the gradient.
%reg = (lambda / (2*m)) * ( ( theta( 2:length(theta) ) )' * theta(2:length(theta)) );
J = sum((X*theta-y).^2)/(2*m) + reg;
grad_tmp = X'*(X*theta-y) / m;
grad = [ grad_tmp(1:1); grad_tmp(2:end) + (lambda/m)*theta(2:end) ];% =========================================================================grad = grad(:);end

④使用Octave的函数 fmincg 函数训练线性回归模型,得到模型的参数。

function [theta] = trainLinearReg(X, y, lambda)
%TRAINLINEARREG Trains linear regression given a dataset (X, y) and a
%regularization parameter lambda
%   [theta] = TRAINLINEARREG (X, y, lambda) trains linear regression using
%   the dataset (X, y) and regularization parameter lambda. Returns the
%   trained parameters theta.
%% Initialize Theta
initial_theta = zeros(size(X, 2), 1); % Create "short hand" for the cost function to be minimized
costFunction = @(t) linearRegCostFunction(X, y, t, lambda);% Now, costFunction is a function that takes in only one argument
options = optimset('MaxIter', 200, 'GradObj', 'on');% Minimize using fmincg
theta = fmincg(costFunction, initial_theta, options);end

⑤线性回归模型的图形化表示

上面已经通过 fmincg 求得了模型参数了,那么我们求得的模型 与 数据的拟合程度 怎样呢?看下图:

从上图中可以看出,由于我们的数据是二维的,但是却用一个线性模型去拟合,故很明显出现了 underfiting problem

在这里,我们很容易将模型以图形化方式表现出来,因为,我们的训练数据的特征很少(一维)。当训练数据的特征很多(feature variables)时,就很难画图了(三维以上很难直接用图形表示了...)。这时,就需要用 “学习曲线”来检查 训练出来的模型与数据是否很好地拟合了。

⑥偏差与方差之间的权衡

高偏差---欠拟合,underfit

高方差---过拟合,overfit

可以用学习曲线(learning curve)来诊断偏差--方差 问题。学习曲线的 x 轴是训练集大小(training set size),y 轴则是交叉验证误差和训练误差。

训练误差的定义如下:

注意:训练误差Jtrain(θ)是没有正则化项的,因此在调用linearRegCostFunction时,lambda==0。Octave实现如下(learningCurve.m)

function [error_train, error_val] = ...learningCurve(X, y, Xval, yval, lambda)
%LEARNINGCURVE Generates the train and cross validation set errors needed
%to plot a learning curve
%   [error_train, error_val] = ...
%       LEARNINGCURVE(X, y, Xval, yval, lambda) returns the train and
%       cross validation set errors for a learning curve. In particular,
%       it returns two vectors of the same length - error_train and
%       error_val. Then, error_train(i) contains the training error for
%       i examples (and similarly for error_val(i)).
%
%   In this function, you will compute the train and test errors for
%   dataset sizes from 1 up to m. In practice, when working with larger
%   datasets, you might want to do this in larger intervals.
%% Number of training examples
m = size(X, 1);% You need to return these values correctly
error_train = zeros(m, 1);
error_val   = zeros(m, 1);% ====================== YOUR CODE HERE ======================
% Instructions: Fill in this function to return training errors in
%               error_train and the cross validation errors in error_val.
%               i.e., error_train(i) and
%               error_val(i) should give you the errors
%               obtained after training on i examples.
%
% Note: You should evaluate the training error on the first i training
%       examples (i.e., X(1:i, :) and y(1:i)).
%
%       For the cross-validation error, you should instead evaluate on
%       the _entire_ cross validation set (Xval and yval).
%
% Note: If you are using your cost function (linearRegCostFunction)
%       to compute the training and cross validation error, you should
%       call the function with the lambda argument set to 0.
%       Do note that you will still need to use lambda when running
%       the training to obtain the theta parameters.
%
% Hint: You can loop over the examples with the following:
%
%       for i = 1:m
%           % Compute train/cross validation errors using training examples
%           % X(1:i, :) and y(1:i), storing the result in
%           % error_train(i) and error_val(i)
%           ....
%
%       end
%% ---------------------- Sample Solution ----------------------for i = 1:mtheta = trainLinearReg(X(1:i, :), y(1:i), lambda);error_train(i) = linearRegCostFunction(X(1:i, :), y(1:i), theta, 0);error_val(i) = linearRegCostFunction(Xval, yval, theta, 0);% -------------------------------------------------------------% =========================================================================end

学习曲线的图形如下:可以看出欠拟合时,在 training examples 数目很少时,训练出来的模型还能拟合"一点点数据",故训练误差相对较小;但对于交叉验证误差而言,它是使用未知的数据得算出来到的,而现在模型欠拟合,故几乎不能 拟合未知的数据,因此交叉验证误差非常大。

随着 training examples 数目的增多,由于欠拟合,训练出来的模型越来越来能拟合一些数据了,故训练误差增大了。而对于交叉验证误差而言,最终慢慢地与训练误差一致并变得越来越平坦,此时,再增加训练样本(training examples)已经对模型的训练效果没有太大影响了---在欠拟合情况下,再增加训练集的个数也不能再降低训练误差了。

⑦多项式回归

从上面的学习曲线图形可以看出:出现了underfit problem,通过添加更多的特征(features),使用更高幂次的多项式来作为假设函数拟合数据,以解决欠拟合问题。

多项式回归模型的假设函数如下:

通过对特征“扩充”,以添加更多的features,代码实现如下:polyFeatures.m

for i = 1:pX_poly(:,i) = X.^i;
end

“扩充”了特征之后,就变成了多项式回归了,但由于多项式回归的特征取值范围差距太大(比如有些特征的取值很小,而有些特征的取值非常大),故需要用到Normalization(归一化),归一化的代码如下:

function [X_norm, mu, sigma] = featureNormalize(X)
%FEATURENORMALIZE Normalizes the features in X
%   FEATURENORMALIZE(X) returns a normalized version of X where
%   the mean value of each feature is 0 and the standard deviation
%   is 1. This is often a good preprocessing step to do when
%   working with learning algorithms.mu = mean(X);
X_norm = bsxfun(@minus, X, mu);sigma = std(X_norm);
X_norm = bsxfun(@rdivide, X_norm, sigma);% ============================================================end

继续再用原来的linearRegCostFunction.m计算多项式回归的代价函数和梯度,得到的多项式回归模型的假设函数的图形如下:(注意:lambda==0,没有使用正则化):

从多项式回归模型的 图形看出:它几乎很好地拟合了所有的训练样本数据。因此,可认为出现了:过拟合问题(overfit problem)---高方差

多项式回归模型的学习曲线 图形如下:

从多项式回归的学习曲线图形看出:训练误差几乎为0(非常贴近 x 轴了),这正是因为过拟合---模型几乎完美地穿过了训练数据集中的每个数据点,从而训练误差非常小。

交叉验证误差先是很大(训练样本数目为2时),然后随着训练样本数目的增多,cross validation error 变得越来越小了(训练样本数目2 增加到 5 过程中);然后,当训练样本数目再增多时(11个以上的训练样本时...),交叉验证误差又变得大了(过拟合导致泛化能力下降)。

⑧使用正则化来解决多项化回归模型的过拟合问题

设置正则化项 lambda == 1(λ==1)时,得到的模型假设函数图形如下:

可以看出:这里的拟合曲线不再是 lambda == 0 时 那样弯弯曲曲的了,也不是非常精准地穿过每一个点,而是变得相对比较平滑。这正是 正则化 的效果。

lambda==1 (λ==1) 时的学习曲线如下:

lambda==1时的学习曲线表明:该模型有较好的泛化能力,能够对未知的数据进行较好的预测。因为,它的交叉验证误差和训练误差非常接近,且非常小。(训练误差小,表明模型能很好地拟合数据,但有可能出现过拟合的问题,过拟合时,是不能很好地对未知数据进行预测的;而此处交叉验证误差也小,表明模型也能够很好地对未知数据进行预测)

最后来看下,多项式回归模型的正则化参数 lambda == 100(λ==100)时的情况:(出现了underfit problem--欠拟合--高偏差)

模型“假设函数”曲线如下:

学习曲线图形如下:

⑨如何自动选择合适的 正则化参数 lambda(λ) ?

从第⑧点中看出:正则化参数 lambda(λ) 等于0时,出现了过拟合, lambda(λ) 等于100时,又出现了欠拟合, lambda(λ) 等于1时,模型刚刚好。

那在训练过程中如何自动选择合适的lambda参数呢?

可以使用交叉验证集(根据交叉验证误差来选择合适的 lambda 参数)

Concretely, you will use a cross validation set to evaluate how good each lambda value is. After selecting the best lambda value using the cross validation set, we can then evaluate the model on the test set to estimate how well the model will perform on actual unseen data.

具体的选择方法如下:

首先有一系列的待选择的 lambda(λ) 值,在本λ作业中用一个lambda_vec向量保存这些 lambda 值(一共有10个):

lambda_vec = [0 0.001 0.003 0.01 0.03 0.1 0.3 1 3 10]'

然后,使用训练数据集 针对这10个 lambda 分别训练 10个正则化的模型。然后对每个训练出来的模型,计算它的交叉验证误差,选择交叉验证误差最小的那个模型所对应的lambda(λ)值,作为最适合的 λ 。(注意:在计算训练误差和交叉验证误差时,是没有正则化项的,相当于 lambda==0)

for i = 1:length(lambda_vec)theta = trainLinearReg(X,y,lambda_vec(i));%对于每个lambda,训练出模型参数theta%compute jcv and jval without regularization,causse last arguments(lambda) is zero error_train(i) = linearRegCostFunction(X, y, theta, 0);%计算训练误差error_val(i) = linearRegCostFunction(Xval, yval, theta, 0);%计算交叉验证误差
end

对于这10个不同的 lambda,计算出来的训练误差和交叉验证误差如下:

lambda     Train Error   Validation Error0.000000    0.173616    22.0666020.001000    0.156653    18.5976380.003000    0.190298    19.9815030.010000    0.221975    16.9690870.030000    0.281852    12.8290030.100000    0.459318    7.5870130.300000    0.921760    4.6368331.000000    2.076188    4.2606253.000000    4.901351    3.82290710.000000   16.092213   9.945508

训练误差、交叉验证误差以及 lambda 之间的关系 图形表示如下:

当 lambda >= 3 的时候,交叉验证误差开始上升,如果再增大 lambda 就可能出现欠拟合了...

从上面看出:lambda == 3 时,交叉验证误差最小。lambda==3时的拟合曲线如下:(可与 lambda==1时的拟合曲线及学习曲线对比一下,看有啥不同)

学习曲线如下:

转载于:https://www.cnblogs.com/abella/p/10348460.html

Andrew NG 机器学习编程作业5 Octave相关推荐

  1. Andrew NG 机器学习编程作业3 Octave

    问题描述:使用逻辑回归(logistic regression)和神经网络(neural networks)识别手写的阿拉伯数字(0-9) 一.逻辑回归实现: 数据加载到octave中,如下图所示: ...

  2. Andrew Ng机器学习编程作业:K-means Clustering and Principal Component Analysis

    作业文件 machine-learning-ex7 1. K-means聚类 在这节练习中,我们将实现K-means聚类,并将其应用到图片压缩上.我们首先 从二维数据开始,获得一个直观的感受K-mea ...

  3. Andrew Ng机器学习算法入门(二):机器学习分类

    机器学习的定义 Arthur Samuel给出的定义,Field of Study that gives computers the ability to learn without being ex ...

  4. Andrew Ng机器学习课程6

    Andrew Ng机器学习课程6 说明 在前面跟随者台大机器学习基石课程和机器学习技法课程的设置,对机器学习所涉及到的大部分的知识有了一个较为全面的了解,但是对于没有动手写程序并加以使用的情况,基本上 ...

  5. Andrew Ng机器学习课程14(补)

    Andrew Ng机器学习课程14(补) 声明:引用请注明出处http://blog.csdn.net/lg1259156776/ 利用EM对factor analysis进行的推导还是要参看我的上一 ...

  6. 【原】Coursera—Andrew Ng机器学习—Week 9 习题—异常检测

    [原]Coursera-Andrew Ng机器学习-Week 9 习题-异常检测 参考文章: (1)[原]Coursera-Andrew Ng机器学习-Week 9 习题-异常检测 (2)https: ...

  7. Andrew Ng机器学习课程17(1)

    Andrew Ng机器学习课程17(1) 声明:引用请注明出处http://blog.csdn.net/lg1259156776/ 说明:主要介绍了强化学习与监督学习的设定上的区别,以及强化学习的框架 ...

  8. 机器学习编程作业ex2(matlab/octave实现)-吴恩达coursera

    分成两部分,一是本节课程内容的简要回顾,二是作业步骤的推导 程序打包网盘地址提取码1111 (后续部分,需要填入的代码为深色框,已经提供的代码为浅色框.) 一.内容回顾 逻辑回归Logistic Re ...

  9. Andrew Ng机器学习(一):线性回归

    1.什么是线性回归? 用线性关系去拟合输入和输出. 设输入为x,则输出y=ax+b. 对于多元的情况y=b×1+a1x1+a2x2+...+anxn. 用θ表示系数,可以写作: 其中,x0=1. 2. ...

最新文章

  1. 分享:个人是怎么学习新知识的
  2. 为啥不装杀毒软件?全家桶太多...
  3. html如何调整背景图片大小_如何快速调整证件照背景色和大小!(简单快速)...
  4. 如何上传本地文件到github又如何删除自己的github仓库
  5. leetcode 219. 存在重复元素 II(规定步长)
  6. 语言里怎么防误输_育儿知识|我们的孩子为什么会怕输?
  7. 知道自己想要什么,保持自己的节奏。
  8. ZK 6中的MVVM初探
  9. php博客文章修改,wordpress博客如何快速修改文章阅读数
  10. Jmeter上传文件
  11. 转:全卷积网络(FCN)与图像分割
  12. Android ListView中EditView再次焦点获取
  13. 什么是restful api
  14. 为什么能上QQ不能打开网页
  15. 【Git】pull 分支报错 fatal: Need to specify how to reconcile divergent branches...
  16. zcmu 5142: 巴比伦塔
  17. UE5 WebUI 5.0.1插件下载
  18. Android 利用adb命令 使App自动点击屏幕指定位置
  19. 文件夹的隐藏选项为灰色勾选,无法更改或删除
  20. maven junit 报 class not fount

热门文章

  1. Django Rest Framework 视图和路由
  2. 【Linux网络编程】TCP编程
  3. python编写程序输出诗句_Python学习笔记(一)-- print语句
  4. ele表格操作区根据数据_Vue数据绑定
  5. C语言 指针 类型的用法大汇总(指针/引用/取值) *与
  6. 控制台怎么退出mysql_退出mysql控制台与退出mysql
  7. imageloader 的 java.security.cert.CertPathValidatorException
  8. 使用 qemu 搭建内核开发环境
  9. Pixhawk原生固件PX4之位姿控制算法解读
  10. Think Bayes - 我所理解的贝叶斯定理