Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”
Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”
斯坦福大学机器学习第二课”单变量线性回归“学习笔记,本次课程主要包括7部分:
1) Model representation(模型表示)
2) Cost function(代价函数,成本函数)
3) Cost function intuition I(直观解释1)
4) Cost function intuition II(直观解释2)
5) Gradient descent(梯度下降)
6) Gradient descent intuition(梯度下降直观解释)
7) Gradient descent for linear regression(应用于线性回归的的梯度下降算法)
1) Model representation(模型表示)
回到第一课中的房屋价格预测问题, 首先它是一个有监督学习的问题(对于每个样本的输入,都有正确的输出或者答案),同时它也是一个回归问题(预测一个实值输出)。
训练集表示如下:
其中:
m = 训练样本的数目
x’s = “输入”变量,也称之为特征
y’s = “输出”变量,也称之为“目标”变量
对于房价预测问题,学习过程可用下图表示:
其中x代表房屋的大小,y代表预测的价格,h(hypothesis)将输入变量 x 映射到输出变量 y,如何表示h?
事实上Hypothesis可以表示成如下形式:
简写为 h(x),也就是带一个变量的线性回归或者单变量线性回归问题。
2) Cost function(代价函数,成本函数)
对于Hypothesis: hθ(x)=θ0+θ1x
θi 为参数
如何求θi?
构想: 对于训练集(x, y),选取参数θ0, θ1使得hθ(x)尽可能的接近y。
如何做呢?一种做法就是求训练集的平方误差函数(squared error function),Cost Function可表示为:
并且选取合适的参数使其最小化,数学表示如下:
3) Cost function intuition I(直观解释1)
直观来看,线性回归主要包括如下四大部分,分别是Hypothesis, Parameters, Cost Function, Goal:
这里作者给出了一个简化版的Cost function解释,也就是令θ0为0:
然后令θ1分别取1、0.5、-0.5等值,同步对比hθ(x)和J(θ0,θ1)在二维坐标系中的变化情况,具体可参考原PPT中的对比图,很直观。
4) Cost function intuition II(直观解释2)
回顾线性回归的四个部分,这一次不在对Cost Function做简化处理,这个时候J(θ0,θ1)的图形是一个三维图或者一个等高线图,具体可参考原课件。
可以发现,当hθ(x)的直线越来越接近样本点时,J(θ0,θ1)在等高线的图中的点越来越接近最小值的位置。
5) Gradient descent(梯度下降)
应用的场景之一-最小值问题:
对于一些函数,例如J(θ0,θ1)
目标: minθ0,θ1J(θ0,θ1)
方法的框架:
1、给θ0, θ1一个初始值,例如都等于0
2、每次改变θ0, θ1的时候都保持J(θ0,θ1)递减,直到达到一个我们满意的最小值;
对于任一J(θ0,θ1) , 初始位置不同,最终达到的极小值点也不同,例如以下两个例子:
梯度下降算法:
重复下面的公式直到收敛:
举例:
参数正确的更新过程如下(同步更新):
错误的更新过程如下:
6) Gradient descent intuition(梯度下降直观解释)
举例,对于一个简化的J(θ1)来说,无论抛物线的左边还是右边,在梯度下降算法下,θ1)都是保持正确的方向(递增或递减)
对于learning rate(又称为步长)来说:
如果α过小,梯度下降可能很慢;如果过大,梯度下降有可能“迈过”(overshoot)最小点,并且有可能收敛失败,并且产生“分歧”(diverge)
梯度下降可以使函数收敛到一个局部最小值,特别对于learning rate α是固定值的时候:
当函数接近局部最小值的时候,梯度下降法将自动的采取“小步子”, 所以没有必要随着时间的推移减小learning rate.
关于梯度下降算法,可以参考维基百科的介绍: http://zh.wikipedia.org/wiki/%E6%A2%AF%E5%BA%A6%E4%B8%8B%E9%99%8D%E6%B3%95
7) Gradient descent for linear regression(应用于线性回归的的梯度下降算法)
梯度下降算法:
线性回归模型:
J(θ0,θ1)对于θ0), θ1)求导,得:
在梯度下降算法中进行替换,就得到单变量线性回归梯度下降算法:
详细的图形举例请参考官方PPT,主要是在等高线图举例梯度下降的收敛过程,逐步逼近最小值点,其中一幅图说明:线性回归函数是凸函数(convex function),具有碗状(bowl shape)。
总结: 这里的梯度下降算法也称为”Batch” 梯度下降: 梯度下降的每一步都使用了所有的训练样本。
本文链接地址:Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”
相关文章:
- Coursera公开课笔记: 斯坦福大学机器学习第四课“多变量线性回归(Linear Regression with Multiple Variables)”
- Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)”
- Coursera公开课笔记: 斯坦福大学机器学习第七课“正则化(Regularization)”
- Coursera公开课笔记: 斯坦福大学机器学习第一课“引言(Introduction)”
- 斯坦福大学机器学习第九课“神经网络的学习(Neural Networks: Learning)”
- PRML读书会第三章 Linear Models for Regression
- PRML读书会第四章 Linear Models for Classification
- 斯坦福大学机器学习第八课“神经网络的表示(Neural Networks: Representation)”
- 斯坦福大学深度学习与自然语言处理第三讲:高级的词向量表示
- 斯坦福大学机器学习第十课“应用机器学习的建议(Advice for applying machine learning)”
出处:http://www.52nlp.cn/coursera%E5%85%AC%E5%BC%80%E8%AF%BE%E7%AC%94%E8%AE%B0-%E6%96%AF%E5%9D%A6%E7%A6%8F%E5%A4%A7%E5%AD%A6%E6%9C%BA%E5%99%A8%E5%AD%A6%E4%B9%A0%E7%AC%AC%E4%BA%8C%E8%AF%BE%E5%8D%95%E5%8F%98%E9%87%8F
Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”相关推荐
- 斯坦福大学机器学习第二课 “单变量线性回归”
斯坦福大学机器学习第二课"单变量线性回归(Linear regression with one variable)" 发表于 2012年05月6号 由 52nlp 斯坦福大学机器学 ...
- Coursera公开课笔记: 斯坦福大学机器学习第一课“引言(Introduction)”
Coursera公开课笔记: 斯坦福大学机器学习第一课"引言(Introduction)" 注:这是我在"我爱公开课"上做的学习笔记,会在52opencours ...
- Coursera公开课笔记: 斯坦福大学机器学习第七课“正则化(Regularization)”
Coursera公开课笔记: 斯坦福大学机器学习第七课"正则化(Regularization)" +13投票 斯坦福大学机器学习第七课"正则化"学习笔记, ...
- Coursera公开课笔记: 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)”
Coursera公开课笔记: 斯坦福大学机器学习第六课"逻辑回归(Logistic Regression)" 斯坦福大学机器学习第六课"逻辑回归"学习笔记,本次 ...
- Coursera公开课笔记: 斯坦福大学机器学习第四课“多变量线性回归(Linear Regression with Multiple Variables)”
Coursera公开课笔记: 斯坦福大学机器学习第四课"多变量线性回归(Linear Regression with Multiple Variables)" 斯坦福大学机器学习第 ...
- Coursera公开课笔记: 斯坦福大学机器学习第十一课“机器学习系统设计(Machine learning system design)”
Coursera公开课笔记: 斯坦福大学机器学习第十一课"机器学习系统设计(Machine learning system design)" 斯坦福大学机器学习斯坦福大学机器学习第 ...
- Ng第二课:单变量线性回归(Linear Regression with One Variable)
二.单变量线性回归(Linear Regression with One Variable) 2.1 模型表示 2.2 代价函数 2.3 代价函数的直观理解 2.4 梯度下降 2.5 梯度下 ...
- 斯坦福大学机器学习第一课“引言(Introduction)”
斯坦福大学机器学习第一课"引言(Introduction)" 一.机器学习概览 1)机器学习定义:机器学习是人工智能的一个分支,目标是赋予机器一种新的能力.机器学习的应用很广泛,例 ...
- 第二章 单变量线性回归-机器学习老师板书-斯坦福吴恩达教授
第二章 单变量线性回归 2.1 模型描述 2.2 代价函数 2.3 代价函数(一) 2.4 代价函数(二) 2.5 梯度下降 2.6 梯度下降知识点 2.7 线性回归的梯度下降 2.1 模型描述 2. ...
最新文章
- jsp 环境配置记录
- mac环境下分别用vim和Xcode运行C++(hello word)程序
- arm qt mysql插件_Ubuntu下编译ARM平台Qt的MySQL插件
- AIX 常用命令汇总(二)
- 对于Linux安装mysql5.7版本出现的问题
- 智能优化算法:树种算法-附代码
- 狂神说ElasitcSearch笔记(一)
- shell读取用户输入
- 中图分类法---- U 交通运输
- 机器人动力学与控制学习笔记(二)————机器人动力学建模
- EBS INV:物料搬运单
- 红灯停绿灯行c语言编程,C语言 实验三C语 实验三.doc
- 【软件测试】—— 基础知识总结
- 气动和液压的差异点,可能会颠覆你的认知哦!
- Mac解压Rar,7z,Zip,Winrar?Mac解压缩软件测评,推荐Mac上免费好用的解压软件,高效解压神器帮您解决苹果电脑的解压缩问题
- 北京大兴国际机北京大兴国际机场,炫酷之处,一图了解!
- Linux 之父:80486 处理器将成时代的眼泪!
- Ceph常见问题百科全书
- 常州百度大数据产业园 在沪签约引进一批企业
- hylan:linux实用 拷贝文件到U盘
热门文章
- C++五子棋(五)——实现AI落子
- 重置linux桌面,Ubuntu 18.04小贴士:重置Gnome桌面与使用隐藏的屏幕录像工具
- oracle 体系结构认识,Oracle体系结构总体认识
- eclipse java8报错_eclipse4.3安装支持Java8插件,之后就报错无法打开eclipse,求解?
- 运行pyspider时出现 : ImportError: cannot import name ‘ContextVar‘
- 爬虫学习笔记(八)—— Scrapy框架(三):CrawSpider模板
- 剑指offer03.数组中重复的数字
- 动态性是Java的特性吗_Java的动态特性有哪些?
- 火电厂给水控制系统设计
- linux查看java jdk安装路径和设置环境变量