回归一词,指的是我们根据已有的数据,预测出一个准确的输出值。

假设函数

一元线性回归的假设函数模型:

hθ(x)=θ0+θ1∗xh_{θ}(x) = θ_0 + θ_1 * xhθ​(x)=θ0​+θ1​∗x

  • xxx:表示输入变量,表示输入的特征。

  • yyy:表示目标变量,也就是预测结果。

  • (x,y)(x,y)(x,y):表示一个训练样本,用 x(i)x^{(i)}x(i) 与 y(i)y^{(i)}y(i) 来表示数据集中的第 iii 个训练样本。

  • hθ(x)h_{θ}(x)hθ​(x):表示假设函数(hypothesis),hhh 根据输入的 xxx 值来得出 yyy 值,是一个从 xxx 到 yyy 的函数映射。

  • θ0θ_0θ0​ 和 θ1θ_1θ1​:这些 θiθ_iθi​ 称为模型参数。选择不同的参数θ0θ_0θ0​ 和 θ1θ_1θ1​,会得到不同的假设函数。

在线性回归要做的就是求取最优的 θ0θ_0θ0​ 和 θ1θ_1θ1​,来让 hθ(x)h_{θ}(x)hθ​(x) 表示的直线尽量地与这些数据集中的点很好的拟合。也许就像这里的这条线一样:

代价函数

线性回归的目标是,选择最优的 θ0θ_0θ0​ 和 θ1θ_1θ1​,来让 hθ(x(i))h_{θ}(x^{(i)})hθ​(x(i)) 的值尽可能接近 y(i)y^{(i)}y(i) ,达到减少函数损失(误差)的目的:

minimzeθ0θ1(hθ(x)−y)2\mathop{minimze}\limits_{θ_{0}θ_{1}} (h_{θ}(x) - y)^{2}θ0​θ1​minimze​(hθ​(x)−y)2

由于样本数据集的总数是 mmm ,所以误差总和的平均为:

minimzeθ0θ112m∑i=1m(hθ(x(i))−y(i))2\mathop{minimze}\limits_{θ_{0}θ_{1}} \frac{1}{2m} \sum_{i=1}^{m} (h_{θ}(x^{(i)}) - y^{(i)})^{2}θ0​θ1​minimze​2m1​i=1∑m​(hθ​(x(i))−y(i))2

表达式:

minimzeθ0θ1\mathop{minimze}\limits_{θ_{0}θ_{1}}θ0​θ1​minimze​

意味着我们要找到某个 θ0θ_0θ0​ 和 θ1θ_1θ1​的值来使这个表达式的值最小。

即,一元线性回归的代价函数(Cost Function):

J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2J(θ_{0},θ_{1}) = \frac{1}{2m} \sum_{i=1}^{m} (h_{θ}(x^{(i)}) - y^{(i)})^{2}J(θ0​,θ1​)=2m1​i=1∑m​(hθ​(x(i))−y(i))2

线性回归 linear regression相关推荐

  1. Coursera公开课笔记: 斯坦福大学机器学习第四课“多变量线性回归(Linear Regression with Multiple Variables)”

    Coursera公开课笔记: 斯坦福大学机器学习第四课"多变量线性回归(Linear Regression with Multiple Variables)" 斯坦福大学机器学习第 ...

  2. Coursera公开课笔记: 斯坦福大学机器学习第二课“单变量线性回归(Linear regression with one variable)”

    Coursera公开课笔记: 斯坦福大学机器学习第二课"单变量线性回归(Linear regression with one variable)" 发表于 2012年05月6号 由 ...

  3. Ng第二课:单变量线性回归(Linear Regression with One Variable)

    二.单变量线性回归(Linear Regression with One Variable) 2.1  模型表示 2.2  代价函数 2.3  代价函数的直观理解 2.4  梯度下降 2.5  梯度下 ...

  4. Stanford机器学习---第二讲. 多变量线性回归 Linear Regression with multiple variable

    本栏目(Machine learning)包括单参数的线性回归.多参数的线性回归.Octave Tutorial.Logistic Regression.Regularization.神经网络.机器学 ...

  5. 机器学习方法:回归(一):线性回归Linear regression

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 开一个机器学习方法科普系列:做基础回顾之用,学而时习之:也拿出来与大家分享.数学水平有限,只求易懂,学习与工 ...

  6. 复盘:手推LR(逻辑回归logistics regression),它和线性回归linear regression的区别是啥

    复盘:手推LR(逻辑回归logistics regression),它和线性回归linear regression的区别是啥? 提示:系列被面试官问的问题,我自己当时不会,所以下来自己复盘一下,认真学 ...

  7. 线性回归 Linear Regression 与逻辑回归 Logistic Regression

    1 线性回归 Linear Regression 理论 线性回归模型研究多个变量x与y之间的关系,通过回归模型预测位置样本的数据. 假设函数 损失函数 损失函数寻优,最小二乘法 即: 注:最小二乘法需 ...

  8. 西瓜书+实战+吴恩达机器学习(四)监督学习之线性回归 Linear Regression

    文章目录 0. 前言 1. 线性回归参数求解方法 2. 线性回归正则化 2.1. 岭回归 2.2. LASSO 3. 局部加权线性回归 4. 广义线性模型 如果这篇文章对你有一点小小的帮助,请给个关注 ...

  9. 多元线性回归算法: 线性回归Linear Regression、岭回归Ridge regression、Lasso回归、主成分回归PCR、偏最小二乘PLS

    0. 问题描述 输入数据:X=(x1,x2,....,xm)\mathbf{X} = (x_1, x_2,...., x_m)X=(x1​,x2​,....,xm​), 相应标签 Y=(y1,y2,. ...

  10. sklearn 线性回归linear regression做分类任务

    测试了一下使用linear regression做分类任务准确率的确很高啊,我的的思路是: 需要预测的是 0 1 ,而linear regression本来的预测值是连续变量 把linear regr ...

最新文章

  1. 视频直播技术详解(5)延迟优化
  2. angularjs $watch
  3. Android选项切换条SHSegmentControl
  4. Python 第五章 数据预处理
  5. 无人驾驶入门(camera篇)
  6. [USACO16OPEN]262144
  7. Android 进程的五种生命周期学习
  8. 说不尽的洒脱:不义而富且贵,于我如浮云
  9. 2018年度中国LC3盛大召开!
  10. 并发编程学习之线程池
  11. php开心农场 源码,开心农场源码(UCHome)PHP版下载
  12. c++经典小游戏,源码奉上(免费复制)
  13. matlab对图片裁剪处理
  14. 在linux上删除文件夹,在Linux系统下删除文件夹
  15. amr java 播放_Java ME中.amr文件的语音或音频播放器
  16. 格式刷只能刷一次?教你如何刷一辈子
  17. pygame 躲避僵尸
  18. 【bzoj2360】【cstc2011】【幸福路径】【倍增+floyd】
  19. 这是二哈和柯基生下的宝宝?哈撒给,简直太可爱了...
  20. 广东省-IT红黑榜排名公司名称

热门文章

  1. idea加入springboot插件_带你搭一个SpringBoot+SpringData JPA的环境
  2. Java11安装及环境变量设置
  3. hibernate教程--持久化类状态
  4. 2020-10-14 B树 概念添加删除笔记
  5. Android中的JSONObject和JSONArray的使用
  6. java IO流面试总结
  7. linux mmu的实现的讲解_Linux中的物理内存管理 [一]
  8. 杭电1044java实现dfs bfs
  9. 杭电1978java实现
  10. 杭电OJ1069java实现