简单线性回归(Simple Linear Regression)

0.前提介绍:
为什么需要统计量?
统计量:描述数据特征
0.1集中趋势衡量
0.1.1均值(平均数,平均值) (mean):(求和除以个数,Ex也可以表示x求均值)

0.1.2中位数(median) : 将数据中的各个数值按照大小顺序排列,居于中间位置的变量
0.1.2.1.给数据排序: 1,2,2,6,9
0.1.2.2.找出位置处于中间的变量: 2
当n为奇数的时候:直接取位置处于中间的变量
当n为偶数的时候,取中间两个量的平均值
0.1.2众数(mode) : 数据中出现次数最多的数
0.2.1.离散程度衡量
0.2.1.1方差(variance):

例如:{6, 2,9,1, 2}
(1)(6- 4)^2 + (2- 4)^2 + (9- 4)^2 +(1- 4)^2 + (2- 4)^2
=4+4+25+9+4= 46
(2) n-1=5-1=4
(3) 46/ 4 = 11.5
0.2.1.2标准差(standard deviation):方差开平方

S= sqrt(11.5) = 3.39
1.回归问题与分类问题区别:
回归(regression) :Y变量为连续数值型( continuous numerical variable)
如:房价,人数,降雨量
分类( Classification): Y变量为类别型(categorical variable)
如:颜色类别,电脑品牌,有无信誉

2.简单线性回归( Simple Linear Regression)
2.1很多做决定过过程通常是根据两个或者多个变量之间的关系
2.3回归分析(regression analysis)用来建立方程模拟两个或者多个变量之间如何关联
2.4被预测的变量叫做:因变量(dependent variable), y,即输出(output)
2.5被用来进行预测的变量叫做:自变量(independent variable), x,即输入(input)
3.简单线性回归介绍
3.1简单线性回归包含一个自变量(x)和一 个因变量(y)
3.2以上两个变量的关系用一条直线来模拟
3.3如果包含两个以上的自变量,则称作多元回归分析( multiple regression)
4.简单线性回归模型
4.1被用来描述因变量(y)和自变量(X)以及偏差(error)之间关系的方程叫做回归模型
4.2简单线性回归的模型是:

β为参数,X为自变量,ε为偏差
5.单线性回归方程:(ε满足正态分布,切均值为0)
E(y)=β0+β1x
这个方程对应的图像是一条直线, 称作回归线
其中,β0是回归线的截距
β1是回归线的斜率
E(y)是在一个给定x值下y的期望值(均值)
6.正向线性关系:

7.负向线性关系:

8.无关系:(斜率等于0)


9.估计的简单线性回归方程

b0为截距β0的估计值,b1是斜率β1的估计值
这个方程叫做估计线性方程( estimated regression line)
其中,bo是估计线性方程的纵截距
b是估计线性方程的斜率
y是在自变量x等于一个给定值的时候,y的估计值

10.线性回归分析流程:(ε的期望值(均值)为0,所以E(y)无ε)

11.关于偏差ε的假定
11.1是一个随机的变量,均值(或期望值)为0
11.2 ε的方差(variance)对于所有的自变量x是一样的
11.3 ε的值是独立的
11.4 ε满足正态分布
简单线性回归(Simple Linear Regression)下

简单线性回归模型举例:

汽车卖家做电视广告数量与卖出的汽车数里:

1.1如何练处适合简单线性回归模型的最佳回归线?

最佳回归线标准:(实际值y为红点,估计值y(hat)为线上的值)

使sum of squares(平方和)最小:

1.1.2最佳回归线计算

b0为截距β0的估计值,b1是斜率β1的估计值,(y ̅ 和x ̅ 都经过这条线,带入b1可求出b0)
分子= (1-2)(14-20)+(3-2)(24-20)+(2-2)(18-20)+(1-2)(17-20)+(3-2)(27-20)
=6+4+0+3+7
= 20
分母= (1-2) ^2 +(3-2)^2 +(2-2)2+(1-2)2+ (3-2)^2
=1+1+0+1+1
=4
b1 = 20/4 =5
b0=20-5*2=20- 10= 10
实例code:

import numpy as np
def fitSLR(x,y):n = len(x) #x,y长度一样,包含相同元素个数denominator = 0 #分母,计算完数据后不会为0,numeritor = 0 #分子for i in range(0,n):#实例有n组数numeritor += (x[i]-np.mean(x))*(y[i]-np.mean(y))denominator += (x[i]-np.mean(x))**2 print('numeritor:',numeritor)print('denominator:',denominator)b1 = numeritor/float(denominator)b0 = np.mean(y) - (b1*np.mean(x))return b0,b1
def predict(x,b0,b1): #这里x为要预测的实例的值y_test=b0+b1*xreturn y_testx = [1,3,2,1,3]
y = [14,24,18,17,27]
b0,b1 = fitSLR(x=x,y=y)
print('intercept:',b0)
print('slope:',b1)x_test = 6
y_test = predict(x_test,b0,b1)
print('y_test:',y_test)

其中x_ given= 6(实例)
==Y_ hat=5*6+ 10 = 40 ==
运行结果如下:
numeritor: 20.0
denominator: 4.0
intercept: 10.0
slope: 5.0
y_test: 40.0

多元线性回归(Multiple Regression)上

多元回归分析( multipleregression)
1.与简单线性回归区别( simple linear regression):
MR有多个自变量(x)
2.多元回归模型
y=β0+β1 X1+β2X2+ … +βpXp+ε (多元的平面)
其中:β0(截面), β1, β2…βp是参数
ε是误差值
3.多元回归方程(等式左右同时取期望值,等式右边取期望值等于所有个体的期望值之和)
E(y)=β0+β1x1+B2X2+ … +βpXp
4.估计多元回归方程:
y_hat=b0+b1 x+b2x2+ … +bpXp
一个样本被用来计算β0, β1, β2… βp的点估计值分别为b0, b1, b2…,bp

5.估计流程(即预测过程,与简单线性回归类似一样)

Regression Model:y=β0+β1x+β2x+….βpx+ε,以下同理变化
Sample Data:现实中很多数据是难以统计完全的,所以用抽取的样本来计算.
6.估计方法
使sum of squares(平方和)最小:(多元曲面上估算值到实际值的差之和最小)

运算与简单线性回归类似,涉及到线性代数和矩阵的运算
7.例子(使用python计算)
一家快递公司送货 , X1 :运输里程(mile);X2 :运输次数;Y :总运输时间(h).

Time = b0+ b1Miles + b2Deliveries
计算结果:(下节课做详细运算)
Time = -0.869 + 0.0611 Miles + 0.923 Deliveries
8.描述参数含义
b0: 常数项
b1: 平均每多运送一英里,运输时间延长0.0611小时
b2:平均每多一次运输, 运输时间延长0.923小时

9.预测
如果一个运输任务是跑102英里,运输6次,预计多少小时?
Time = -0.869 +0.0611102+ 0.923 6=10.9 (小时)
10.如果自变量(x)中有分类型变量( categorical data) ,如何处理?
(regression与classfication的区别在于y是否连续)
答:x既可以使用连续性变量也可以使用分类型变量

0,1,2只是作为标签,与其本身大小无关

11.关于误差的分布
误差ε是一个随机变量,均值为0
ε的方差对于所有的自变量来说相等
所有ε的值是独立的
ε满足正态分布,并且通过β0+ β1 x1+β2x2+ … +βpxp反映y的期望值

多元线性回归(Multiple Regression)下

一家快递公司送货 , X1 :运输里程(mile);X2 :运输次数;Y :总运输时间(h).

目的,求出b0, b1,…bp:
Y_ hat=b0+b1X1+b2X2+ … +bpXp.

多元线性回归code实例:

from numpy import genfromtxt #将csv文件的数据转换成np的array形式
import numpy as np
from sklearn import datasets,linear_model#1.导入数据
dataPath = r'C:\Users\Administrator.Bili-2019LEMOKD\Desktop\新建文件夹\Delivery.csv'
DeliveryData = genfromtxt(dataPath,delimiter=',') #genfromtxt将数据转换成矩阵形式;csv文件每个cell以逗号为分隔符,所以分隔符为","
print(DeliveryData) #会自动将文件中的数据读取并转换为矩阵形式,并放到文件的第一行第一列开始
X = DeliveryData[:, :-1]#取所有维度第一(0)列和第二(1)列的数作为x(取左不取右,所以不含倒数第一列)
# print(X)
Y = DeliveryData[:,-1]
# print(Y)#2.建模
regr = linear_model.LinearRegression()
regr.fit(X,Y)
print('coefficient:',regr.coef_)   #x的系数(b1~bp)
print('intercept',regr.intercept_) #截距(面)#3.预测
xSample = np.array([[102,6]]) #array!!
yPred = regr.predict(xSample)
print('predicted y:',yPred)

运行结果如下:
[[100. 4. 9.3]
[ 50. 3. 4.8]
[100. 4. 8.9]
[100. 2. 6.5]
[ 50. 2. 4.2]
[ 80. 2. 6.2]
[ 75. 3. 7.4]
[ 65. 4. 6. ]
[ 90. 3. 7.6]
[ 90. 2. 6.1]]
coefficient: [0.0611346 0.92342537]
intercept -0.868701466781709
predicted y: [10.90757981]

如果自变量中有分类型变量(categorical data) :
将车型Dummy Varible转换成0和1:

同样可以用上面的代码执行:

from numpy import genfromtxt #将csv文件的数据转换成np的array形式
import numpy as np
from sklearn import datasets,linear_model#1.导入数据
dataPath = r'C:\Users\Administrator.Bili-2019LEMOKD\Desktop\新建文件夹\DeliveryDummy.csv'
eliveryData = genfromtxt(dataPath,delimiter=',')
print(DeliveryData)
'''打印出结果如果莫名多出几行(-1或nan),可能是复制数据到csv文件时有空数据,进入csv删除那几行即可'''
X = DeliveryData[:, :-1]
print('X:',X)
Y = DeliveryData[:,-1]
print('Y:',Y)#2.建模
regr = linear_model.LinearRegression()
regr.fit(X,Y)
print('coefficient:',regr.coef_)   #x的系数(5个x,b1~b5)
print('intercept',regr.intercept_) #截距(面)#3.预测
xSample = np.array([[102,6,0,1,0]]) #array!!
yPred = regr.predict(xSample)
print('predicted y:',yPred)

运行结果如下:
[100. 4. 0. 1. 0. 9.3]
[ 50. 3. 1. 0. 0. 4.8]
[100. 4. 0. 1. 0. 8.9]
[100. 2. 0. 0. 1. 6.5]
[ 50. 2. 0. 0. 1. 4.2]
[ 80. 2. 0. 1. 0. 6.2]
[ 75. 3. 0. 1. 0. 7.4]
[ 65. 4. 1. 0. 0. 6. ]
[ 90. 3. 1. 0. 0. 7.6]]
X: [[100. 4. 0. 1. 0.]
[ 50. 3. 1. 0. 0.]
[100. 4. 0. 1. 0.]
[100. 2. 0. 0. 1.]
[ 50. 2. 0. 0. 1.]
[ 80. 2. 0. 1. 0.]
[ 75. 3. 0. 1. 0.]
[ 65. 4. 1. 0. 0.]
[ 90. 3. 1. 0. 0.]]
Y: [9.3 4.8 8.9 6.5 4.2 6.2 7.4 6. 7.6]
coefficient: [ 0.05553544 0.69257631 -0.17013278 0.57040007 -0.40026729]
intercept 0.1999568891188126
predicted y: [10.59042938]

简单线性回归(Simple Linear Regression)和多元线性回归(Multiple Regression)学习笔记相关推荐

  1. 浅谈简单线性回归(Simple linear regression)part3SEE,MSE,SSE的关系

    浅谈简单线性回归(Simple linear regression)part3SEE,MSE,SSE的关系 MSE→均方根误差(各数据偏离真实值 差值的平方和 的平均数 )→Meansquared e ...

  2. 浅谈简单线性回归(Simple linear regression)part1原理推导

    初等数学➡已知方程求未知数 高等数学→已知未知数,求方程(从数据中获得结论) 那么今天就从里面最简单的线性回归(Simple linear regression)开始学起 最简单的理解就是通过一些列运 ...

  3. python 多元线性回归_numpy - Python中的多元线性回归

    numpy - Python中的多元线性回归 我似乎无法找到任何进行多重回归的python库. 我发现的唯一的东西只做简单的回归. 我需要对几个自变量(x1,x2,x3等)回归我的因变量(y). 例如 ...

  4. python多元线性回归模型案例_Python 实战多元线性回归模型,附带原理+代码

    原标题:Python 实战多元线性回归模型,附带原理+代码 作者 | 萝卜 来源 | 早起Python( ID:zaoqi-python ) 「多元线性回归模型」非常常见,是大多数人入门机器学习的第一 ...

  5. 【机器学习】线性回归之梯度下降、多元线性回归概述

    线性回归是一种监督学习方法.  对每个样本来说: Hypothesis: 即: 其中, 为预测值, 为样本的第i个特征,且:  为该特征下的权重,bias偏差.线性回归就是要在已有的样本特征和标签下学 ...

  6. numpy多元线性回归_使用sklearn实现多元线性回归

    使用sklearn实现多元线性回归 多元线性回归 import pandas as pdimport numpy as npimport matplotlib.pyplot as pltfrom sk ...

  7. 多元线性回归matlab代码例题_多元线性回归matlab程序

    %多元线性回归求解 clear clc x=[120731808012512581.190 133.02731808012512581.190 129.63731808012512581.190 15 ...

  8. 多元线性回归matlab代码例题_matlab多元线性回归

    1.matlab多元回归示例如下: 解决问题:油价预测 方法:多元线性回归 实现:matlab regress()函数 技巧:通过增加X1^2,X2^2,或者X1*X2等构造的特征项,可以提高回归模型 ...

  9. matlab 线性回归 参数显著性,matlab建立多元线性回归模型并进行显著性检验及预测问题...

    matlab建立多元线性回归模型并进行显著性检验及预测问题 例子; x=[143 145 146 147 149 150 153 154 155 156 157 158 159 160 162 164 ...

  10. python多元线性回归预测法,Python-Tensorflow2.3.0-多元线性回归预测(学习笔记)

    Python-Tensorflow2.3.0-多元线性回归预测(学习笔记) Python-Tensorflow2.3.0-多元线性回归预测(学习笔记) 编译器环境:win10-Anaconda3-py ...

最新文章

  1. 个人推广网站不花钱的一些方法
  2. JAVA操作MYSQL数据库
  3. php 定义title,HTML5中对title属性的定义与规定
  4. C#的未来:简化参数空值验证
  5. [vue] 怎么解决vue动态设置img的src不生效的问题
  6. Linux——alias 设置别名详解
  7. 我该学习哪个人工智能系统
  8. OpenShift 4 - Knative教程 (5) Eventing之Source和Sink
  9. SpringSecurity-1-AuthenticationFailureHandler接口(登录失败之后的处理逻辑)
  10. 自己动手编译android ffmpeg
  11. 酒桌扑克娱乐喝酒小游戏微信小程序源码下载多娱乐功能支持流量主
  12. 音视频编码格式和封装格式的关系和区别是什么?
  13. Pos应用与扫盲一路通
  14. 九、多线程(高琪java300集+java从入门到精通笔记)
  15. 计算机网络中tdm是什么,8.1 计算机网络FDM TDM计算机网络自学笔记.pdf
  16. C库源码中的移位函数
  17. 薅资本主义羊毛新姿势,英伟达K80免费用
  18. Web前端之CSS语法与选择器
  19. 【观察】从鞍钢数字化转型升级,看如何打造智能制造数据坚实底座?
  20. java vips_Java IConfigManager.getAllVIPs方法代碼示例

热门文章

  1. 13--长度最小的子数组
  2. 【机器学习】图片中的人脸识别
  3. Django中的核心思想ORM---元类实现ORM
  4. JS_17 ES5,ES6
  5. ioread32函数有关知识
  6. 多线程编程 RW_LOCK 读写锁
  7. SOCKET通信的基本步骤
  8. navicat远程mysql_navicat 远程连接mysql
  9. 和redis_Redis 缓存
  10. WCF入门(五)---创建WCF服务