回归中的相关度和决定系数
1.皮尔逊相关系数(Pearson Correlation Coefficient)
1)衡量两个值线性相关强度的量;
2)取值范围:[-1,1]
正向相关:>0,负向相关:<0,无相关性:=0
3)定义
2.R平方值
1)定义:决定系数,反应因变量的全部变异能通过回归关系被自变量解释的比例;
2)描述:如R平方为0.8,则表示回归关系可以解释因变量80%的变异;即如果自变量不变,则因变量的变异程度会减少80%
3)简单线性回归:R^2=r*r
多元线性回归:
3.R平方局限性
R平方随着自变量的增大会变大,R平方和样本量是有关系的。所以,需要对R平方进行修正,修正方法为:
4.代码实现相关系数和R平方的计算
1)代码
# -*- coding: utf-8 -*-
import numpy as np
from astropy.units import Ybarn
import math
#根据相关系数计算公式给出实现过程
def computerCorrelation(X,Y):
xBar = np.mean(X)
yBar = np.mean(Y)
SSR = 0
varX = 0
varY = 0
for i in range(0,len(X)):
diffXXBar = X[i]-xBar
diffYYBar = Y[i]-yBar
SSR+=(diffXXBar*diffYYBar)
varX += diffXXBar**2
varY += diffYYBar**2
SST = math.sqrt(varX*varY)
return SSR/SST
#计算R平方
#degree为最高次的数值
def polyfit(X,Y,degree):
results = {}
#调用函数实现回归中参数计算
coeffs = np.polyfit(X,Y,degree)
#将结果转化为list
results["polynomial"] = coeffs.tolist()
#传入参数给出预测方程
p = np.poly1d(coeffs)
#给出y的预测值
yhat = p(X)
ybar = np.sum(Y)/len(Y)
ssreg = np.sum((yhat-ybar)**2)
sstot = np.sum((Y-ybar)**2)
results["determirnation"] = ssreg/sstot
return results
testX = [1,3,8,7,9]
testY = [10,12,24,21,34]
print("r:",computerCorrelation(testX,testY))
#线性相关时的特殊情况
print("r平方:",computerCorrelation(testX,testY)**2)
print("r平方",polyfit(testX,testY,1)["determirnation"])
2)结果
r: 0.940310076545
r平方: 0.884183040052
r平方 0.884183040052
3)结果说明
在一元线性相关的情况下:R^2=r*r
回归中的相关度和决定系数相关推荐
- 9.回归中的相关度和决定系数
起步 训练集中可能有若干维度的特征.但有时并不是所有特征都是有用的,有的特征其实和结果并没有关系.因此需要一个能衡量自变量和因变量之间的相关度. 皮尔逊相关系数 皮尔逊相关系数( Pearson co ...
- 机器学习之回归中的相关度和决定系数
目录 1. 相关度 1.1 相关度(Relevancy) 1.2 应用实例 2. 决定系数(R^2) 机器学习中关于回归模型有时候需要衡量自变量和因变量之间的相关度,接下来介绍两个衡量相关度的指标: ...
- 机器学习——回归中的相关度与R平方值及其应用
1.皮尔逊相关系数(Pearson Correlation Coeffident) (1)衡量两个值线性相关的强度 (2)取值范围[-1,1]:正向相关>0:负向相关<0:无相关性=0. ...
- python中相关系数_day-14 回归中的相关系数和决定系数概念及Python实现
衡量一个回归模型常用的两个参数:皮尔逊相关系数和R平方 一.皮尔逊相关系数 在统计学中,皮尔逊相关系数( Pearson correlation coefficient),又称皮尔逊积矩相关系数(Pe ...
- 深度学习基础09---回归中的相关度和决定系数
前面几篇文章写了线性回归和非线性回归的一些基本知识和应用,这篇文章写一下如何衡量x与y的相关性,首先来看一些基本概念: 1.皮尔逊相关系数(Pearson Correlation Coefficien ...
- 回归中的相关系数和决定系数概念及Python实现
衡量一个回归模型常用的两个参数:皮尔逊相关系数和R平方 一.皮尔逊相关系数 在统计学中,皮尔逊相关系数( Pearson correlation coefficient),又称皮尔逊积矩相关系数(Pe ...
- 机器学习-回归中的相关度和R平方值
1. 皮尔逊相关系数(Pearson Correlation Coefficient) 1.1 衡量两个值线性相关强度的量 1.2 取值范围[-1, 1] 正相关:>0, 负相关:<0, ...
- 梯度下降原理及在线性回归、逻辑回归中的应用
1 基本概念 1)定义 梯度下降法,就是利用负梯度方向来决定每次迭代的新的搜索方向,使得每次迭代能使待优化的目标函数逐步减小. 梯度下降法是2范数下的最速下降法. 最速下降法的一种简单形式是:x(k+ ...
- 吴恩达深度学习 —— 2.9 逻辑回归中的梯度下降法
这一节讨论怎么计算偏导数来实现逻辑回归的梯度下降法,它的核心关键点是其中有几个重要法公式用于实现逻辑回归的梯度下降法. 这里将使用导数流程图来计算梯度,必须承认,用导数流程图来计算逻辑回归的梯度下降有 ...
- c语言statistics函数,Logistic回归中C-Statistics计算方法
1. 背景知识 上一节中我们讲解了R语言在Cox回归模型中计算C-index的方法,参见:预测模型系列 05 -- Cox回归中C-index的两种常用计算方法.本节我们将介绍用R语言计算Logist ...
最新文章
- mysql数据依赖关系_发现数据库对象的依赖关系
- Java设计模式(十四):MVC设计模式
- optee:kernel space调用user space进程时候的硬件行为
- 【分享】VRRP不懂不行
- return和break的区别
- Oracle入门(十二J)之同义词
- 动态改变_Excel中如何动态改变可编辑区域?
- python常用代码大全-Python常用库大全及简要说明
- 自定义git忽略规则
- 传智播客-刘意-java深入浅出精华版学习笔记Day03
- 推券客微信公众号查询淘宝优惠券返利系统的设置教程
- 简单工厂模式、工厂模式以及抽象工厂模式(具体)
- html鼠标悬停改变背景,html - 更改鼠标悬停行的背景颜色 - SO中文参考 - www.soinside.com...
- 系统架构改进--多系统用户整合
- C语言实现格林威治时间转北京时间+根据日期计算星期几
- Linux十大常用命令
- html中css如何设置显示国旗,CSS3 各国国旗
- 2022CCPC广州 CM
- hexo博客中插入图片失败——解决思路及个人最终解决办法
- 华为运营商级路由器配置示例 | 配置VPLS over TE示例(LDP方式)
热门文章
- 前端扁平化数据转树形数据_javascript将扁平的数据转为树形结构的几种方法
- 软件开发七宗罪(转)
- android编译系统分析一:source build/envsetup.sh与lunch
- linux中的.sh文件是什么
- IDEA创建项目时弹出链接超时的提示,亲测好用的解决办法
- A Busiest Computing Nodes(线段树+优先队列)
- 使用大白菜U盘重装系统
- 程序员必修课-颈椎问题的预防
- 汇编指令中 Rd Rm Rn Ra 的 具体含义 ?
- 云智慧全智能计算机,东方所推出INV3062T型云智慧采集系统