阅读提示

为了更好理解这篇文章,你可能需要了解:两因素方差分析

平方和的分解

方差分析模型

虚拟变量

推荐先阅读

文中涉及到的代码只是为了验算,如果不熟悉代码的同学可以忽略,直接看结果就行。也可以自己动手尝试用SPSS验算。

1 先来回顾一下平方和

平方和(Sum of Squares)指:对离均差的平方求和。平方和体现了数据总体的变异性。用平方和除以自由度,得到了数据平均的变异性,也就是我们熟悉的方差。

计算平方和是进行方差分析的重要步骤,毕竟方差就是要通过平方和得出。以一个

两因素方差分析为例,我们可以按照如下步骤计算平方和。

其中

表示自变量

的各水平,

表示自变量

的各水平,

表示各处理中观测值的序号总平方和

:各观测值

与总均值

的离均差平方,再求和

组间平方和

:组均值

与总均值

的离均差平方,乘以该组的观测值数量

,再求和。可以理解为,此时忽略各组内部的误差,用该组的组均值来表示该组的每一个观测值。毕竟此时计算的只是各个处理的变异,理所当然要忽略掉由误差带来的组内变异。也就是说,可以将数据表示为:

组内平方和

:各组的观测值

与该组的组均值

的离均差平方,再求和,然后再对所有组的求和。此时体现了各组内部的变异。

可以发现此时的总平方和刚好等于组内平方和与组间平方和之和。

完全将

给瓜分了。

不过还没有分解完,对于多因素设计来说,组间平方和还可以进一步分解为主效应和交互作用。主效应平方和

:此时单独考虑某个自变量带来的效应。例如计算

时暂时先不考虑

因素,此时

因素将原始数据划分成了三组,可以将数据写为:

此时由于

因素被忽略了,所以下标

也就不需要了。现在每一组的观测值数量是

,按照刚才计算组间平方和的逻辑,此时由

因素单独带来的变异为:

同理,只考虑

因素时的分组为(各处理样本量为3n=12):

交互作用平方和

:此时单独考虑交互作用的话,同样是将原始数据分成了6组,毕竟每个处理理论上都附加了交互作用。那么此时的交互作用对应的组均值就是原始数据的组均值吗?NO!NO!NO!,如果这样做的话你发现计算出来的交互作用平方和与组间平方和一模一样。交互作用是指总平均叠加上A的主效应和B的主效应之后,额外多出来的那一部分。以

组为例,按照刚才的计算,单独考虑A因素时的效应(组均值)是

,总均值是

,意味着

带来的效应是

;同理,

带来的效应是

。所以,单独考虑交互作用时,

的效应是

。按照这种算法,交互作用单独带来的效应:

至此,平方和全都分解完毕,可以看到组间平方和

也刚好被主效应以及交互作用瓜分完毕

是不是所有的平方和都是这么分解呢?NO!NO!NO!当然不是,刚才的这种分解方法仅限于等组设计,如果各处理的观测值数量(样本量)不相等时,刚才这种方法就不可行了。

2 不等组设计的平方和

让我们对之前的数据动动小手术,改为:

尝试一下传统的平方和分解

按照之前的方法,先计算总平方和:

组内平方和:

组间平方和(此时由于各组样本量不同,所以

在求和符号里面):

这三个都没有问题,但是。

重头戏来了,组间平方和,该怎么进一步分解呢?

因素的主效应为例。如果按照之前的思路:先考虑只有

因素影响时的分组,计算

的组均值,再按照组间平方和的方法求出

因素主效应,可以吗?

万万不可!!!!

因为此时

因素的影响不对等,导致

的效应没有相互抵消,此时的组均值不能完全体现

的独立效应。

中8个数据有3个来自于

,5个来自于

;

中9个数据有4个来自于

,5个来自于

;

中7个数据有3个来自于

,4个来自于

本来的目的是:忽略掉

的影响,计算只有

带来的效应,但此时**

还是通过不等组的样本量带来了影响。**

此时再想通过平方和分解这条路走下去实在是太困难了,让我们换一个思路。

线性模型登场,利用模型比较计算平方和

两因素方差分析的线性模型可表示为:

具体到本文的例子,则

可以把模型2.1叫做全模型,因为其包含了所有因素的影响

如果对模型2.1进行回归分析,可以计算出残差平方和:

其中

就是观测值,

是基于模型2.1的预测值。(为了偷懒我省略了下标,哈哈)

体现了误差带来的影响。

现在去掉全模型中的

因素主效应,得到

此时的模型2.2只包含了

因素主效应和

的交互作用,如果计算模型2.2的残差平方和

此时的

就包含了误差的变异,以及A因素主效应的变异。接下来要计算

的主效应,就是很简单的减法了。

此时,便可以按照常规的方差分析,计算自由度,计算方差,计算

值,做出假设检验了。当然,此时

值的分母就是

,其实就是组内方差。

让我们换一个角度理解。一个模型的残差越大,说明这个模型未解释的变异越多,此时

相当于是模型2.2与模型2.1残差的比较,如果

很小,统计上不显著,那么说明两个模型差不多,也就是去掉了A主效应之后的模型同样能够很好解释变异,A主效应没啥用。此时,我们通过模型的比较分析了

的主效应

同理,将

因素从全模型中去掉:

计算模型2.3的残差平方和

那么

因素的主效应平方和为:

将交互作用从全模型中去掉:

模型2.4的残差平方和:

交互作用平方和为:

好了,计算的思路有了,上面的公式都很简单,关键是计算预测值。不过我当然不会蠢到用笔算,接下来就是动键盘开算了。

数据实例计算

还是利用本章一开始的例子,引入虚拟变量进行回归分析。(关于两因素设计的虚拟变量可以参考

接下来是代码:

from statsmodels.formula.api import ols #拟合线性模型的包

from statsmodels.stats.anova import anova_lm#进行方差分析的包

import pandas as pd

import numpy as np

data={

'XA1': [1,1,1,1,1,1,1,1,0,0,0,0,0,0,0,0,0,-1,-1,-1,-1,-1,-1,-1],

'XA2': [0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,-1,-1,-1,-1,-1,-1,-1],

'XB1': [1,1,1,-1,-1,-1,-1,-1,1,1,1,1,-1,-1,-1,-1,-1,1,1,1,-1,-1,-1,-1],

'XAB11':[1,1,1,-1,-1,-1,-1,-1, 0,0,0,0, 0,0,0,0,0,-1,-1,-1,1,1,1,1],

'XAB21':[0,0,0, 0,0,0,0,0,1,1,1,1, -1,-1,-1,-1,-1,-1,-1,-1,1,1,1,1],

'Y':[6,3,3,6,3,5,5,2,7,6,7,5, 8,7,8,9,8, 9,7,5,10,12,11,7],

'A':[1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,2,2,3,3,3,3,3,3,3],

'B':[1,1,1,2,2,2,2,2,1,1,1,1,2,2,2,2,2,1,1,1,2,2,2,2]

}#其中前5行是虚拟变量,Y是观测值,A,B是分类变量

df=pd.DataFrame(data)

model_full=ols('Y~XA1+XA2+XB1+XAB11+XAB21',data=df).fit()#全模型回归

model_A=ols('Y~XB1+XAB11+XAB21',data=df).fit()#去掉A因素主效应

model_B=ols('Y~XA1+XA2+XAB11+XAB21',data=df).fit()#去掉B因素主效应

model_R=ols('Y~XA1+XA2+XB1',data=df).fit()#去掉交互作用

model_anova=ols('Y~C(A,Sum)*C(B,Sum)',data=df).fit()#用分类变量进行方差分析

anova_Result=anova_lm(model_anova,typ=3)

SSE=model_full.mse_resid*model_full.df_resid#全模型残差

SSEA=model_A.mse_resid*model_A.df_resid#去A模型残差

SSEB=model_B.mse_resid*model_B.df_resid#去B模型残差

SSER=model_R.mse_resid*model_R.df_resid#去交互模型残差

print(SSEA-SSE,SSEB-SSE,SSER-SSE)

#依次打印A主效应平方和,B主效应平方和,交互作用平方和

74.03142710822807 15.639893617021286 7.082980539433265

print(anova_Result)#打印方差分析结果

sum_sq df F PR(>F)

Intercept 993.384574 1.0 410.583751 7.687336e-14

C(A, Sum) 74.031427 2.0 15.299262 1.311731e-04

C(B, Sum) 15.639894 1.0 6.464250 2.041777e-02

C(A, Sum):C(B, Sum) 7.082981 2.0 1.463762 2.576274e-01

Residual 43.550000 18.0 NaN NaN

可以看到,方差分析计算的结果与回归计算的结果相同。对代码不太熟悉的小伙伴也可以自己动手用SPSS的回归(regression)来做,结果是一样的。贴一张SPSS的数据图:

3 Ⅲ型平方和与Ⅰ型平方和

Ⅲ型平方和

啰嗦了这么半天,终于说到主题了!

实际上,刚才已经解释了什么叫做Ⅲ型平方和:在多因素不等组设计中,各效应的Ⅲ型平方和等于缺少该效应模型的残差减去全模型的残差。

细心的小伙伴肯定发现了,刚才计算的主效应平方和与交互作用平方和加起来不等于组间平方和(保留两位小数):

这是由于数据的不等组,导致了各效应不正交,从而导致组间平方和不能完全分解。

从这里也可以看到,如果我们非要使用常规的平方和分解方法,把不等组设计的组间平方和完全分解,那么计算出来的主效应平方和实际上混杂了其他效应的影响。

Ⅰ型平方和

Ⅰ型平方和的提出,实际上就是为了针对主效应和交互作用不能完全瓜分组间平方和的情况。

Ⅰ型平方和也叫做“顺序”(sequential,翻译可能不是很好,呵呵)平方和。顾名思义,计算Ⅰ型平方和时需要考虑因素的“入场顺序”。注意:只是考虑主效应的入场顺序

例如,在上例中,一开始先假定没有任何因素的影响,将模型写为:

之后,

因素入场了:

此时模型3.1与模型3.2的残差之差,就是

因素的主效应。

接下来,

因素入场

此时3.2与3.3的残差之差,就是

因素的主效应

最后,交互作用入场,也就是全模型了

此时模型3.3与3.4的残差之差,就是交互作用效应。

当然,此时我们可以将

主效应和

主效应的进场顺序调换。但是!但是!但是!**交互作用效应只能最后进场!!**这一点非常容易理解:主效应都还没来,交互作用怎么出现呢?

Ⅰ型平方和实例计算

接下来通过之前的例子计算一下Ⅰ型平方和。

代码如下(同样,对代码不熟悉的小伙伴也可以用SPSS验算,虽然稍微麻烦一点)首先定义模型 注意到此时把所有可能的模型都写出来了

from statsmodels.formula.api import ols #拟合线性模型的包

from statsmodels.stats.anova import anova_lm#进行方差分析的包

import pandas as pd

import numpy as np

data={

'XA1': [1,1,1,1,1,1,1,1,0,0,0,0,0,0,0,0,0,-1,-1,-1,-1,-1,-1,-1],

'XA2': [0,0,0,0,0,0,0,0,1,1,1,1,1,1,1,1,1,-1,-1,-1,-1,-1,-1,-1],

'XB1': [1,1,1,-1,-1,-1,-1,-1,1,1,1,1,-1,-1,-1,-1,-1,1,1,1,-1,-1,-1,-1],

'XAB11':[1,1,1,-1,-1,-1,-1,-1, 0,0,0,0, 0,0,0,0,0,-1,-1,-1,1,1,1,1],

'XAB21':[0,0,0, 0,0,0,0,0,1,1,1,1, -1,-1,-1,-1,-1,-1,-1,-1,1,1,1,1],

'Y':[6,3,3,6,3,5,5,2,7,6,7,5,8,7,8,9,8,9,7,5,10,12,11,7],

'A':[1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,2,2,3,3,3,3,3,3,3],

'B':[1,1,1,2,2,2,2,2,1,1,1,1,2,2,2,2,2,1,1,1,2,2,2,2]

}#其中前5行是虚拟变量,Y是观测值,A,B是分类变量

df=pd.DataFrame(data)

model_none=ols('Y~1',data=df).fit()#零模型,即没有任何效应

#-----------------首先进场的三种情况-----------------

model_A=ols('Y~XA1+XA2',data=df).fit()#只有A因素,即A先入场

model_B=ols('Y~XB1',data=df).fit()#只有B因素,即B先入场

#------------------其次进场的情况----------------------

model_AB=ols('Y~XA1+XA2+XB1',data=df).fit()#A,B主效应同时存在

#------------------最后进场,全模型-------------------------

model_full=ols('Y~XA1+XA2+XB1+XAB11+XAB21',data=df).fit()#全模型

#------------------以下为方差分析结果---------------------

model_anova_ABR=ols('Y~C(A,Sum)+C(B,Sum)+C(A,Sum):C(B,Sum)',data=df).fit()

#用分类变量进行方差分析,进场顺序为ABR

anova_Result_ABR=anova_lm(model_anova_ABR,typ=1)#此时选择Ⅰ型平方和

model_anova_BAR=ols('Y~C(B,Sum)+C(A,Sum)+C(A,Sum):C(B,Sum)',data=df).fit()

#用分类变量进行方差分析,进场顺序为BAR

anova_Result_BAR=anova_lm(model_anova_BAR,typ=1)#此时选择Ⅰ型平方和先来计算进场顺序依次为A主效应,B主效应,AB交互作用的Ⅰ型平方和。看看结果如何

#以下计算进场顺序A-B-R的Ⅰ型平方和

SSEN=model_none.mse_resid*model_none.df_resid#零模型残差

SSEA=model_A.mse_resid*model_A.df_resid#A先进场模型残差

SSEAB=model_AB.mse_resid*model_AB.df_resid#AB模型残差,此时B第二个进场

SSEF=model_full.mse_resid*model_full.df_resid#全模型残差

SSA=SSEN-SSEA#A主效应

SSB=SSEA-SSEAB#B主效应

SSR=SSEAB-SSEF#交互作用效应

print('用回归计算的Ⅰ型平方和输出结果为:'

'\nSSA:%.3f,\nSSB:%.3f,\nSSR:%.3f'%(SSA,SSB,SSR))

#依次打印A主效应平方和,B主效应平方和,交互作用平方和

用回归计算的Ⅰ型平方和输出结果为:

SSA:83.766,

SSB:15.226,

SSR:7.083

print('Ⅰ型平方和方差分析输出结果为:\n',anova_Result_ABR)#打印方差分析结果

Ⅰ型平方和方差分析输出结果为:

df sum_sq mean_sq F PR(>F)

C(A, Sum) 2.0 83.765873 41.882937 17.310973 0.000064

C(B, Sum) 1.0 15.226146 15.226146 6.293241 0.021911

C(A, Sum):C(B, Sum) 2.0 7.082981 3.541490 1.463762 0.257627

Residual 18.0 43.550000 2.419444 NaN NaN

print('各主效应与交互作用平方和之和为:%.3f'%(np.sum(anova_Result_ABR.sum_sq[0:3])))

各主效应与交互作用平方和之和为:106.075

可见,此时用回归模型计算的结果与用方差分析计算的结果相同,注意此时的方差分析使用的是Ⅰ型平方和。而且Ⅰ型平方和的主效应与交互作用之和刚好等于组间平方和106.075接下来再计算进场顺序为B主效应,A主效应,AB交互作用的Ⅰ型平方和看看

#以下计算进场顺序B-A-R的Ⅰ型平方和

SSEN=model_none.mse_resid*model_none.df_resid#零模型残差

SSEB=model_B.mse_resid*model_B.df_resid#B先进场模型残差

SSEAB=model_AB.mse_resid*model_AB.df_resid#AB模型残差,此时A第二个进场

SSEF=model_full.mse_resid*model_full.df_resid#全模型残差

SSA=SSEN-SSEB#A主效应

SSB=SSEB-SSEAB#B主效应

SSR=SSEAB-SSEF#交互作用效应

print('用回归计算的Ⅰ型平方和输出结果为:'

'\nSSA:%.3f,\nSSB:%.3f,\nSSR:%.3f'%(SSA,SSB,SSR))

#依次打印A主效应平方和,B主效应平方和,交互作用平方和

用回归计算的Ⅰ型平方和输出结果为:

SSA:11.668,

SSB:87.324,

SSR:7.083

print('Ⅰ型平方和方差分析输出结果为:\n',anova_Result_BAR)#打印方差分析结果

Ⅰ型平方和方差分析输出结果为:

df sum_sq mean_sq F PR(>F)

C(B, Sum) 1.0 11.667857 11.667857 4.822536 0.041435

C(A, Sum) 2.0 87.324162 43.662081 18.046325 0.000050

C(A, Sum):C(B, Sum) 2.0 7.082981 3.541490 1.463762 0.257627

Residual 18.0 43.550000 2.419444 NaN NaN

print('各主效应与交互作用平方和之和为:%.3f'%(np.sum(anova_Result_BAR.sum_sq[0:3])))

各主效应与交互作用平方和之和为:106.075

可见,此时各效应的总和依然等于组间平方和

,但是,由于进场顺序改变,A的主效应和B的主效应都发生了变化。不过交互作用的平方和没有发生改变!而且此时交互作用的平方和与Ⅲ型平方和的相同!

这是必须的。因为二者的计算公式是一样的。

实际上,细心的小伙伴也已经发现了,先进场的因素主效应平方和,其实跟常规的平方和分解计算结果相同。例如,再A-B-R顺序中,A主效应的平方和

就等于A各水平均值与总均值差值平方,乘以样本量再求和。

可见,虽然Ⅰ型平方和保证了组间平方和完全的分解,但是其计算结果“不纯净”,所以在分析不等组设计时,建议使用Ⅲ型平方和。

当然,如果是分析等组设计的话,那么Ⅰ型平方和与Ⅲ型平方和的结果一模一样,没有区别。因为此时各效应是完全正交的,没有相互干扰

4 小结通过回归模型比较,可以更好理解Ⅰ型平方和与Ⅲ型平方和

Ⅰ型平方和的模型是“从无到有”。逐步增加的。Ⅲ型平方和都是用全模型与缺少某效应的模型比较。

针对不等组设计,Ⅰ型平方和根据主效应进场顺序的不同,计算结果也不同。Ⅲ型平方和与进场顺序无关

Ⅰ型平方和虽然能完全分解组间平方和,但是计算结果“不纯净”。Ⅲ型平方和虽然没有完全分解组间平方和,但其排除了其他效应的干扰,结果更“纯净”

交互作用的结果在两种平方和中的计算结果是相同的。

等组设计中,Ⅰ型平方和与Ⅲ型平方和等价

单因素方差分析不涉及各种平方和

如果代码不熟悉的同学,可以用SPSS进行检验,有问题或者建议欢迎留言讨论。

另外,除了Ⅰ型平方和与Ⅲ型平方和,还有Ⅱ型和Ⅳ型。不过后面这两兄弟不常用,就不详细介绍了。

欢迎非商业的转载!只需注明作者“AhaDad”和来源即可。

回归标准差和残差平方和的关系_用回归来理解方差分析(三):Ⅰ型平方和与Ⅲ型平方和...相关推荐

  1. 回归标准差和残差平方和的关系_期望、方差、标准差、协方差、相关系数、协方差矩阵、残差、残差平方和(SSE)、标准化残差,残差分析...

    通过学习,结合网络上搜索, 把相关概念整理了一下. 1.期望(均值.数学期望) 期望是 度量数据的集中趋势的一个重要指标,是研究随机变量的一个重要数字特征 离散型 随机变量Xi,其对因的概率P(Xi) ...

  2. 回归标准差和残差平方和的关系_ISLR实验:简单线性回归

    本文源自<统计学习导论:基于R语言应用>(ISLR) 中<3.6 实验:线性回归>章节 简单线性关系 通过拟合计算模型参数 \beta_{0} 和 \beta_{1},使用下面 ...

  3. batch lr替代关系_建立关系的替代方法

    batch lr替代关系 Linear regression is one of the most well-known and simple tools for statistics and mac ...

  4. 逻辑回归阈值_逻辑回归or线性回归,傻傻分不清楚

    欢迎关注"生信修炼手册"! 线性回归作为一种常用的关联分析工具,其功能强大,解释度高,但是其缺点也是很明显的.其只适用于处理连续型的变量,无法处理离散型的变量,比如对于case/c ...

  5. 机器学习系列(1)_逻辑回归初步

    转载自: 机器学习系列(1)_逻辑回归初步 - 寒小阳 - 博客频道 - CSDN.NET http://blog.csdn.net/han_xiaoyang/article/details/4912 ...

  6. 回归的误差服从正态分布吗_盘点10大回归类型:总有一款深得你心

    全文共2507字,预计学习时长5分钟 除了统计模型和其他的一些算法,回归是机器学习成功运行的重要构成要素.回归的核心是寻找变量之间的关系,而机器学习需要根据这种关系来预测结果. 显然,任何称职的机器学 ...

  7. orange实现逻辑回归_逻辑回归算法的原理及实现(LR)

    Logistic回归虽然名字叫"回归",但却是一种分类学习方法.使用场景大概有两个:第一用来预测,第二寻找因变量的影响因素.逻辑回归(Logistic Regression, LR ...

  8. 嵌入式与人工智能关系_嵌入式人工智能的发展趋势

    嵌入式与人工智能关系_嵌入式人工智能的发展趋势 所谓嵌入式人工智能,就是设备无须联网通过云端数据中心进行大规模计算去实现人工智能,而是在本地计算,在不联网的情况下就可以做实时的环境感知.人机交互.决策 ...

  9. 多因素方差分析中预测因素的筛多_用回归来理解方差分析(二):两因素方差分析...

    1 两因素方差分析的形式 多因素方差分析针对的是多因素完全随机设计.包含两个及以上的自变量,为便于讲解,本文以两因素方差分析为例. 在一个两因素完全随机设计中,自变量 包含 ,共 个水平.自变量 包含 ...

最新文章

  1. 因脉脉上的匿名消息,拼多多员工被开除了!
  2. java excel 导出_java导出Excel通用方法实例
  3. win8和win8.1动态绑定数据到ListView
  4. RocketMQ-初体验RocketMQ(10)-过滤消息_SQL92表达式筛选消息
  5. 有效可靠地管理大规模 Kubernetes 集群
  6. lora网关软件设计_SX1301网关设计 LoRaWAN网关 评估开发套件sx1278双向测试云平台LPKT001...
  7. 西奥妮·帕帕斯《天天数学》
  8. lisp 里在特定图层写字_有温度的“城市客厅”——从景观设计角度感受天目里...
  9. 10分钟搞定webpack打包
  10. asp2.0 GridView OnRowDataBound event
  11. redo mysql mvcc_Mysql事务中的ACID是怎么实现的
  12. IINA+ :在IINA播放器上观看直播
  13. MTK-QCOM-SPRD 刷机
  14. 微信公众号订阅通知设置
  15. POJO、JavaBean、EJB的区别
  16. do-while循环
  17. 如何用UE4制作2D游戏文档(二)——资源篇
  18. 5W1H1V分析法帮你快速了解产品
  19. java 优先队列从小到大_算法导论——辅助数据结构:优先队列(从小到大)
  20. android中 textview.setVisibility(View.VISIBLE)失效问题

热门文章

  1. 【二维码识别】基于matlab GUI灰度+二值化+校正二维码生成与识别【含Matlab源码 635期】
  2. springboot 配置文件 date-format 失效
  3. 分布式事务解决方案(总览)
  4. 手游平台如何正确运营?
  5. 信道编码和交织的有效总结和理解
  6. 我的Spring入门
  7. PADS Router布线技巧和一些常用快捷键
  8. 【高等数学】02 函数的特性,有界性,无界性,单调性,奇偶性,周期性,反函数,复合函数
  9. 微服务架构集成RabbitMQ给用户推送消息(发送短信,发送邮件,发送站内信息)
  10. H5点击图片保存本地