偏误:OLS估计量不一致

Y 1 i = β 10 + β 12 Y 2 i + γ 11 X 1 i + μ 1 i Y 2 i = β 20 + β 21 Y 2 i + γ 21 X 1 i + μ 2 i Y_{1i}=\beta_{10}+\beta_{12}Y_{2i}+\gamma_{11} X_{1i}+\mu _{1i}\\ Y_{2i}=\beta_{20}+\beta_{21}Y_{2i}+\gamma_{21} X_{1i}+\mu _{2i} Y1i​=β10​+β12​Y2i​+γ11​X1i​+μ1i​Y2i​=β20​+β21​Y2i​+γ21​X1i​+μ2i​
Y 1 Y_1 Y1​和 Y 2 Y_2 Y2​是相互依赖的两个变量或称内生变量,而 X X X是外生变量。

考虑联立方程:
C t = β 0 + β 1 Y t + μ t ( 1 ) Y t = C t + I t ( 2 ) C_t=\beta_0 +\beta_1 Y_t+\mu_t\quad (1)\\ Y_t=C_t+I_t \quad (2) Ct​=β0​+β1​Yt​+μt​(1)Yt​=Ct​+It​(2)
我们首先证明(1)总的 Y t Y_t Yt​和 μ t \mu_t μt​相关,然后证明 β ^ 1 \hat \beta_1 β^​1​是 β 1 \beta_1 β1​的一个不一致估计量。
为了证明 Y t Y_t Yt​和 μ t \mu_t μt​相关,将(1)代入(2)得:
Y t = β 0 + β 1 Y t + μ t + I t Y_t=\beta_0 +\beta_1 Y_t+\mu_t+I_t Yt​=β0​+β1​Yt​+μt​+It​
整理得:
Y t = β 0 1 − β 1 + I t 1 − β 1 + μ t 1 − β 1 ( 3 ) Y_t=\frac{\beta_0}{1-\beta_1}+\frac{I_t}{1-\beta_1}+\frac{\mu_t}{1-\beta_1}\quad (3) Yt​=1−β1​β0​​+1−β1​It​​+1−β1​μt​​(3)
求期望:
E ( Y t ) = β 0 1 − β 1 + I t 1 − β 1 ( 4 ) E(Y_t)=\frac{\beta_0}{1-\beta_1}+\frac{I_t}{1-\beta_1}\quad (4) E(Yt​)=1−β1​β0​​+1−β1​It​​(4)

(3)-(4):
Y t − E ( Y t ) = μ t 1 − β 1 Y_t-E(Y_t)=\frac{\mu_t}{1-\beta_1} Yt​−E(Yt​)=1−β1​μt​​
C o v ( Y t , μ t ) = E [ Y t − E ( Y t ) ] [ μ t − E ( μ t ) ] = E ( μ t 2 ) 1 − β 1 = σ 2 1 − β 1 \rm {Cov}(Y_t,\mu_t)=E[Y_t-E(Y_t)][\mu_t-E(\mu_t)]=\frac{E(\mu_t^2)}{1-\beta_1}=\frac{\sigma^2}{1-\beta_1} Cov(Yt​,μt​)=E[Yt​−E(Yt​)][μt​−E(μt​)]=1−β1​E(μt2​)​=1−β1​σ2​
因为 σ 2 > 0 \sigma^2>0 σ2>0,所以 Y t Y_t Yt​和 μ t \mu_t μt​相关。这种情形中,OLS估计量是不一致的。证明如下。
β ^ 1 = ∑ ( C t − C ‾ ) ( Y t − Y ‾ ) ∑ ( Y t − Y ‾ ) 2 = ∑ c t y t ∑ y t 2 = ∑ C t y t ∑ y t 2 \hat \beta_1=\frac{\sum(C_t-\overline C)(Y_t-\overline Y)}{\sum(Y_t-\overline Y)^2}=\frac{\sum c_t y_t}{\sum y_t^2}=\frac{\sum C_t y_t}{\sum y_t^2} β^​1​=∑(Yt​−Y)2∑(Ct​−C)(Yt​−Y)​=∑yt2​∑ct​yt​​=∑yt2​∑Ct​yt​​
其中小写字母表示对样本均值的离差。
将(1)代入上式
β ^ 1 = ∑ ( β 0 + β 1 Y t + μ t ) y t ∑ y t 2 = ∑ y t ∑ y t 2 β 0 + ∑ Y t y t ∑ y t 2 β 1 + ∑ y t μ t ∑ y t 2 \hat \beta_1=\frac{\sum (\beta_0 +\beta_1 Y_t+\mu_t)y_t}{\sum y_t^2}=\frac{\sum y_t}{\sum y_t^2}\beta _0+\frac{\sum Y_ty_t}{\sum y_t^2}\beta_1+\frac{\sum y_t\mu_t}{\sum y_t^2} β^​1​=∑yt2​∑(β0​+β1​Yt​+μt​)yt​​=∑yt2​∑yt​​β0​+∑yt2​∑Yt​yt​​β1​+∑yt2​∑yt​μt​​
其中易证 ∑ y t ∑ y t 2 = 0 , ∑ Y t y t ∑ y t 2 = 1 \frac{\sum y_t}{\sum y_t^2}=0,\frac{\sum Y_ty_t}{\sum y_t^2}=1 ∑yt2​∑yt​​=0,∑yt2​∑Yt​yt​​=1,所以
β ^ 1 = β 1 + ∑ y t μ t ∑ y t 2 \hat \beta_1=\beta_1+\frac{\sum y_t\mu_t}{\sum y_t^2} β^​1​=β1​+∑yt2​∑yt​μt​​
一致的意思是说,一个估计量的概率极限plim等于它的真实值。所以我们将上式取概率极限:
p l i m ( β ^ 1 ) = β 1 + p l i m ( ∑ y t μ t / n ) p l i m ( ∑ y t 2 / n ) {\rm plim}(\hat\beta_1)=\beta_1+\frac{{\rm {plim}} (\sum y_t\mu_t/n)}{{\rm {plim}} (\sum y_t^2/n) } plim(β^​1​)=β1​+plim(∑yt2​/n)plim(∑yt​μt​/n)​
上式的第二项是 Y Y Y和 μ \mu μ的样本协方差的概率极限和 Y Y Y的样本方差的概率极限之比,两者在n无限增大时分别趋近于总体协方差Cov ( Y t , μ t ) = σ 2 1 − β 1 (Y_t,\mu_t)=\frac{\sigma^2}{1-\beta_1} (Yt​,μt​)=1−β1​σ2​,和 Y Y Y的总体方差 σ Y 2 \sigma_Y^2 σY2​。所以上式为:
p l i m ( β ^ 1 ) = β 1 + σ 2 / ( 1 − β 1 ) σ Y 2 {\rm plim}(\hat\beta_1)=\beta_1+\frac{\sigma^2/(1-\beta_1)}{\sigma_Y^2} plim(β^​1​)=β1​+σY2​σ2/(1−β1​)​
所以并不一致。

识别问题

符号与定义

Y 1 , Y 2 , . . . , Y M Y_1,Y_2,...,Y_M Y1​,Y2​,...,YM​为 M M M个内生变量;
X 1 , X 2 , . . . , X K X_1,X_2,...,X_K X1​,X2​,...,XK​为 K K K个前定变量(其中一个可取值1使得方程有截距项);
u 1 , u 2 , . . . , u M u_1,u_2,...,u_M u1​,u2​,...,uM​为 M M M个随机干扰项;
t = 1 , 2 , . . . , T t=1,2,...,T t=1,2,...,T为 总观测个数;
β \beta β为内生变量系数;
γ \gamma γ为前定变量系数;
前定是说,其值有模型外部决定,包括外生变量和滞后内生变量。
为了说明约简型方程,我们考虑上文分析过的联立方程:
C t = β 0 + β 1 Y t + u t , 0 < β 1 < 1 ( 1 ) Y t = C t + I t ( 2 ) C_t=\beta_0 +\beta_1 Y_t+u_t, \quad0<\beta_1<1 \quad (1)\\ Y_t=C_t+I_t \qquad \qquad \qquad \qquad \qquad (2) Ct​=β0​+β1​Yt​+ut​,0<β1​<1(1)Yt​=Ct​+It​(2)
我们如果把方程(1)代入方程(2)中就得到:
Y t = β 0 1 − β 1 + I t 1 − β 1 + μ t 1 − β 1 Y_t=\frac{\beta_0}{1-\beta_1}+\frac{I_t}{1-\beta_1}+\frac{\mu_t}{1-\beta_1}\quad Yt​=1−β1​β0​​+1−β1​It​​+1−β1​μt​​
令 Π 0 = β 0 1 − β 1 , Π 1 = 1 1 − β 1 , w t = u t 1 − β 1 \Pi_0=\frac{\beta_0}{1-\beta_1},\Pi_1=\frac{1}{1-\beta_1}, w_t=\frac{u_t}{1-\beta_1} Π0​=1−β1​β0​​,Π1​=1−β1​1​,wt​=1−β1​ut​​,上式可写为:
Y t = Π 0 + Π 1 I t + w t Y_t=\Pi_0+\Pi_1 I_t+w_t Yt​=Π0​+Π1​It​+wt​
上式这种把内生变量 Y Y Y表达为仅仅前定变量 I I I和随机干扰项 u u u的函数叫做约简型方程。当然,如果把(2)代入(1)也可得到另一个约简型方程。
Π 1 \Pi_1 Π1​被称为冲击短期乘数

识别问题

识别问题是指能否从所估计的约简型系数求出一个结构方程参数的估计值。如果不能,就说方程是不可识别的。如果能,就说该方程是可以识别的(包括恰好识别过度识别)。

  • 不可识别
    考虑模型:
    Q t d = α 0 + α 1 P t + u 1 t ( 5 ) Q t s = β 0 + β 1 P t + u 2 t ( 6 ) Q_t^d=\alpha_0+\alpha_1 P_t+u_{1t} \quad(5) \\Q_t^s=\beta_0+\beta_1 P_t+u_{2t} \quad (6) Qtd​=α0​+α1​Pt​+u1t​(5)Qts​=β0​+β1​Pt​+u2t​(6)
    由 Q t d = Q t s Q_t^d=Q_t^s Qtd​=Qts​得
    α 0 + α 1 P t + u 1 t = β 0 + β 1 P t + u 2 t \alpha_0+\alpha_1 P_t+u_{1t}=\beta_0+\beta_1 P_t+u_{2t} α0​+α1​Pt​+u1t​=β0​+β1​Pt​+u2t​
    解得
    P t = β 0 − α 0 α 1 − β 1 + u 2 t − u 1 t α 1 − β 1 = 记为 Π 0 + v t ( 7 ) P_t=\frac{\beta_0-\alpha_0}{\alpha_1-\beta_1}+\frac{u_{2t}-u_{1t}}{\alpha_1-\beta_1}\overset{\text{记为}}{=}\Pi_0+v_t\quad(7) Pt​=α1​−β1​β0​−α0​​+α1​−β1​u2t​−u1t​​=记为Π0​+vt​(7)
    代入(5)或(6)得 Q t = Π 1 + w t ( 8 ) Q_t=\Pi_1+w_t\quad (8) Qt​=Π1​+wt​(8)
    现在,我们有四个结构系数 α 0 , α 1 , β 0 , β 1 \alpha_0,\alpha_1,\beta_0,\beta_1 α0​,α1​,β0​,β1​,但却只有两个约简系数,我们无法仅从两个约简型系数估计出4个结构性未知数。若给定Q、P的时间序列,我们无法保证是方程(5)还是(6)。因为两个函数都出现同样的变量P和Q。
  • 恰好识别
    将上文所述模型加一个外生变量 I I I:
    Q t d = α 0 + α 1 P t + α 2 I t + u 1 t ( 5 ) Q t s = β 0 + β 1 P t + u 2 t ( 6 ) Q_t^d=\alpha_0+\alpha_1 P_t+ \alpha_2 I_t+u_{1t} \quad(5) \\Q_t^s=\beta_0+\beta_1 P_t+u_{2t} \quad (6) Qtd​=α0​+α1​Pt​+α2​It​+u1t​(5)Qts​=β0​+β1​Pt​+u2t​(6)
    根据 Q t d = Q t s Q_t^d=Q_t^s Qtd​=Qts​:
    α 0 + α 1 P t + α 2 I t + u 1 t = β 0 + β 1 P t + u 2 t \alpha_0+\alpha_1 P_t+ \alpha_2 I_t+u_{1t} =\beta_0+\beta_1 P_t+u_{2t} α0​+α1​Pt​+α2​It​+u1t​=β0​+β1​Pt​+u2t​
    解得均衡 P t , Q t P_t,Q_t Pt​,Qt​得
    P t = Π 0 + Π 1 I t + v t Q t = Π 2 + Π 3 I t + w t P_t=\Pi _0+\Pi_1 I_t+v_t \\ Q_t=\Pi_2+\Pi_3 I_t+w_t Pt​=Π0​+Π1​It​+vt​Qt​=Π2​+Π3​It​+wt​
    我们可以发现 β 0 , β 1 \beta_0,\beta_1 β0​,β1​可以由 Π 0 , . . . , Π 3 \Pi_0,...,\Pi_3 Π0​,...,Π3​表示,但 α 0 , α 1 , α 2 \alpha_0,\alpha_1,\alpha_2 α0​,α1​,α2​不可以。这时我们称方程(6)可识别,方程(5)不可识别。
    我们可以发现在方差(5)中增加了一个前定变量就使得(6)可识别,那么可否也在(6)中增加一个前定变量使得(5)可识别?可以的!
    我们在方程(6)增加一个 P t − 1 P_{t-1} Pt−1​,他是 P t P_t Pt​的滞后一期变量,由于定义可以知道它也属于前定变量。
    Q t d = α 0 + α 1 P t + α 2 I t + u 1 t ( 9 ) Q t s = β 0 + β 1 P t + β 2 P t − 1 + u 2 t ( 10 ) Q_t^d=\alpha_0+\alpha_1 P_t+ \alpha_2 I_t+u_{1t} \quad(9) \\Q_t^s=\beta_0+\beta_1 P_t+\beta_2P_{t-1}+u_{2t} \quad (10) Qtd​=α0​+α1​Pt​+α2​It​+u1t​(9)Qts​=β0​+β1​Pt​+β2​Pt−1​+u2t​(10)
    利用 Q t d = Q t s Q_t^d=Q_t^s Qtd​=Qts​,得
    α 0 + α 1 P t + α 2 I t + u 1 t = β 0 + β 1 P t + β 2 P t − 1 + u 2 t \alpha_0+\alpha_1 P_t+ \alpha_2 I_t+u_{1t} =\beta_0+\beta_1 P_t+\beta_2P_{t-1}+u_{2t} α0​+α1​Pt​+α2​It​+u1t​=β0​+β1​Pt​+β2​Pt−1​+u2t​
    得:
    P t = Π 0 + Π 1 I t + Π 2 P t − 1 + v t Q t = Π 3 + Π 4 I t + Π 5 P t − 1 + w t P_t=\Pi_0+\Pi_1I_t+\Pi_2P_{t-1}+v_t\\ Q_t=\Pi_3+\Pi_4I_t+\Pi_5P_{t-1}+w_t Pt​=Π0​+Π1​It​+Π2​Pt−1​+vt​Qt​=Π3​+Π4​It​+Π5​Pt−1​+wt​
    我们这次得到了6个约简型系数 Π 0 , . . . , Π 5 \Pi_0,...,\Pi_5 Π0​,...,Π5​,同时恰好也有6个结构系数需要估计 α 0 , α 1 , α 2 , β 0 , β 1 , β 2 \alpha_0,\alpha_1,\alpha_2,\beta_0,\beta_1,\beta_2 α0​,α1​,α2​,β0​,β1​,β2​,正常情况下能得到唯一估计。因此方程(9)(10)都可识别,从而整个模型可以识别。
  • 过度识别
    以上说明了恰好识别得情况,如果再加入一个外生变量会如何?
    我们将(9)再加一个外生变量 R t R_t Rt​,(10)保持不变:
    Q t d = α 0 + α 1 P t + α 2 I t + α 3 R t + u 1 t ( 11 ) Q t s = β 0 + β 1 P t + β 2 P t − 1 + u 2 t ( 12 ) Q_t^d=\alpha_0+\alpha_1 P_t+ \alpha_2 I_t+\alpha_3 R_t+u_{1t} \quad(11) \\Q_t^s=\beta_0+\beta_1 P_t+\beta_2P_{t-1}+u_{2t} \qquad \quad (12) Qtd​=α0​+α1​Pt​+α2​It​+α3​Rt​+u1t​(11)Qts​=β0​+β1​Pt​+β2​Pt−1​+u2t​(12)
    与上文方法相同,可得约简方程:
    P t = Π 0 + Π 1 I t + Π 2 R t + Π 3 P t − 1 + v t Q t = Π 4 + Π 5 I t + Π 6 R t + Π 7 P t − 1 + w t P_t=\Pi_0+\Pi_1I_t+\Pi_2 R_t+\Pi_3P_{t-1}+v_t\\ Q_t=\Pi_4+\Pi_5I_t+\Pi_6 R_t+ \Pi_7P_{t-1}+w_t Pt​=Π0​+Π1​It​+Π2​Rt​+Π3​Pt−1​+vt​Qt​=Π4​+Π5​It​+Π6​Rt​+Π7​Pt−1​+wt​
    我们得到了8个方程——即8个约简型系数,来估计7个结构系数,其后果是结果不唯一,称为过度识别

识别规则

上述的检验是否识别过程耗时耗力,有没有一种方法可以看到联立方程就可以判断其是否可识别?可以的!这就是所谓的识别的阶条件秩条件

  • 可识别性的阶条件
    引入下列符号:
    M为整个模型中内生变量个数;
    m为现在讨论的给定方程中内生变量的个数;
    K为整个模型中前定变量的个数;
    k为现在讨论的给定方程中前定变量的个数;
    阶条件定义1. 在一个含有M个方程的模型中,一个方程能被识别,它必须排除至少M-1个前定变量。如果恰好排出M-1为恰好识别,排出多余M-1为过度识别。
    还有一个等价定义2:
    阶条件定义2. 一个方程能被识别,该方程所排除的前定变量的个数必须不少于它所含的内生变量的个数减一,即: K − k ≥ m − 1 K-k\geq m-1 K−k≥m−1
    取等号为恰好识别,取大于号为过度识别。
    其实,某个方程不含有在模型其他方程中包含的变量,就有可能去识别这个方程。
    下面来举栗子:
    考虑上面分析过的联立方程
    Q t d = α 0 + α 1 P t + u 1 t ( 5 ) Q t s = β 0 + β 1 P t + u 2 t ( 6 ) Q_t^d=\alpha_0+\alpha_1 P_t+u_{1t} \quad(5) \\Q_t^s=\beta_0+\beta_1 P_t+u_{2t} \quad (6) Qtd​=α0​+α1​Pt​+u1t​(5)Qts​=β0​+β1​Pt​+u2t​(6)
    上面分析过这两个方程都不可识别。那么如何利用阶条件判断呢?
    利用定义1,方程想要被识别必须排除M-1=2-1=1个前定变量,也就是说至少有一个这个方程没有但是其他方程有的前定变量,这对于两个方程来说都没有做到,所以两个方程都不可识别。

  • 可识别性的秩条件
    注意,上文说到的阶条件只是识别的必要非充分条件,这时因为排除的变量系数有可能为零。所以要引入秩条件,秩条件是识别的充分必要条件。
    秩条件是说,在一个含M个内生变量的M个方程的模型中,一个方程可识别的充分必要条件是,我们能从其他方程所含而该方程不含的变量系数矩阵中构造出至少一个(M-1) × \times ×(M-1)阶的非零行列式来。

Basic Econometrics, Damodar N.Gujarati

笔记:联立方程模型总结相关推荐

  1. 【计量经济学】联立方程模型

    联立方程模型 – 潘登同学的计量经济学笔记 文章目录 联立方程模型 -- 潘登同学的计量经济学笔记 联立方程模型(SEM) 一个合适的列子 一个不合适的例子 联立性偏误 结构方程的识别与估计 已婚工作 ...

  2. tensorflow笔记:模型的保存与训练过程可视化

    tensorflow笔记系列:  (一) tensorflow笔记:流程,概念和简单代码注释  (二) tensorflow笔记:多层CNN代码分析  (三) tensorflow笔记:多层LSTM代 ...

  3. R语言笔记4_模型诊断(关于残差)

    R语言笔记4_模型诊断(关于残差)及模型补救(Box-Cox变换) 文章目录 R语言笔记4_模型诊断(关于残差)及模型补救(Box-Cox变换) 检验线性关系 检验方差齐性 检验残差正态性 检验离群值 ...

  4. CSS 学习笔记 - 盒模型

    CSS学习笔记 - 盒模型 外边距margin 内边距padding 背景background 背景图background-image 边框border 样式 宽度 颜色 圆角 边框图片border- ...

  5. 学习笔记_OSI模型

    学习笔记_OSI模型 OSI模型简介 OSI模型各层说明 OSI模型简介 OSI/RM协议由ISO(国际标准化组织)指定,功能为 给开发者提供一个通用的.必须的概念以便开发及完善:可以用来解释连接不同 ...

  6. labview学习笔记--3D模型(3)

    labview学习笔记–3D模型(3) 这次的内容是设置模型的运动–平移和旋转 1.首先,我们先找到设置平移和设置旋转的控件:程序框图->编程->图形与声音->三维图片控件-> ...

  7. 数据库系统概念笔记-关系模型介绍

    转载自 数据库系统概念笔记-关系模型介绍  作者 CyninMa 数据库系统概念笔记-关系模型介绍 2.1 关系数据库的结构 关系数据库由表(table)的集合构成,每个表有唯一的名字.例如,inst ...

  8. 【Python计量】联立方程模型

    文章目录 一.联系方程模型 二.联立方程模型的Python实现 (一)获取数据 (二)两阶段最小二乘法估计联立方程 1.采用statsmodels进行2SLS回归 2.采用linearmodels进行 ...

  9. EntityFramework Core 学习笔记 —— 创建模型

    原文地址:https://docs.efproject.net/en/latest/modeling/index.html 前言: EntityFramework 使用一系列的约定来从我们的实体类细节 ...

最新文章

  1. java开发中的Mutex vs Semaphore
  2. 从C++Primer某习题出发,谈谈C语言标准I/O的缓存问题
  3. cocoaPods的配置
  4. 需要天天读月月读年年读的书
  5. Sentinel(七)之网关限流
  6. HTML、JS、字符串的简单加密与解密
  7. python背诵技巧_python如何记忆方法
  8. 2021年中国船舶甲板市场趋势报告、技术动态创新及2027年市场预测
  9. http 二进制_百度云加速科普小课堂-HTTP/2解析
  10. 抛弃jQuery 深入原生的JavaScript
  11. 今天加入了OSChina,准备将我的BLOG搬到这里。
  12. C4—Qt实现记事本(一)2021-11-16
  13. 小米mini路由器刷breed不死鸟和潘多拉固件
  14. 分享软件测试计划模板
  15. 考试系统微信小程序的设计与实现
  16. Scala学习笔记2 (Lang上篇)
  17. 线程wait和notify深入学习和分析
  18. Ardunio开发实例-ISL29125 RGB彩色光传感器
  19. 异常检测 | 用于无监督异常检测的自监督学习适应性记忆网络
  20. 数位、位数与计数单位的区别

热门文章

  1. python写简单的脚本-你用 Python 写过哪些牛逼的程序/脚本?
  2. 4路差分编码器脉冲计数器,转速测量,Modbus RTU模块 WJ67
  3. 加密软件的新品类:环境加密
  4. 【干货教程】如何用Python优雅地绘制中国的地图
  5. android 渠道号怎么写,android无渠道号推广的细分统计
  6. android app 原生 小米手机 TextView 不显示文字
  7. ​力扣解法汇总1728-猫和老鼠 II
  8. python职业发展规划书范文_职业生涯规划书1000字范文
  9. 分享:提升你工作幸福感的11个工具软件
  10. 功能点:3秒倒计时自动跳转指定页面