Linear Regression

简单线性回归

简单线性回归形式:Y=β0+β1X1Y=\beta_0+\beta_1X_1Y=β0​+β1​X1​

估计系数

残差:ei=yi−y^ie_{i}=y_{i}-\hat{y}_{i}ei​=yi​−y^​i​

残差平方和(residual sum of squares RSS)RSS=∑i=1nei2RSS=\sum_{i=1}^{n}e_i^2RSS=∑i=1n​ei2​ 用最小二乘法近似 β^0\hat\beta_0β^​0​ 和 β^1\hat\beta_1β^​1​ 来降低 RSS,得出极小值点

β^1=∑i=1n(xi−xˉ)(yi−yˉ)∑i=1n(xi−xˉ)2\hat{\beta}_{1}=\frac{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)\left(y_{i}-\bar{y}\right)}{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}β^​1​=∑i=1n​(xi​−xˉ)2∑i=1n​(xi​−xˉ)(yi​−yˉ​)​ β^0=yˉ−β^1xˉ\hat{\beta}_{0}=\bar{y}-\hat{\beta}_{1} \bar{x}β^​0​=yˉ​−β^​1​xˉ

评估系数精准度

YYY 与 XXX 的线性关系写成 Y=β0+β1X+ϵY = \beta_0 +\beta_1X+\epsilonY=β0​+β1​X+ϵ

无偏估计量不会系统的高估或低估真实参数。无偏估计量依赖于数据集,在特定数据集上会高估,通过大量数据集估计后再平均会更加精确

  • 对样本均值 μ\muμ 的估计后得到 μ^\hat\muμ^​ ,如何评估估计量 μ^\hat{\mu}μ^​ 的偏离?

    • 使用标准误差(standard error,SE)Var(μ^)=SE(μ^)=σ2nVar(\hat\mu)=SE(\hat\mu)=\frac{\sigma^2}{n}Var(μ^​)=SE(μ^​)=nσ2​ 其中 σ\sigmaσ 是每个 yiy_iyi​ 与 YYY 的标准差 ( n 个观测值是不相关的)
    • 相同的,我们可以及计算 β^0\hat\beta_0β^​0​ 和 β^1\hat\beta_1β^​1​ 的标准差来评估两者与真值的接近程度,SE⁡(β^0)2=σ2[1n+xˉ2∑i=1n(xi−xˉ)2]\operatorname{SE}\left(\hat{\beta}_{0}\right)^{2}=\sigma^{2}\left[\frac{1}{n}+\frac{\bar{x}^{2}}{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}\right]SE(β^​0​)2=σ2[n1​+∑i=1n​(xi​−xˉ)2xˉ2​], SE⁡(β^1)2=σ2∑i=1n(xi−xˉ)2\operatorname{SE}\left(\hat{\beta}_{1}\right)^{2}=\frac{\sigma^{2}}{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}}SE(β^​1​)2=∑i=1n​(xi​−xˉ)2σ2​
      其中 σ2=Var(ϵ)\sigma^2=Var(\epsilon)σ2=Var(ϵ),每个误差项有共同的方差且互不相关。当 xix_ixi​ 越分散,SE(β^1)SE(\hat\beta_1)SE(β^​1​) 越小;当 xˉ\bar{x}xˉ 为零 SE(β^0)SE(\hat\beta_0)SE(β^​0​) 与SE(μ^)SE(\hat\mu)SE(μ^​) 相等
    • 一般而言,σ2\sigma^2σ2 是不知道的,但是可以由数据来估计,这个估计值称为残差标准差(residual standard error,RSE)RSE=(RSS/(n−2)RSE=\sqrt{(RSS/(n-2)}RSE=(RSS/(n−2)​
    • 标准误差可以用于计算置信区间(confidence interval)在一个置信度下(95%)定义一个取值范围 [a , b],使得在该置信度下,该范围包含真实的未知值。
  • 对于线性回归,95%置信区间近似取为 β^1±2∗SE(β^1)\hat\beta_1\space\pm\space2*SE(\hat\beta_1)β^​1​ ± 2∗SE(β^​1​)
    区间为 [β^1−2⋅SE⁡(β^1),β^1+2⋅SE⁡(β^1)]\left[\hat{\beta}_{1}-2 \cdot \operatorname{SE}\left(\hat{\beta}_{1}\right), \hat{\beta}_{1}+2 \cdot \operatorname{SE}\left(\hat{\beta}_{1}\right)\right][β^​1​−2⋅SE(β^​1​),β^​1​+2⋅SE(β^​1​)]
  • 标准差可以用于对系数进行假设检验(hypothesis test)
    • 例如,对于原假设 H0:β1=0H_0:\beta_1=0H0​:β1​=0 ,如果 SE(β^1)SE(\hat\beta_1)SE(β^​1​) 小,即使 β^1\hat\beta_1β^​1​ 很小,也可以拒绝原假设;相反,如果 SE(β^1)SE(\hat\beta_1)SE(β^​1​) 较大,那么 β^1\hat\beta_1β^​1​ 必须很大才能拒绝原假设。实践中,我们计算 t - 统计量(t - statistic)t=β^1−0SE(β^1)t=\frac{\hat\beta_1-0}{SE(\hat\beta_1)}t=SE(β^​1​)β^​1​−0​ ,该数值量化了 β^1\hat\beta_1β^​1​ 标准差对 0 的远离;如果 XXX 与 YYY 没有关系,统计量将会有 n−2n-2n−2 个自由度的 ttt 分布。绝对值大于等于 ∣t∣|t|∣t∣ 的数的概率称为 ppp值(p-value)一个较小的 p 值表明,在 XXX 与 YYY 之间不存在任何实际关联情况下,不太可能存在偶然的原因,观测到 $$ XXX 与 YYY 之间存在实际的联系;因此,如果观测到很小的 p 值可以推断 XXX 与 YYY 之间存在关联。典型 p 值范围是 5% 或 1%

评估模型精确性

线性回归通常使用两个量来评估模型:残差标准差(residual standard error,RSE)和 R2R^2R2 统计量

  • 残差标准差

    RSE是对 ϵ\epsilonϵ 标准差的估计。粗略说,是响应变量偏离真实回归线的平均值

    RSE=1n−2RSS=1n−2∑i=1n(yi−y^i)2\mathrm{RSE}=\sqrt{\frac{1}{n-2} \mathrm{RSS}}=\sqrt{\frac{1}{n-2} \sum_{i=1}^{n}\left(y_{i}-\hat{y}_{i}\right)^{2}}RSE=n−21​RSS​=n−21​∑i=1n​(yi​−y^​i​)2​

    RSS=∑i=1n(yi−yi^)2RSS=\sum_{i=1}^n(y_i-\hat{y_i})^2RSS=∑i=1n​(yi​−yi​^​)2

  • R2R^2R2 统计量

    R2=TSS−RSSTSS=1−RSSTSSR^2=\frac{TSS-RSS}{TSS}=1-\frac{RSS}{TSS}R2=TSSTSS−RSS​=1−TSSRSS​ TSS=∑(yi−yˉ)2TSS=\sum(y_i-\bar{y})^2TSS=∑(yi​−yˉ​)2

    • TSS 测量响应 Y 中的总方差,可以将其视为执行回归之前响应中固有的变异量。 相比之下,RSS 测量执行回归后无法解释的变异量。 因此,TSS − RSS 测量通过执行回归可以被解释的变异量,R2 测量 Y 中可以使用 X 解释的变异量比例。
    • 确定一个好的 R2R^2R2 需要根据应用情况,在确定的物理模型中,我们希望 R2R^2R2 的值尽可能大,而在只能粗略近似估计的情况下,例如生物,心理,市场营销等模型中,我们预计只有很小一部分的响应方差可以由预测变量解释,此时更低的 R2R^2R2 可能更符合实际
    • R2R^2R2 统计量是 XXX 和 YYY之间线性关系的度量。相关性(correlation)定义为
      Cor⁡(X,Y)=∑i=1n(xi−xˉ)(yi−yˉ)∑i=1n(xi−xˉ)2∑i=1n(yi−yˉ)2\operatorname{Cor}(X, Y)=\frac{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)\left(y_{i}-\bar{y}\right)}{\sqrt{\sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}} \sqrt{\sum_{i=1}^{n}\left(y_{i}-\bar{y}\right)^{2}}}Cor(X,Y)=∑i=1n​(xi​−xˉ)2​∑i=1n​(yi​−yˉ​)2​∑i=1n​(xi​−xˉ)(yi​−yˉ​)​
      所以我们用 r=Cor(X,Y)r=Cor(X,Y)r=Cor(X,Y) 代替 R2R^2R2 ,在简单线性回归中, R2=r2R^2=r^2R2=r2

      • 相关性量化是单变量对单变量之间的关联,而不是多变量之间的关联

多元线性回归

多元线性回归形式:Y=β0+β2X1+....+βpXP+ϵY=\beta_0+\beta_2X_1+....+\beta_pX_P+\epsilonY=β0​+β2​X1​+....+βp​XP​+ϵ

评估回归系数

一些重要的问题

  1. 至少有一个 XXX 对预测有用?
  2. 所有预测变量都有助于解释响应变量,或者仅是一个子集的预测变量有用?
  3. 模型拟合数据的效果如何
  4. 给定一个预测变量集合,我们会预测出怎样的响应变量,预测的精度如何?
  • 预测变量和响应变量之间有关系吗?

    使用假设检验来验证这个问题,H0:β1=β2=...=βp=0H_0:\beta_1=\beta_2=...=\beta_p=0H0​:β1​=β2​=...=βp​=0
    Hα:∃βj≠0H_\alpha:{\exists}\space\beta_j\neq0Hα​:∃ βj​=0 通过计算 F−statisticF-statisticF−statistic 来论证
    F=TSS−RSS)/PRSS/(N−P−1)F=\frac{TSS-RSS)/P}{RSS/(N-P-1)}F=RSS/(N−P−1)TSS−RSS)/P​ TSS=∑(yi−yˉ)2TSS=\sum(y_i-\bar{y})^2TSS=∑(yi​−yˉ​)2 RSS=∑i=1n(yi−yi^)2RSS=\sum_{i=1}^n(y_i-\hat{y_i})^2RSS=∑i=1n​(yi​−yi​^​)2

    如果线性假设是正确的,则 E{RSS⁡/(n−p−1)}=σ2E\{\operatorname{RSS} /(n-p-1)\}=\sigma^{2}E{RSS/(n−p−1)}=σ2

    如果假设 H0H_0H0​ 是正确的,则

    因此当响应变量与预测变量之间不存在关联时,我们预计 F 统计量的取值接近于1,如果 HαH_\alphaHα​ 为真,则预计 F 大于1

    • 当 F 统计量已经接近1,那么拒绝 H0H_0H0​ 需要多大的 F ?这取决于 n 和 p 的取值

      对任意给定的 n 和 p 可以计算 p 值(p - value)从而判断是否拒绝 H0H_0H0​

  • 确定重要变量

    • 前向选择,从零(预测)变量模型开始,加入能导致 RSS 最低的变量,知道满足某种规则后停止。
    • 后向选择,从模型中所有变量开始,删除 p 值 最大的变量,即删除统计显著性最小的变量。知道满足某种规则停止。
    • 混合选择,一开始使用前向选择,随着预测变量的加入,变量的 p 值会增大。如果模型中任何一个变量的 p 值在加入某个点后超过了阈值,则从模型中删除该变量。知道模型中所有变量都有一个很低的 p 值,而模型外的变量加入到模型中就会有一个很大的 p 值。

    如果p > n,则不能使用后向选择,而总是可以使用前向选择。前向选择是一种贪婪的方法,并且可能包含早期的变量,后来变得冗余。混合选择可以弥补这一点。

  • 模型拟合

    • 当模型中加入更多的变量时,即使这些变量与响应只有微弱的关联,R2R^2R2 也会增加。这是由于增加另一个变量总是导致训练数据(尽管不一定是测试数据)上的残差平方和减小。因此,同样在训练数据上计算的 R2R^2R2 统计量必须增加。
    • RSE=RSSn−p−1RSE=\sqrt{\frac{RSS}{n-p-1}}RSE=n−p−1RSS​​
      当RSS的减小相对于p的增大较小时,含有较多变量的模型可以具有较高的 RSE
    • 图形摘要可以揭示从数值统计中不可见的模型的问题
  • 预测

    预测有三种不确定性

    • 系数估计的不准确性与可约误差(reducible error)有关,可以通过计算置信区间来确定 Y^\hat{Y}Y^ 与 f(X)f(X)f(X) 的接近程度
    • 假设 f(X)f(X)f(X) 为线性模型是一种对现实的近似,因此引入了一个额外的可减少误差,称之为模型偏差(model bias)但当我们使用线性模型时,我们将忽略这个差异
    • 预测区间总是比置信区间宽,因为其既包含了对 f(X)f(X)f(X) 估计的误差(可约误差)和个体点偏离回归平面的不确定性(不可约误差)

其他对线性回归的考虑

定性预测变量

  • 只有两个水平的预测变量

    创建虚拟变量 (在机器学习中称为 独热编码)

    xi={1if ith person owns a house 0if ith person does not own a house x_{i}=\left\{\begin{array}{ll}1 & \text { if } i \text { th person owns a house } \\0 & \text { if } i \text { th person does not own a house }\end{array}\right.xi​={10​ if i th person owns a house  if i th person does not own a house ​
    在回归方程中使用该变量作为预测因子

    yi=β0+β1xi+ϵi={β0+β1+ϵiif ith person owns a house β0+ϵiif ith person does not. y_{i}=\beta_{0}+\beta_{1} x_{i}+\epsilon_{i}=\left\{\begin{array}{ll}\beta_{0}+\beta_{1}+\epsilon_{i} & \text { if } i \text { th person owns a house } \\\beta_{0}+\epsilon_{i} & \text { if } i \text { th person does not. }\end{array}\right.yi​=β0​+β1​xi​+ϵi​={β0​+β1​+ϵi​β0​+ϵi​​ if i th person owns a house  if i th person does not. ​

    β0\beta_0β0​ 解释为不拥有信用卡的人之间的平均信用卡余额

    或者使用别的虚拟变量代替 0/1 编码方案

    xi={1if ith person owns a house −1if ith person does not own a house x_{i}=\left\{\begin{array}{ll}1 & \text { if } i \text { th person owns a house } \\-1 & \text { if } i \text { th person does not own a house }\end{array}\right.xi​={1−1​ if i th person owns a house  if i th person does not own a house ​

    则对应该回归方程为

    yi=β0+β1xi+ϵi={β0+β1+ϵiif ith person owns a house β0−β1+ϵiif ith person does not. y_{i}=\beta_{0}+\beta_{1} x_{i}+\epsilon_{i}=\left\{\begin{array}{ll}\beta_{0}+\beta_{1}+\epsilon_{i} & \text { if } i \text { th person owns a house } \\\beta_{0}-\beta_{1}+\epsilon_{i} & \text { if } i \text { th person does not. }\end{array}\right.yi​=β0​+β1​xi​+ϵi​={β0​+β1​+ϵi​β0​−β1​+ϵi​​ if i th person owns a house  if i th person does not. ​

    β0\beta_0β0​ 解释为总体平均信用卡余额(忽略住房影响)

    值得注意的是,无论使用何种编码方案,所有者和非所有者的信用余额的最终预测都将是相同的,唯一的区别在于系数的解释方式。

  • 超过两个水平的定性预测变量

    创建额外虚拟变量(例:对地区创建虚拟变量)

    xi1={1if ith person is from the South 0if ith person is not from the South x_{i 1}=\left\{\begin{array}{ll}1 & \text { if } i \text { th person is from the South } \\0 & \text { if } i \text { th person is not from the South }\end{array}\right.xi1​={10​ if i th person is from the South  if i th person is not from the South ​

    xi2={1if ith person is from the West 0if ith person is not from the West x_{i 2}=\left\{\begin{array}{ll}1 & \text { if } i \text { th person is from the West } \\0 & \text { if } i \text { th person is not from the West }\end{array}\right.xi2​={10​ if i th person is from the West  if i th person is not from the West ​

    建立线性回归方程

    yi=β0+β1xi1+β2xi2+ϵi={β0+β1+ϵiif ith person is from the South β0+β2+ϵiif ith person is from the West β0+ϵiif ith person is from the East. y_{i}=\beta_{0}+\beta_{1} x_{i 1}+\beta_{2} x_{i 2}+\epsilon_{i}=\left\{\begin{array}{ll}\beta_{0}+\beta_{1}+\epsilon_{i} & \text { if } i \text { th person is from the South } \\\beta_{0}+\beta_{2}+\epsilon_{i} & \text { if } i \text { th person is from the West } \\\beta_{0}+\epsilon_{i} & \text { if } i \text { th person is from the East. }\end{array}\right.yi​=β0​+β1​xi1​+β2​xi2​+ϵi​=⎩⎨⎧​β0​+β1​+ϵi​β0​+β2​+ϵi​β0​+ϵi​​ if i th person is from the South  if i th person is from the West  if i th person is from the East. ​

线性模型的扩展

线性模型做出了几个高度限制性的假设,其中最重要的两个假设是预测变量和响应变量之间的关系是可加的线性的

可加性假设意味着一个预测变量 XjX_jXj​ 和响应变量 YYY 之间的相关性不依赖于其他预测变量的值

线性假设指出,与 XjX_jXj​ 的一个单位变化相关的响应 YYY 的变化是恒定的,不管 XjX_jXj​ 的值如何

  • 移除可加性假设

    • 扩展模型的一种方法是包含第三个预测因子,称为交互项,它是通过计算 X1X_1X1​ 和 X2X_2X2​ 的乘积构造的
      Y=β0+β1X1+β2X2+β3X1X2+ϵY=\beta_{0}+\beta_{1} X_{1}+\beta_{2} X_{2}+\beta_{3} X_{1} X_{2}+\epsilonY=β0​+β1​X1​+β2​X2​+β3​X1​X2​+ϵ

      交互项如何减轻可加性假设?

      Y=β0+(β1+β3X2)X1+β2X2+ϵ=β0+β~1X1+β2X2+ϵ\begin{aligned}Y & =\beta_{0}+\left(\beta_{1}+\beta_{3} X_{2}\right) X_{1}+\beta_{2} X_{2}+\epsilon \\& =\beta_{0}+\tilde{\beta}_{1} X_{1}+\beta_{2} X_{2}+\epsilon\end{aligned}Y​=β0​+(β1​+β3​X2​)X1​+β2​X2​+ϵ=β0​+β~​1​X1​+β2​X2​+ϵ​

      β1~=β1+β3X2\tilde{\beta_1}=\beta_1+\beta_3X_2β1​~​=β1​+β3​X2​ ,因此 β1~\tilde{\beta_1}β1​~​ 是 X2X_2X2​ 的函数。X1X_1X1​ 和 YYY 之间的关联不再是恒定的,X2X_2X2​ 值的变化会改变 X1X_1X1​ 和 YYY 之间的关联

      如果 X1X_1X1​ 和 X2X_2X2​ 之间的相互作用看起来很重要,那么即使 X1X_1X1​ 和 X2X_2X2​ 的系数估计值具有较大的 p 值,我们也应该将它们都包括在模型中。因为,如果 X1×X2X_1 × X_2X1​×X2​ 与响应变量有关,那么 X1X_1X1​ 或 X2X_2X2​ 的系数是否恰好为零就没有什么意义了。

  • 非线性关系

    例如假设关系为:Y=β0+β1×X1+β2×X22+ϵY=\beta_0+\beta_1\times X_1+\beta_2\times {X_2}^2+\epsilonY=β0​+β1​×X1​+β2​×X2​2+ϵia

潜在问题

  • 数据的非线性

    利用残差图识别非线性

    给定一个简单线性回归模型,将残差 ei=yi−yi^e_i=y_i-\hat{y_i}ei​=yi​−yi​^​ 与预测变量 xix_ixi​ 作图。理想情况下,残差图将显示无可辨别的模式。 模式的存在可能表明线性模型的某些方面存在问题

    左图 U 型图指示了数据中强烈的非线性,右图无明显的模式

  • 误差项的相关性

    线性回归模型的一个重要假设是误差项不相关

    如果误差项之间具有相关性:

    则估计值的标准误差将低于真实标准误差,会导致置信区间与预测区间会比应有范围更窄

    与模型相关的 p 值会低于他们应有的值,这可能导致我们错误地认为某个参数具有统计显著性

    假设我们不小心把我们的数据加倍,导致观测值和误差项两两相同。如果我们忽略这一点,我们的标准误差计算就好像我们有一个大小为 2n2n2n 的样本,而实际上我们只有 nnn 个样本。我们对 2n2n2n 个样本的估计参数与对 nnn 个样本的估计参数相同,但置信区间缩小了2\sqrt22​

  • 误差项的非恒定方差

    线性回归模型的另一个重要假设是 误差项具有恒定的方差 Var(ϵi)=σ2Var(\epsilon_i)=\sigma^2Var(ϵi​)=σ2 与线性模型相关的标准误差、置信区间、假设检验都依赖于这一假设

    但误差项的方差往往是非常数的。我们可以通过残差图中漏斗形状的存在来识别误差中的非恒定方差或异方差性。

  • 异常值(离群点)

    离群点是指 yiy_iyi​ 离模型的预测值较远的点

    离群值对于模型的拟合可能不会有太大的影响,但会引入其他问题。RSE 可能会因为单个离群值而发生急剧的变化,而 RSE 用于计算所有的置信区间和 p 值,因此单个数据引起的这种变化,可能会对拟合的解释产生影响。同样离群值的加入会导致 R2R^2R2 的变化

    残差图可以用于识别异常值,但很难确定残差需要多大。可以画学生残差(studentized residuals)用每个残差除以它的估计标准差,学生化残差绝对值大于 3 的观测值可能是异常值

    因为数据收集错误的异常值可以直接删除,但需要注意,异常值也可以用于指示模型的不足

  • 高杠杆点(High Leverage Points)

    不寻常的预测变量 xix_ixi​

    在简单线性回归中,高杠杆值一般是超过正常值的

    在多元线性回归中,预测值在单个预测因子中是良好的,但在全集中是不正常的

    为了量化观测值的杠杆,我们计算杠杆统计量(leverage statistic)该统计量的值较大,表明观测值具有较高的杠杆统计杠杆。
    hi=1n+(xi−xˉ)2∑i′=1n(xi′−xˉ)2h_{i}=\frac{1}{n}+\frac{\left(x_{i}-\bar{x}\right)^{2}}{\sum_{i^{\prime}=1}^{n}\left(x_{i^{\prime}}-\bar{x}\right)^{2}}hi​=n1​+∑i′=1n​(xi′​−xˉ)2(xi​−xˉ)2​
    杠杆统计量 hih_ihi​ 始终介于 1n\frac1nn1​ 和 111 之间,所有观测值的平均杠杆始终等于 p+1n\frac{p + 1}{n}np+1​。因此,如果一个给定的观测有一个远远超过 p+1n\frac{p + 1 }{n}np+1​ 的杠杆统计量,那么我们可能会怀疑对应点有高杠杆。

  • 共线性(collinearity)

    共线性是指两个或多个预测变量密切相关的情况

    共线性的存在会在回归背景下带来问题,因为很难分离出共线变量对响应的单独影响

    共线性降低了回归系数估计值的准确度,导致 βj^\hat{\beta_j}βj​^​ 的标准误差增大。而 t-统计量由每个 βj^\hat{\beta_j}βj​^​ 除以其标准误差计算得到,因此共线性导致 t-统计量下降。因此,当存在共线性问题时,我们可能无法拒绝 H0:βj=0H_0:\beta_j=0H0​:βj​=0 ,这意味着共线性降低了假设检验的能力,正确检测非零系数的概率。

    评估多重共线性的一个更好方法是计算方差膨胀因子(VIF)VIF的最小可能值为1,表明完全不存在共线性。实践中一般存在少量共线性,当 VIF 超过 5 或 10 时表明存在共线性问题。VIF公式为:
    VIF⁡(β^j)=11−RXj∣X−j2\operatorname{VIF}\left(\hat{\beta}_{j}\right)=\frac{1}{1-R_{X_{j} \mid X_{-j}}^{2}}VIF(β^​j​)=1−RXj​∣X−j​2​1​

    RXj∣X−j2{R_{X_{j} \mid X_{-j}}^{2}}RXj​∣X−j​2​是 XjX_jXj​ 对所有其他预测变量回归的 R2R_2R2​

    解决共线性的两个办法:

    1. 从回归中删除其中一个有问题的变量。这通常可以在不影响回归t的情况下完成,因为共线性的存在意味着该变量提供的关于响应的信息在其他变量存在的情况下是冗余的
    2. 将共线变量组合成单个预测变量。
  • 一些问题

    1. 预测变量和响应变量之间是否存在关联?

      做出 H0:β=0H_0:\beta=0H0​:β=0 后,F-统计量可以判断是否拒绝这种假设

    2. 这种关联有多强?

      RSE 用于估计响应变量的标准差;R2R^2R2 记录由预测因子解释的响应中变异的百分比。

    3. 哪个预测变量与响应相关?

      检查与每个预测因子的t统计量相关的p值

    4. 每个预测变量与响应俩之间的关联有多大?

      置信区间。但报纸的区间包含0,说明给定电视和广播的取值,该变量在统计上不显著

    5. 预测的响应变量准确度多高?

      与此估计相关的准确性取决于我们是否希望预测个体响应Y=f(X)+ϵY = f ( X ) +\epsilonY=f(X)+ϵ ,或平均响应 f(X)f ( X )f(X) 。如果是前者,我们使用预测区间,如果是后者,我们使用置信区间。预测区间总是比置信区间宽,因为它们考虑了与不可约误差相关的不确定性。

    6. 这种关联是线性的吗?

      使用残差图识别非线性

对比线性回归和 K最近邻法

3. Linear Regression相关推荐

  1. 【cs229-Lecture2】Linear Regression with One Variable (Week 1)(含测试数据和源码)

    从Ⅱ到Ⅳ都在讲的是线性回归,其中第Ⅱ章讲得是简单线性回归(simple linear regression, SLR)(单变量),第Ⅲ章讲的是线代基础,第Ⅳ章讲的是多元回归(大于一个自变量). 本文的 ...

  2. Linear Regression(一)——

    Linear Regression(一)-- 机器学习 回归 定义 回归的定义 在平面上存在这些点我希望能用一条直线尽可能经过它们. 于是我们画了下面的一条直线 这样的过程就叫做回归. 这个过程中我们 ...

  3. R语言使用lm函数拟合多元线性回归模型、假定预测变量没有交互作用(Multiple linear regression)

    R语言使用lm函数拟合多元线性回归模型.假定预测变量没有交互作用(Multiple linear regression) 目录

  4. Python使用sklearn和statsmodels构建多元线性回归模型(Multiple Linear Regression)并解读

    Python使用sklearn和statsmodels构建多元线性回归模型(Multiple Linear Regression)并解读 #仿真数据集(预测股票指数) 这里的目标是根据两个宏观经济变量 ...

  5. R语言可视化包ggplot2绘制线性回归模型曲线实战( Linear Regression Line)

    R语言可视化包ggplot2绘制线性回归模型曲线实战( Linear Regression Line) 目录 R语言可视化包ggplot2绘制线性回归模型曲线实战( Linear Regression ...

  6. R语言基于线性回归(Linear Regression)进行特征筛选(feature selection)

    R语言基于线性回归(Linear Regression)进行特征筛选(feature selection) 对一个学习任务来说,给定属性集,有些属性很有用,另一些则可能没什么用.这里的属性即称为&qu ...

  7. 局部加权线性回归(Local Weighted Linear Regression)+局部加权回归+局部线性回归

    局部加权线性回归(Local Weighted Linear Regression)+局部加权回归+局部线性回归 locally weighted scatterplot smoothing,LOWE ...

  8. python中的linearregression_【python+机器学习(2)】python实现Linear Regression

    欢迎关注哈希大数据微信公众号[哈希大数据] python实现多元线性回归算法(lr) 想必大家在很早之前就接触过函数的概念,即寻找自变量和因变量之间的对应关系,一元一次.多元一次.一元二次等等,表示的 ...

  9. Linear regression with one variable算法实例讲解(绘制图像,cost_Function ,Gradient Desent, 拟合曲线, 轮廓图绘制)_矩阵操作...

    %测试数据 'ex1data1.txt', 第一列为 population of City in 10,000s, 第二列为 Profit in $10,000s 1 6.1101,17.592 2 ...

  10. 机器学习之线性回归(Linear Regression)

    线性学习中最基础的回归之一,本文从线性回归的数学假设,公式推导,模型算法以及实际代码运行几方面对这一回归进行全面的剖析~ 一:线性回归的数学假设 1.假设输入的X和Y是线性关系,预测的y与X通过线性方 ...

最新文章

  1. Android底部菜单栏 仿微博效果
  2. AS3 中强制类型转换方法
  3. mysql query结果集_如何解决PHP使用mysql_query查询超大结果集超内存问题
  4. XML解析-Dom4j的DOM解析方式更新XML
  5. python 获取当前月份月初日期和月末日期
  6. MySQL中的主键约束和外键约束
  7. TensorFlow 可用的数据增强
  8. 阿里云盘tv版 v1.0.6电视版
  9. linux里怎么解压war包,Linux压缩war和解压war包
  10. micropython stm32源码修改_网上买了ps2手柄,按stm32 代码 改写了个micropython
  11. ArcGIS 在线地图加载插件介绍
  12. 【毕业设计】 单片机自动写字机器人设计与实现 - 物联网 嵌入式 stm32
  13. 腾讯云服务器入门使用流程 新手必看教程
  14. U8glib学习使用(详细版)
  15. 小闫陪你入门 Java (二)
  16. 随机过程(上):马尔可夫链
  17. 鲍尔默:微软移动业务需要寻找新方向
  18. 将Json转换过来的带T的字符串格式的时间转换成正常时间,并通过指定格式输出
  19. 输入存款金额m、存期(年)y和年利率r,计算并输出到期的利息p
  20. 计算机错误代码字母,电脑开机蓝屏英文字母的解决方法

热门文章

  1. 全国省市数据 sql语句+json格式数据
  2. VRay 3.4 for SketchUp 写实室内渲染的10个小技巧
  3. GitHub官方出手,一针见血。Spring Boot趣味实战手册来袭(彩版)
  4. 退役旧数据节点-黑名单退役
  5. linux上的远程桌面工具
  6. 【每日早报】2019/12/17
  7. 双重游标的使用以及动态游标的使用
  8. 电脑分盘怎么分?分盘详细教程来了,图文教学
  9. CSS制作类似浏览器标题栏的圆角样式
  10. rustdesk RustDesk 自建服务器,局域网可以连接服务器,外网就不可以了。 求高手指点迷津。