二、逻辑回归原理

  逻辑回归又叫对数几率回归,是一种广义的线性回归分析模型。虽然名字里有回归,但其实是分类模型,常用于二分类。

1.什么是逻辑回归

  由于逻辑回归的原理是用逻辑函数把线性回归的结果(−∞,+∞)(-∞,+∞)(−∞,+∞)映射到(0,1)(0,1)(0,1),故先介绍线性回归函数和逻辑函数,在本节的第三部分介绍逻辑回归函数。

1.1 线性回归函数

   ① 线性回归函数的数学表达式:
y=θ0+θ1x1+θ2x2+⋯+θnxn(1)y = \theta_0 + \theta_1 x_1 + \theta_2 x_2 + \cdots + \theta_n x_n ~~~~ (1)y=θ0​+θ1​x1​+θ2​x2​+⋯+θn​xn​    (1)
其中xix_ixi​是自变量,yyy是因变量,yyy的值域为(−∞,∞)(-∞,∞)(−∞,∞),θ0\theta_0θ0​是常数项,θi(i=1,2,...,n)\theta_i(i=1,2,...,n)θi​(i=1,2,...,n)是待求系数,不同的权重θi\theta_iθi​反映了自变量对因变量不同的贡献程度。

1.2 逻辑函数(sigmoidsigmoidsigmoid函数)

  ① 逻辑函数的数学表达式:
g(y)=11+e−y=ey1+ey(2)g(y) = \frac{1} {1+e^{-y}} = \frac{e^{y}} {1+e^{y}} ~~~~(2) g(y)=1+e−y1​=1+eyey​    (2)

  ② 逻辑函数的图像:

图1:逻辑函数

从图1:逻辑函数中可以看出,当yyy 趋向于 +∞,g(y)+∞ ,g(y)+∞,g(y)趋近于111,当yyy 趋向于 −∞,g(y)-∞, g(y)−∞,g(y)趋近于000。从图中亦可以看出当y>5y>5y>5时g(y)g(y)g(y)已经接近于111。想一想概率的定义:概率论的基本概念,是一个在0到1之间的实数,是对随机事件发生的可能性的度量。概率也是一个介于000到111之间的实数,很自然的我们会把概率与逻辑函数的值域联系到一起。

  ③ 逻辑函数的导函数,根据公式(2)(2)(2)推导得:
g′(y)=ey(1+ey)2=ey(1+ey)∗1(1+ey)=ey(1+ey)∗(1−ey(1+ey))=g(y)(1−g(y))(3)g^{'}(y) = \frac{e^{y}} {(1+e^{y})^2} = \frac{e^{y}} {(1+e^{y})} * \frac{1} {(1+e^{y})} = \frac{e^{y}} {(1+e^{y})} * (1-\frac{e^{y}} {(1+e^{y})}) = g(y)(1-g(y)) ~~~~(3) g′(y)=(1+ey)2ey​=(1+ey)ey​∗(1+ey)1​=(1+ey)ey​∗(1−(1+ey)ey​)=g(y)(1−g(y))    (3)

从上面的推导可以看出逻辑函数的导函数可以转化成本身的一个表达式,这在后面用梯度下降法求解参数时会用到,可以先有个印象。

  从本节对逻辑函数的介绍知,逻辑函数是一个连续且任意阶可导的函数,值域为(0,1)(0,1)(0,1)。

1.2 逻辑回归函数

   在逻辑回归的由来一文中详细推导了得出逻辑回归函数的步骤,也得知逻辑回归的因变量g(y)g(y)g(y)就是伯努利分布中样本为111的概率。前文中也提到过逻辑回归的原理是用逻辑函数把线性回归的结果从(−∞,+∞)(-∞,+∞)(−∞,+∞)映射到(0,1)(0,1)(0,1)。我们用公式描述上面这句话:

g(y)=11+e−y=11+e−(θ0+θ1x1+θ2x2+⋯+θnxn)=11+e−(θTX)(4)g(y) = \frac{1} {1+e^{-y}} = \frac{1} {1+e^{-(\theta_0 + \theta_1 x_1 + \theta_2 x_2 + \cdots + \theta_n x_n)}} = \frac{1} {1+e^{-(\theta^TX)}}~~~~(4) g(y)=1+e−y1​=1+e−(θ0​+θ1​x1​+θ2​x2​+⋯+θn​xn​)1​=1+e−(θTX)1​    (4)
把线性回归函数的结果yyy,放到逻辑函数中去,就构造了逻辑回归函数。由yyy的值域和逻辑函数的值域知,在逻辑回归函数中用逻辑函数把线性回归的结果(−∞,+∞)(-∞,+∞)(−∞,+∞)映射到(0,1)(0,1)(0,1),得到的这个结果类似一个概率值。

  ① 几率(odds)(odds)(odds) 与对数几率

  求公式(2)(2)(2)逻辑函数,过程如下:

g(y)=11+e−y⟹e−y=1g(y)−1=1−g(y)g(y)⟹y=ln(g(y)1−g(y))(5)g(y) = \frac{1} {1+e^{-y}} \Longrightarrow e^{-y} = \frac{1} {g(y)}-1 = \frac{1-g(y)} {g(y)} \Longrightarrow y = ln(\frac{g(y)} {1-g(y)}) ~~~~(5) g(y)=1+e−y1​⟹e−y=g(y)1​−1=g(y)1−g(y)​⟹y=ln(1−g(y)g(y)​)    (5)

由公式(4)(4)(4)逻辑回归函数可知,y=θTXy = \theta^T Xy=θTX,现在把逻辑回归的结果g(θTX)g(\theta^T X)g(θTX) 看成某个事件发生的概率,那么这个事件不发生的概率就是1−g(θTX)1-g(\theta^T X)1−g(θTX),两者的比值称为几率(odds)(odds)(odds),令g(θTX)=pg(\theta^T X) = pg(θTX)=p 可以得到如下公式:

θTX=ln(g(y)1−g(y))⟹θTX=ln(p1−p)=ln(odds)(6)\theta^T X = ln(\frac{g(y)} {1-g(y)}) \Longrightarrow \theta^T X = ln(\frac{p} {1-p}) = ln(odds) ~~~~(6) θTX=ln(1−g(y)g(y)​)⟹θTX=ln(1−pp​)=ln(odds)    (6)

即线性回归的结果为对数几率。

   如果我们把车贷中违约(不按期还款导致逾期产生坏账)客户的样本标签定义为111,正常(按期还款)客户样本标签定义为000。可以进一步把逻辑函数的值定义为客户违约的后验概率。

P(Y=1∣X)=11+e−y=11+e−(θ0+θ1x1+θ2x2+⋯+θnxn)=11+e−(θTX)(7)P(Y=1|X) = \frac{1} {1+e^{-y}} = \frac{1} {1+e^{-(\theta_0 + \theta_1 x_1 + \theta_2 x_2 + \cdots + \theta_n x_n)}} = \frac{1} {1+e^{-(\theta^TX)}} ~~~~(7) P(Y=1∣X)=1+e−y1​=1+e−(θ0​+θ1​x1​+θ2​x2​+⋯+θn​xn​)1​=1+e−(θTX)1​    (7)

如果历史上我们累积了大量的违约客户和正常客户的样本数据,比如违约客户和正常客户的年龄、性别、工资、房贷等众多标签,这些标签就是逻辑回归函数中的xix_ixi​,我们可以用这些样本数据训练逻辑回归模型,并求解得到变量xxx的参数(系数)θi\theta_iθi​。标签数据年龄、工资等是已有信息,如果参数(系数)θi\theta_iθi​也已经求出,把标签数据和参数代入逻辑回归模型,就可以预测任一客户违约的概率。那如何求解逻辑回归模型中的参数?在第二节中做简要说明,在Python中已有现成的封装函数,直接调用即可。

2.如何求解逻辑回归中的参数?

2.1 极大似然函数

   先来看一个小例子:如果小华这次考试考了90分以上,妈妈99%会奖励小华一个手机,如果没有考到90分以上,妈妈99%不会奖励小华手机。现在小华没有得到手机,问小华这次有没有考到90分。可能我们的第一反应是小华大概率没有考到90分以上。这种利用已知样本结果,反推最有可能导致这样结果的参数值,就是极大似然估计。结合逻辑回归函数,如果我们已经积累了大量的违约客户和正常客户的样本数据,利用极大似然函数由果溯因,估计出使得目前结果的可能性最大参数(系数)θ,有了参数我们就可以求任何一个客户违约的概率了。

   由公式(7)(7)(7)提到过客户违约的后验概率,可以推导出客户不违约的后验概率为:

P(Y=0∣X)=1−11+e−y=1−11+e−(θTX)=11+e(θTX)(8)P(Y=0|X) =1- \frac{1} {1+e^{-y}} = 1-\frac{1} {1+e^{-(\theta^TX)}} = \frac{1} {1+e^{(\theta^TX)}} ~~~~(8) P(Y=0∣X)=1−1+e−y1​=1−1+e−(θTX)1​=1+e(θTX)1​    (8)

   令:11+e−y=g(y)=gθ(x)(9)\frac{1} {1+e^{-y}} = g(y) = g_\theta(x) ~~~~(9) 1+e−y1​=g(y)=gθ​(x)    (9)

   则违约的后验概率可以写成:P(Y=1∣X)=gθ(x)(10)P(Y=1|X) = g_\theta(x) ~~~~(10) P(Y=1∣X)=gθ​(x)    (10)

   则不违约的后验概率可以写成:P(Y=0∣X)=1−gθ(x)(11)P(Y=0|X) = 1- g_\theta(x) ~~~~(11) P(Y=0∣X)=1−gθ​(x)    (11)

   对于某一个客户,我们采集到了样本数据(X,y)(X,y)(X,y)。对于这个样本,他的标签是yyy的概率可以定义成:

P(y∣X,θ)=gθ(x)y∗(1−gθ(x))1−y(12)P(y|X,\theta) = g_\theta(x)^y * (1-g_\theta(x))^{1-y} ~~~~(12) P(y∣X,θ)=gθ​(x)y∗(1−gθ​(x))1−y    (12)

其中y∈0,1y∈{0,1}y∈0,1。当y=0y=0y=0时,上式为不违约的后验概率,当y=1y=1y=1时,上式为违约的后验概率。现在我们有mmm个客户的观测样本,D={(X1,y1),(X2,y2)+⋯+(Xm,ym)}D = \lbrace(X_1,y_1),(X_2,y_2)+\cdots + (X_m,y_m)\rbraceD={(X1​,y1​),(X2​,y2​)+⋯+(Xm​,ym​)},将每一个样本发生的概率相乘,就是这个合成在一起得到的合事件发生的总概率(利用概率中的乘法公式),即为似然函数,可以写成:

L(θ)=∏i=1mln(p(yi∣Xi;θ))=∏i=1m(gθ(xi)yi∗(1−gθ(xi))1−yi)(13)L(\theta) = \prod_{i=1}^{m}ln(p(y_i|X_i;\theta)) = \prod_{i=1}^{m} (g_\theta(x_i)^{y_i} * (1-g_\theta(x_i))^{1-y_i}) ~~~~(13) L(θ)=i=1∏m​ln(p(yi​∣Xi​;θ))=i=1∏m​(gθ​(xi​)yi​∗(1−gθ​(xi​))1−yi​)    (13)

其中θ\thetaθ为待求参数。

   我们总是希望出现目前结果的可能性最大,所以想要得到极大化似然函数对应的参数θ\thetaθ。我们引入不改变函数单调性的对数函数lnlnln,把连乘变成加法,得到对数似然函数,使用对数似然函数,不仅仅把连乘变成加法,便于求解,而且对数似然函对应的损失函数是关于未知参数的高阶连续可导的凸函数,便于求其全局最优解。:

l(θ)=ln(L(θ))=∑i=1mln(p(yi∣Xi;θ))=∑i=1m[yiln(gθ(xi))+(1−yi)ln(1−gθ(xi))](14)l(\theta) = ln(L(\theta)) = \sum_{i=1}^{m}ln(p(y_i|X_i;\theta)) = \sum_{i=1}^{m} [{y_i}ln(g_\theta(x_i)) + (1-y_i)ln(1-g_\theta(x_i))] ~~~~(14) l(θ)=ln(L(θ))=i=1∑m​ln(p(yi​∣Xi​;θ))=i=1∑m​[yi​ln(gθ​(xi​))+(1−yi​)ln(1−gθ​(xi​))]    (14)

至此,可以用梯度上升法求解对数似然函数,求出使得目前结果的可能性最大的参数θ\thetaθ。也可以由对数似然函数构造损失函数,用梯度下降法求出使得损失最小对应的参数θ\thetaθ,接下来看下逻辑回归中的损失函数。

2.2 构造损失函数

   在机器学习中有损失函数的概念,我们知道损失函数一般定义为预测值和真实值的差,比如我们预测小华在这次考试中能考989898分,成绩出来了小华实际考了979797分,小华的成绩预测值和真实值差为111,这个111通俗理解就是损失函数的值。从上面的案例知,如果损失函数越小,说明模型预测越准。所以在函数比较复杂没有确定解(解析解)或很难求出确定解的情况下,一般求的是数值解(近似解)。一般模型求数值解可以求出使得损失函数最小对应的参数θ\thetaθ。结合逻辑回归中的极大似然函数,如果取整个数据集上的平均对数似然损失,我们可以得到:

J(θ)=−1mln(L(θ))=−1m∑i=1m[yiln(gθ(xi))+(1−yi)ln(1−gθ(xi))](15)J(\theta) = -\frac{1}{m} ln(L(\theta)) = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}ln(g_\theta(x_i)) + (1-y_i)ln(1-g_\theta(x_i))] ~~~~(15) J(θ)=−m1​ln(L(θ))=−m1​i=1∑m​[yi​ln(gθ​(xi​))+(1−yi​)ln(1−gθ​(xi​))]    (15)

其中J(θ)J(\theta)J(θ)为损失函数,由对数似然函数前面添加负号取平均得到。即在逻辑回归模型中,最大化似然函数和最小化损失函数实际上是等价的(求最大化对数似然函数对应的参数θ\thetaθ和求最小化平均对数似然损失对应的参数θ\thetaθ是一致的),即:

max(ln(L(θ)))⟺min(J(θ))(16)max(ln(L(\theta))) \Longleftrightarrow min(J(\theta)) ~~~~(16) max(ln(L(θ)))⟺min(J(θ))    (16)

那如何求得损失函数最小对应的参数呢?可以用2.3讲到的方法:梯度下降法。

2.3用梯度下降法求解参数

  先以一个人下山为例讲解梯度下降法的步骤:

    step1:明确自己现在所处的位置;

    step2:找到现在所处位置下降最快的方向;

    step3: 沿着第二步找到的方向走一个步长,到达新的位置,且新位置低于刚才的位置;

    step4:判断是否下山,如果还没有到最低点继续步骤一,如果已经到最低点,则停止。

从上面的分析知,用梯度下降法求解参数最重要的是找到下降最快的方向和确定要走的步长。那么什么是函数下降最快的方向?如果学过一元函数的导数,应该知道导数的几何意义是某点切线的斜率。除此之外导数还可以表示函数在该点的变化率,导数越大,表示函数在该点的变化越大。

图2:曲线的导数

从图2可以发现p2p2p2点的斜率大于p1p1p1点的斜率,即p2p2p2点的导数大于p1p1p1点的导数。对于多维向量 x=(x1,x2,⋯,xm)x = (x_1,x_2,\cdots,x_m)x=(x1​,x2​,⋯,xm​) 它的导数叫做梯度(偏导数),当求某个变量的导数时,把其它变量视为常量,对整个函数求导,也就是分别对于它的每个分量求导数,即 x′=(x1′,x2′,⋯,xm′)x^{'} = (x_1^{'},x_2^{'},\cdots,x_m^{'})x′=(x1′​,x2′​,⋯,xm′​)。对于函数的某个特定点,它的梯度就表示从该点出发,函数值变化最为迅猛的方向。至此梯度下降法求解参数的方向已经找到,那就是函数的梯度方向。接下来推导损失函数的梯度(偏导数),对损失函数公式(15)(15)(15)求偏导得:

∂J(θ)∂θj=−1m∑i=1m[yi∗1gθ(xi)∗∂gθ(xi)∂θj+(1−yi)∗11−gθ(xi)∗∂gθ(xi)∂θj](17)\frac{\partial J(\theta)}{\partial \theta_j} = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}*\frac{1}{g_\theta(x_i)}*\frac{\partial g_\theta(x_i)}{\partial \theta_j} + (1-y_i)*\frac{1}{1-g_\theta(x_i)}*\frac{\partial g_\theta(x_i)}{\partial \theta_j}] ~~~~(17) ∂θj​∂J(θ)​=−m1​i=1∑m​[yi​∗gθ​(xi​)1​∗∂θj​∂gθ​(xi​)​+(1−yi​)∗1−gθ​(xi​)1​∗∂θj​∂gθ​(xi​)​]    (17)

∂J(θ)∂θj=−1m∑i=1m[yi∗1gθ(xi)+(1−yi)∗11−gθ(xi)]∗∂gθ(xi)∂θj(17)\frac{\partial J(\theta)}{\partial \theta_j} = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}*\frac{1}{g_\theta(x_i)} + (1-y_i)*\frac{1}{1-g_\theta(x_i)}]*\frac{\partial g_\theta(x_i)}{\partial \theta_j} ~~~~(17) ∂θj​∂J(θ)​=−m1​i=1∑m​[yi​∗gθ​(xi​)1​+(1−yi​)∗1−gθ​(xi​)1​]∗∂θj​∂gθ​(xi​)​    (17)

∂J(θ)∂θj=−1m∑i=1m[yi∗1g(θTXi)+(1−yi)∗11−g(θTXi)]∗∂g(θTXi)∂θj(17)\frac{\partial J(\theta)}{\partial \theta_j} = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}*\frac{1}{g(\theta^TX_i)} + (1-y_i)*\frac{1}{1-g(\theta^TX_i)}]*\frac{\partial g(\theta^TX_i)}{\partial \theta_j} ~~~~(17) ∂θj​∂J(θ)​=−m1​i=1∑m​[yi​∗g(θTXi​)1​+(1−yi​)∗1−g(θTXi​)1​]∗∂θj​∂g(θTXi​)​    (17)

∂J(θ)∂θj=−1m∑i=1m[yi∗1g(θTXi)+(1−yi)∗11−g(θTXi)]∗g(θTXi)∗[1−g(θTXi)]∗∂(θTXi)∂θj(17)\frac{\partial J(\theta)}{\partial \theta_j} = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}*\frac{1}{g(\theta^TX_i)} + (1-y_i)*\frac{1}{1-g(\theta^TX_i)}]*g(\theta^TX_i)*[1-g(\theta^TX_i)]*\frac{\partial (\theta^TX_i)}{\partial \theta_j} ~~~~(17) ∂θj​∂J(θ)​=−m1​i=1∑m​[yi​∗g(θTXi​)1​+(1−yi​)∗1−g(θTXi​)1​]∗g(θTXi​)∗[1−g(θTXi​)]∗∂θj​∂(θTXi​)​    (17)

∂J(θ)∂θj=−1m∑i=1m[yi∗(1−g(θTXi))+(1−yi)∗(g(θTXi))]∗xij(17)\frac{\partial J(\theta)}{\partial \theta_j} = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}*(1-g(\theta^TX_i)) + (1-y_i)*(g(\theta^TX_i))]*x_i^{j} ~~~~(17) ∂θj​∂J(θ)​=−m1​i=1∑m​[yi​∗(1−g(θTXi​))+(1−yi​)∗(g(θTXi​))]∗xij​    (17)

∂J(θ)∂θj=−1m∑i=1m[yi−g(θTXi)]∗xij(17)\frac{\partial J(\theta)}{\partial \theta_j} = -\frac{1}{m} \sum_{i=1}^{m} [{y_i}-g(\theta^TX_i)]*x_i^{j} ~~~~(17) ∂θj​∂J(θ)​=−m1​i=1∑m​[yi​−g(θTXi​)]∗xij​    (17)

∂J(θ)∂θj=1m∑i=1m[g(θTXi)−yi]∗xij(17)\frac{\partial J(\theta)}{\partial \theta_j} = \frac{1}{m} \sum_{i=1}^{m} [{g(\theta^TX_i)-y_i}]*x_i^{j} ~~~~(17) ∂θj​∂J(θ)​=m1​i=1∑m​[g(θTXi​)−yi​]∗xij​    (17)

至此,找到了梯度下降中的方向,只要给定一个步长就可以用迭代的方式来求待求参数,迭代的公式为:

θjk+1=θjk−aF(18)\theta_j^{k+1} = \theta_j^{k}-aF ~~~~(18) θjk+1​=θjk​−aF    (18)

其中,把当前位置的θ\thetaθ代入−aF-aF−aF得到的值,才是该点处梯度下降的步长。aaa是学习率,是一个大于000的数,它能控制着沿某个方向走多长一段距离,不是步长。FFF是方向,可表示为:

F=∂J(θ)∂θj(18)F = \frac{\partial J(\theta)}{\partial \theta_j} ~~~~(18) F=∂θj​∂J(θ)​    (18)

则迭代公式可以进一步写为:

θjk+1=θjk−a∗1m∑i=1m[g(θTXi)−yi]∗xij(18)\theta_j^{k+1} = \theta_j^{k}-a*\frac{1}{m} \sum_{i=1}^{m} [{g(\theta^TX_i)-y_i}]*x_i^{j} ~~~~(18) θjk+1​=θjk​−a∗m1​i=1∑m​[g(θTXi​)−yi​]∗xij​    (18)

   一般迭代到达一定次数或学习曲线小于某个阈值时,停止迭代。关于学习率,吴恩达老师的机器学习课介绍了动态学习率的方法,也就是随着迭代的次数不断地减小学习率的值,实际上,我们假设在刚开始下山时是处于一个较高的位置,这时候我们是可以将“步子”迈大一点而不用担心“跨过头”的,但是随着越来越靠近山底(迭代的次数越来越多),这时候我们的“步子“应该是越来越小,直到到达最低点。

参考文献:

1.https://cloud.tencent.com/developer/article/1694353

2.https://cloud.tencent.com/developer/article/1694338

3.https://blog.csdn.net/weixin_42471573/article/details/124707000

逻辑回归_极大似然估计相关推荐

  1. 机器学习笔记(VII)线性模型(III)对数几率回归和极大似然估计

    背景知识 常见回归模型 线性回归(linear regression): y=wTx+b(1) y=\mathbf{w}^T\mathbf{x}+b\tag{1} 但是有时候预测值会逼近 y \mat ...

  2. 逻辑回归(Logistic Regression)原理及损失函数、极大似然估计

    一.什么是逻辑回归 虽然名字是"回归",但解决的是"分类"问题. 模型学习的是E[y∣x;θ]E[y|x;\theta]E[y∣x;θ],即给定自变量和超参数后 ...

  3. 伽马分布极大似然估计_一文通俗解释极大似然估计

    我们都知道机器学习的大致流程是通过建立一个合理的模型学习现有数据集,然后通过该模型去完成特定的任务.其中每个模型都包含自身的一组特定参数,而这组参数决定着模型的本身.但这里存在一个很关键的一个问题,就 ...

  4. 极大似然估计_计量经济学 | 极大似然估计

    写在前面:本文写作于被新冠病毒 (COVID-19) 笼罩下的英国.前段时间本人的恩师.苏格兰老爷爷.英国伯明翰大学Emeritus讲席教授Peter Sinclair确诊新冠病毒,实乃不幸.在此祝P ...

  5. 一文看懂 “极大似然估计” 与 “最大后验估计” —— 极大似然估计篇

    参考: 唐宇迪<人工智能数学基础>第8章 Richard O. Duda <模式分类>第三章 白板机器学习 P2 - 频率派 vs 贝叶斯派 频率学派还是贝叶斯学派?聊一聊机器 ...

  6. LR为什么用极大似然估计,损失函数为什么是log损失函数(交叉熵)

    首先,逻辑回归是一个概率模型,不管x取什么值,最后模型的输出也是固定在(0,1)之间,这样就可以代表x取某个值时y是1的概率 这里边的参数就是θ,我们估计参数的时候常用的就是极大似然估计,为什么呢?可 ...

  7. 什么是极大似然估计?

    ● 每周一言 坚持一定是有毅力,但有毅力不一定能坚持. 导语 统计学中,我们经常能听到极大似然估计,或者最大似然估计,它是一种参数估计方法.在机器学习中,逻辑回归就是基于极大似然估计来计算的损失函数. ...

  8. 千字讲解极大似然估计

    上周有读者私信我说,面试被问到了极大似然估计没回答出来,虽然网上有很多讲解,但是不大能看得懂,而且有一些疑问没有解释清楚.经过一周的撰写,今天困哥就专门整理了一篇数千字的文章,来详细介绍一下极大似然估 ...

  9. R语言-回归系数的极大似然估计

    老师要求我们对回归方程中的回归系数进行极大似然估计,回归方程如下: 计算步骤如下: 步骤一:写出似然函数log(β),其中的β为(β0,β1,β2)t(β_0, β_1, β_2)^t(β0​,β1​ ...

最新文章

  1. 虚拟机CENTOS7下 安装8.0版本MySQL MySQL主从配置详细~
  2. LeetCode-笔记-525. 连续数组
  3. 创建BDC域控制器时,提示“出站复制验证失败。在复制源域控制器上未启用出站复制”的解决办法...
  4. Spring Boot 2.x基础教程:使用Elastic Job的分片配置
  5. C#最佳工具集合:IDE、分析、自动化工具等
  6. android 文字反转_多文字共享信息系统
  7. 机器学习:什么是欠拟合和过拟合
  8. Android中当item数量超过一定大小RecyclerView高度固定
  9. 百度竞价点击器_同等预算,百度竞价托管如何让您的点击量高于您同行?
  10. ssm框架下开发RESTful json简单实例
  11. 详解sqlserver 执行计划
  12. 体验Windows Mobile 6.5 (模拟器)
  13. 搜狗站长工具:索引量与收录量的解释,它等同于site的收录吗?
  14. 谷歌SEO入门的基础知识
  15. 一行代码获取android手机deviceId
  16. 基于Django的驾校在线考试系统
  17. python二次函数拟合_Python实现——二次多项式回归(最小二乘法)
  18. IPSEC对称解密以及非对称加密
  19. 好看的菜单导航色彩搭配
  20. 数据点太多matlab曲线较粗,matlab数据太多怎么拟合曲线

热门文章

  1. 调试H5页面-weinre及spy-debugger真机调试
  2. python使用py2neo操作neo4j
  3. 可信计算原理浅析及平台构建
  4. 深度学习目标检测最全综述
  5. 数据可视化管理平台整体解决方案
  6. Centos7 为开发而翻越
  7. 【ES入门】使用 apifox 测试elastic search遇到的问题
  8. 树莓派更换源后update/upgrade更新后无法启动
  9. pstools工具使用方法
  10. 二叉树递归和非递归遍历