多元线性回归方程正规方程解(Normal Equation)公式推导详细过程
多元线性方程公式
定义多元线性方程的损失函数如下:
J(θ)=12m∑i=1m(y^(i)−y(i))2(1)J(\theta) = \frac{1}{2m}\sum_{i=1}^m (\hat{y}^{(i)} - y^{(i)})^2~~~~~~~~~~~~(1) J(θ)=2m1i=1∑m(y^(i)−y(i))2 (1)
其中,y^(i)\hat{y}^{(i)}y^(i) 为:
y^(i)=θ0+θ1X1(i)+θ2X2(i)+⋯+θnXn(i)(2)\hat{y}^{(i)} = \theta_0 + \theta_1 X_1^{(i)} + \theta_2 X_2^{(i)} + \cdots + \theta_n X_n^{(i)}~~~~~~~~~~(2) y^(i)=θ0+θ1X1(i)+θ2X2(i)+⋯+θnXn(i) (2)
其中,mmm 为样本个数,nnn 为特征数量
定义向量:
θ=(θ0,θ1,⋯,θn)TX(i)=(X0(i),X1(i),X2(i),⋯,Xn(i))T,其中i=(1,2,⋯,m),X0(i)≡1Xj=(Xj(1),Xj(2),⋯,Xj(m))T,其中j=(0,1,2,⋯,n)y=(y(1),y(2),⋯,y(m))\begin{aligned} \theta &=(\theta_0,\theta_1, \cdots , \theta_n)^T \\\\ X^{(i)} &= (X_0^{(i)}, X_1^{(i)},X_2^{(i)}, \cdots, X_n^{(i)})^T~~~,其中i=(1,2,\cdots, m),X_0^{(i)}\equiv1 \\\\ X_j &= (X_j^{(1)}, X_j^{(2)}, \cdots, X_j^{(m)})^T~~~,其中j = (0, 1,2,\cdots, n) \\\\ y &= (y^{(1)}, y^{(2)}, \cdots, y^{(m)}) \end{aligned} θX(i)Xjy=(θ0,θ1,⋯,θn)T=(X0(i),X1(i),X2(i),⋯,Xn(i))T ,其中i=(1,2,⋯,m),X0(i)≡1=(Xj(1),Xj(2),⋯,Xj(m))T ,其中j=(0,1,2,⋯,n)=(y(1),y(2),⋯,y(m))
定义矩阵:
X=(X(1),X(2),⋯,X(m))T=(X0,X1,X2,⋯,Xn)=(X0(1)X1(1)X2(1)⋯Xn(1)X0(2)X1(2)X2(2)⋯Xn(2)⋯⋯X0(n)X1(m)X2(m)⋯Xn(m))m×(n+1)\begin{aligned} X = (X^{(1)}, X^{(2)}, \cdots, X^{(m)})^T = (X_0, X_1, X_2, \cdots, X_n) = \begin{pmatrix} X_0^{(1)} & X_1^{(1)} & X_2^{(1)} & \cdots X_n^{(1)} \\\\ X_0^{(2)} & X_1^{(2)} & X_2^{(2)} & \cdots X_n^{(2)} \\\\ \cdots & & & \cdots \\\\ X_0^{(n)} & X_1^{(m)} & X_2^{(m)} & \cdots X_n^{(m)} \\ \end{pmatrix}_{m \times (n+1)} \end{aligned} X=(X(1),X(2),⋯,X(m))T=(X0,X1,X2,⋯,Xn)=⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛X0(1)X0(2)⋯X0(n)X1(1)X1(2)X1(m)X2(1)X2(2)X2(m)⋯Xn(1)⋯Xn(2)⋯⋯Xn(m)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞m×(n+1)
当 θ\thetaθ 取下值时,损失函数最小:
θ=(XTX)−1XTy\theta = (X^T X)^{-1} X^T y θ=(XTX)−1XTy
公式推导
温馨提示:公式推导过程不难,但很绕,请耐心…
将(2)式代入(1)式得:
J(θ)=12m∑i=1m(θ0+θ1X1(i)+θ2X2(i)+⋯+θnXn(i)−y(i))2=12m∑i=1m(θ0X0(i)+θ1X1(i)+θ2X2(i)+⋯+θnXn(i)−y(i))2(补个X0(i))=12m[(θ0X0(1)+θ1X1(1)+θ2X2(1)+⋯+θnXn(1)−y(1))2+(θ0X0(2)+θ1X1(2)+θ2X2(2)+⋯+θnXn(2)−y(2))2+⋯+(θ0X0(m)+θ1X1(2)+θ2X2(m)+⋯+θnXn(m)−y(m))2]\begin{aligned} J(\theta) & = \frac{1}{2m}\sum_{i=1}^m (\theta_0 + \theta_1 X_1^{(i)} + \theta_2 X_2^{(i)} + \cdots + \theta_n X_n^{(i)} - y^{(i)})^2 \\\\ & = \frac{1}{2m}\sum_{i=1}^m (\theta_0X_0^{(i)} + \theta_1 X_1^{(i)} + \theta_2 X_2^{(i)} + \cdots + \theta_n X_n^{(i)} - y^{(i)})^2 ~~~(补个X_0^{(i)})\\\\ &= \frac{1}{2m}[ (\theta_0X_0^{(1)} + \theta_1X_1^{(1)} + \theta_2X_2^{(1)} + \cdots + \theta_nX_n^{(1)} - y^{(1)})^2 \\\\ &~~~~~~~~+ (\theta_0X_0^{(2)} + \theta_1X_1^{(2)}+ \theta_2X_2^{(2)} + \cdots + \theta_nX_n^{(2)}- y^{(2)})^2 \\\\ &~~~~~~~~+ \cdots \\\\ &~~~~~~~~+ (\theta_0X_0^{(m)} + \theta_1X_1^{(2)}+ \theta_2X_2^{(m)} + \cdots + \theta_nX_n^{(m)}- y^{(m)})^2 ] \end{aligned} J(θ)=2m1i=1∑m(θ0+θ1X1(i)+θ2X2(i)+⋯+θnXn(i)−y(i))2=2m1i=1∑m(θ0X0(i)+θ1X1(i)+θ2X2(i)+⋯+θnXn(i)−y(i))2 (补个X0(i))=2m1[(θ0X0(1)+θ1X1(1)+θ2X2(1)+⋯+θnXn(1)−y(1))2 +(θ0X0(2)+θ1X1(2)+θ2X2(2)+⋯+θnXn(2)−y(2))2 +⋯ +(θ0X0(m)+θ1X1(2)+θ2X2(m)+⋯+θnXn(m)−y(m))2]
现在对 θ\thetaθ 求偏导,下面只对 θ1\theta_1θ1 求偏导,其他的依次类推:
∂∂θ1J(θ)=1m[X1(1)(θ0X0(1)+θ1X1(1)+θ2X2(1)+⋯+θnXn(1)−y(1))+X1(2)(θ0X0(2)+θ1X1(2)+θ2X2(2)+⋯+θnXn(2)−y(2))+⋯+X1(m)(θ0X0(m)+θ1X1(2)+θ2X2(m)+⋯+θnXn(m)−y(m))]=1m[(θ0X0(1)X1(1)+θ1X1(1)X1(1)+θ2X2(1)X1(1)+⋯+θnXn(1)X1(1)−y(1)X1(1))+(θ0X0(2)X1(2)+θ1X1(2)X1(2)+θ2X2(2)X1(2)+⋯+θnXn(2)X1(2)−y(2)X1(2))+⋯+(θ0X0(m)X1(m)+θ1X1(2)X1(m)+θ2X2(m)X1(m)+⋯+θnXn(m)−y(m)X1(m))](把X1(i)乘进去)=1m[(X0(1)X1(1)+X0(2)X1(2)+⋯+X0(m)X1(m))⋅θ0+(X1(1)X1(1)+X1(2)X1(2)+⋯+X1(m)X1(m))⋅θ1+(X2(1)X1(1)+X2(2)X1(2)+⋯+X2(m)X1(m))⋅θ2+⋯+(Xn(1)X1(1)+Xn(2)X1(2)+⋯+Xn(m)X1(m))⋅θn−(y(1)X1(1)+y(2)X1(2))+⋯+y(m)X1(m)](将θ提出来)=1m[θ0⋅∑i=1mX0(i)X1(i)+θ1⋅∑i=1mX1(i)X1(i)+θ2⋅∑i=1mX2(i)X1(i)+⋯+θn⋅∑i=1mXn(i)X1(i)−∑i=1my(i)X1(i)]\begin{aligned} \frac{\partial}{\partial\theta_1} J(\theta) & = \frac{1}{m}[ X_1^{(1)} (\theta_0X_0^{(1)} + \theta_1X_1^{(1)} + \theta_2X_2^{(1)} + \cdots + \theta_nX_n^{(1)} - y^{(1)}) \\\\ &~~~~~~ + X_1^{(2)}(\theta_0X_0^{(2)} + \theta_1X_1^{(2)}+ \theta_2X_2^{(2)} + \cdots + \theta_nX_n^{(2)}- y^{(2)}) \\\\ &~~~~~~+ \cdots \\\\ &~~~~~~+ X_1^{(m)}(\theta_0X_0^{(m)} + \theta_1X_1^{(2)}+ \theta_2X_2^{(m)} + \cdots + \theta_nX_n^{(m)}- y^{(m)}) ] \\\\\\ & = \frac{1}{m}[(\theta_0X_0^{(1)}X_1^{(1)} + \theta_1X_1^{(1)}X_1^{(1)} + \theta_2X_2^{(1)}X_1^{(1)} + \cdots + \theta_nX_n^{(1)}X_1^{(1)} - y^{(1)}X_1^{(1)}) \\\\ &~~~~~~ + (\theta_0X_0^{(2)}X_1^{(2)} + \theta_1X_1^{(2)}X_1^{(2)}+ \theta_2X_2^{(2)}X_1^{(2)} + \cdots + \theta_nX_n^{(2)}X_1^{(2)}- y^{(2)}X_1^{(2)}) \\\\ &~~~~~~+ \cdots \\\\ &~~~~~~+ (\theta_0X_0^{(m)}X_1^{(m)} + \theta_1X_1^{(2)}X_1^{(m)}+ \theta_2X_2^{(m)}X_1^{(m)} + \cdots + \theta_nX_n^{(m)}- y^{(m)}X_1^{(m)}) ] ~~~~~(把 X_1^{(i)} 乘进去) \\\\\\ & = \frac{1}{m} [ (X_0^{(1)}X_1^{(1)} + X_0^{(2)}X_1^{(2)} + \cdots + X_0^{(m)}X_1^{(m)}) \cdot \theta_0 \\\\ & ~~~~~~+(X_1^{(1)}X_1^{(1)} + X_1^{(2)}X_1^{(2)} + \cdots + X_1^{(m)}X_1^{(m)}) \cdot \theta_1 \\\\ & ~~~~~~+(X_2^{(1)}X_1^{(1)} + X_2^{(2)}X_1^{(2)} + \cdots + X_2^{(m)}X_1^{(m)}) \cdot \theta_2 \\\\ & ~~~~~~+ \cdots \\\\ & ~~~~~~+ (X_n^{(1)}X_1^{(1)} + X_n^{(2)}X_1^{(2)} + \cdots + X_n^{(m)}X_1^{(m)}) \cdot \theta_n\\\\ & ~~~~~~- (y^{(1)} X_1^{(1)} + y^{(2)} X_1^{(2)}) + \cdots + y^{(m)} X_1^{(m)}] ~~~~~~~~~(将\theta 提出来)\\\\\\ & = \frac{1}{m} [\theta_0 \cdot \sum_{i=1}^m X_0^{(i)}X_1^{(i)} + \theta_1 \cdot \sum_{i=1}^m X_1^{(i)}X_1^{(i)} + \theta_2 \cdot \sum_{i=1}^m X_2^{(i)}X_1^{(i)} + \cdots + \theta_n \cdot \sum_{i=1}^m X_n^{(i)}X_1^{(i)} - \sum_{i=1}^m y^{(i)}X_1^{(i)}] \end{aligned} ∂θ1∂J(θ)=m1[X1(1)(θ0X0(1)+θ1X1(1)+θ2X2(1)+⋯+θnXn(1)−y(1)) +X1(2)(θ0X0(2)+θ1X1(2)+θ2X2(2)+⋯+θnXn(2)−y(2)) +⋯ +X1(m)(θ0X0(m)+θ1X1(2)+θ2X2(m)+⋯+θnXn(m)−y(m))]=m1[(θ0X0(1)X1(1)+θ1X1(1)X1(1)+θ2X2(1)X1(1)+⋯+θnXn(1)X1(1)−y(1)X1(1)) +(θ0X0(2)X1(2)+θ1X1(2)X1(2)+θ2X2(2)X1(2)+⋯+θnXn(2)X1(2)−y(2)X1(2)) +⋯ +(θ0X0(m)X1(m)+θ1X1(2)X1(m)+θ2X2(m)X1(m)+⋯+θnXn(m)−y(m)X1(m))] (把X1(i)乘进去)=m1[(X0(1)X1(1)+X0(2)X1(2)+⋯+X0(m)X1(m))⋅θ0 +(X1(1)X1(1)+X1(2)X1(2)+⋯+X1(m)X1(m))⋅θ1 +(X2(1)X1(1)+X2(2)X1(2)+⋯+X2(m)X1(m))⋅θ2 +⋯ +(Xn(1)X1(1)+Xn(2)X1(2)+⋯+Xn(m)X1(m))⋅θn −(y(1)X1(1)+y(2)X1(2))+⋯+y(m)X1(m)] (将θ提出来)=m1[θ0⋅i=1∑mX0(i)X1(i)+θ1⋅i=1∑mX1(i)X1(i)+θ2⋅i=1∑mX2(i)X1(i)+⋯+θn⋅i=1∑mXn(i)X1(i)−i=1∑my(i)X1(i)]
我们先对 ∑i=1mXa(i)Xb(i)\sum_{i=1}^m X_a^{(i)}X_b^{(i)}∑i=1mXa(i)Xb(i) 做下研究:
∑i=1mXa(i)Xb(i)=(Xa(1),Xa(2),⋯,Xa(n))⋅(Xb(1)Xb(2)⋯Xb(n))=XaT⋅Xb=XbT⋅Xa(3)\sum_{i=1}^m X_a^{(i)}X_b^{(i)} = (X_a^{(1)}, X_a^{(2)}, \cdots , X_a^{(n)}) \cdot \begin{pmatrix} X_b^{(1)} \\\\ X_b^{(2)}\\\\ \cdots\\\\ X_b^{(n)}\\ \end{pmatrix} = X_a^T \cdot X_b = X_b^T\cdot X_a ~~~~~~~~~~~(3) i=1∑mXa(i)Xb(i)=(Xa(1),Xa(2),⋯,Xa(n))⋅⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛Xb(1)Xb(2)⋯Xb(n)⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞=XaT⋅Xb=XbT⋅Xa (3)
将(3)式代入 ∂∂θ1J(θ)\frac{\partial}{\partial\theta_1} J(\theta)∂θ1∂J(θ) 得
∂∂θ1J(θ)=1m[θ0⋅∑i=1mX0(i)X1(i)+θ1⋅∑i=1mX1(i)X1(i)+θ2⋅∑i=1mX2(i)X1(i)+⋯+θn⋅∑i=1mXn(i)X1(i)−∑i=1my(i)X1(i)]=1m(X0T⋅X1⋅θ0+X1T⋅X1⋅θ1+X2T⋅X1⋅θ2+⋯+XnT⋅X1⋅θn−X1T⋅y)\begin{aligned} \frac{\partial}{\partial\theta_1} J(\theta) & = \frac{1}{m} [\theta_0 \cdot \sum_{i=1}^m X_0^{(i)}X_1^{(i)} + \theta_1 \cdot \sum_{i=1}^m X_1^{(i)}X_1^{(i)} + \theta_2 \cdot \sum_{i=1}^m X_2^{(i)}X_1^{(i)} + \cdots + \theta_n \cdot \sum_{i=1}^m X_n^{(i)}X_1^{(i)} - \sum_{i=1}^m y^{(i)}X_1^{(i)}] \\\\ & = \frac{1}{m} (X_0^T \cdot X_1 \cdot \theta_0 + X_1^T \cdot X_1 \cdot \theta_1 + X_2^T \cdot X_1 \cdot \theta_2 +\cdots + X_n^T \cdot X_1 \cdot \theta_n - X_1^T\cdot y) \\\\ \end{aligned} ∂θ1∂J(θ)=m1[θ0⋅i=1∑mX0(i)X1(i)+θ1⋅i=1∑mX1(i)X1(i)+θ2⋅i=1∑mX2(i)X1(i)+⋯+θn⋅i=1∑mXn(i)X1(i)−i=1∑my(i)X1(i)]=m1(X0T⋅X1⋅θ0+X1T⋅X1⋅θ1+X2T⋅X1⋅θ2+⋯+XnT⋅X1⋅θn−X1T⋅y)
令 ∂∂θ1J(θ)=0\frac{\partial}{\partial\theta_1} J(\theta)=0∂θ1∂J(θ)=0 ,得到如下等式:
(X0TX1,X1TX1,X2TX1⋯,XnTX1)⋅(θ0θ1⋯θn)=X1T⋅y(X_0^T X_1, X_1^T X_1, X_2^T X_1 \cdots, X_n^T X_1) \cdot \begin{pmatrix} \theta_0 \\\\ \theta_1 \\\\ \cdots\\\\ \theta_n\\ \end{pmatrix} = X_1^T\cdot y (X0TX1,X1TX1,X2TX1⋯,XnTX1)⋅⎝⎜⎜⎜⎜⎜⎜⎜⎜⎛θ0θ1⋯θn⎠⎟⎟⎟⎟⎟⎟⎟⎟⎞=X1T⋅y
与 ∂∂θ1J(θ)=0\frac{\partial}{\partial\theta_1} J(\theta)=0∂θ1∂J(θ)=0 同理,对 θ0,θ2,θ3,⋯,θn\theta_0, \theta_2, \theta_3, \cdots, \theta_nθ0,θ2,θ3,⋯,θn 做偏导等零,最终得:
(X0TX0,X1TX0,X2TX0⋯,XnTX0X0TX1,X1TX1,X2TX1⋯,XnTX1X0TX2,X1TX2,X2TX2⋯,XnTX2⋯X0TXn,X1TXn,X2TXn⋯,XnTXn)⋅(θ0θ1θ2⋯θn)=(X0T⋅yX1T⋅yX2T⋅y⋯XnT⋅y)\begin{pmatrix} X_0^T X_0, X_1^T X_0, X_2^T X_0 \cdots, X_n^T X_0 \\\\ X_0^T X_1, X_1^T X_1, X_2^T X_1 \cdots, X_n^T X_1 \\\\ X_0^T X_2, X_1^T X_2, X_2^T X_2 \cdots, X_n^T X_2 \\\\ \cdots\\\\ X_0^T X_n, X_1^T X_n, X_2^T X_n \cdots, X_n^T X_n\\ \end{pmatrix} \cdot \begin{pmatrix} \theta_0 \\\\ \theta_1 \\\\ \theta_2 \\\\ \cdots\\\\ \theta_n\\ \end{pmatrix} = \begin{pmatrix} X_0^T\cdot y \\\\ X_1^T\cdot y \\\\ X_2^T\cdot y \\\\ \cdots\\\\ X_n^T\cdot y\\ \end{pmatrix} ⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛X0TX0,X1TX0,X2TX0⋯,XnTX0X0TX1,X1TX1,X2TX1⋯,XnTX1X0TX2,X1TX2,X2TX2⋯,XnTX2⋯X0TXn,X1TXn,X2TXn⋯,XnTXn⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞⋅⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛θ0θ1θ2⋯θn⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞=⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛X0T⋅yX1T⋅yX2T⋅y⋯XnT⋅y⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞
左右两边进行处理,得(由(3)式子知 XaT⋅Xb=XbT⋅XaX_a^T \cdot X_b = X_b^T\cdot X_aXaT⋅Xb=XbT⋅Xa,这里交换了一下):
(X0TX1TX2T⋯XnT)⋅(X0,X1,X2,⋯,Xn)⋅(θ0θ1θ2⋯θn)=(X0T⋅yX1T⋅yX2T⋅y⋯XnT⋅y)\begin{pmatrix} X_0^T \\\\ X_1^T \\\\ X_2^T \\\\ \cdots\\\\ X_n^T\\ \end{pmatrix} \cdot (X_0, X_1, X_2, \cdots, X_n) \cdot \begin{pmatrix} \theta_0 \\\\ \theta_1 \\\\ \theta_2 \\\\ \cdots\\\\ \theta_n\\ \end{pmatrix} = \begin{pmatrix} X_0^T\cdot y \\\\ X_1^T\cdot y \\\\ X_2^T\cdot y \\\\ \cdots\\\\ X_n^T\cdot y\\ \end{pmatrix} ⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛X0TX1TX2T⋯XnT⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞⋅(X0,X1,X2,⋯,Xn)⋅⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛θ0θ1θ2⋯θn⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞=⎝⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎛X0T⋅yX1T⋅yX2T⋅y⋯XnT⋅y⎠⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎞
将上式继续变换,得:
XT⋅X⋅θ=XT⋅yX^T \cdot X \cdot \theta = X^T \cdot y XT⋅X⋅θ=XT⋅y
两边同时乘 (XT⋅X)−1(X^T \cdot X)^{-1}(XT⋅X)−1 得最终结果:
θ=(XT⋅X)−1⋅XT⋅y\theta = (X^T \cdot X)^{-1} \cdot X^T\cdot y θ=(XT⋅X)−1⋅XT⋅y
参考资料
考研必备数学公式大全: https://blog.csdn.net/zhaohongfei_358/article/details/106039576
机器学习纸上谈兵之线性回归: https://blog.csdn.net/zhaohongfei_358/article/details/117967229
多元线性回归方程正规方程解(Normal Equation)公式推导详细过程相关推荐
- 多元线性回归的正规方程解
背景: 通常样本有多个特征值 选择如下公式是因为它是线性可导的,另外一方面,将限制最大的误差尽可能的小 在这里插入图片描述 多元线性回归方程的正规方程解
- 多元线性回归和正规方程解
多元线性回归 X表示第 i 个样本的(1,2,3,--n)个特征. 一维多元函数如下, 本节的多维多元函数(每个样本有多个特征)为: 对于一元线性回归,我们的目标是使下式 尽可能小,即,我们预测的结果 ...
- R语言与多元线性回归方程及各种检验
R语言与多元线性回归方程及各种检验 文章目录 R语言与多元线性回归方程及各种检验 一.模型建立 二.多重共线性 (1)产生的背景: (2)多重共线性的检验 1.简单相关系数法: 2.方差膨胀因子(vi ...
- 多元线性回归方程原理及其推导
多元线性方程原理及推导 概念 1.在统计学中,线性回归方程是利用最小二乘函数对一个或多个自变量之间关系进行建模的一种回归分析.这种函数是一个或多个称为回归系数的模型参数的线性组合.只有一个自变量的情况 ...
- Python实现多元线性回归方程梯度下降法与求函数极值
梯度下降法 梯度下降法的基本思想可以类比为一个下山的过程. 假设这样一个场景:一个人被困在山上,需要从山上下来(找到山的最低点,也就是山谷).但此时山上的浓雾很大,导致可视度很低:因此,下山的路径就无 ...
- 基于jupyter notebook的python编程-----利用梯度下降算法求解多元线性回归方程,并与最小二乘法求解进行精度对比
基于jupyter notebook的python编程-----利用梯度下降算法求解多元线性回归方程,并与最小二乘法求解进行精度对比目录 一.梯度下降算法的基本原理 1.梯度下降算法的基本原理 二.题 ...
- matlab一元线性回归及多元线性回归方程
1.案例 %%1.bint表示回归系数区间估计可参考http://www.360doc.com/content/11/0801/20/2537127_137246007.shtml %2.r表示残差 ...
- 标准方程法(normal equation)公式推导
最近在看吴恩达的机器学习网课,讲到标准方程法的时候没有给出推导,在参考了两篇博客后推导出来了,记录一下. 机器学习之正规方程法推导 机器学习--线性回归中正规方程组的推导 两篇文章都给出了推导需要的基 ...
- 正规方程法(Normal Equation)
对于如下图中红框中的特征及其对应结果(房屋价格),添加一列特征值x0,构造成一个矩阵X 令Y为n维列向量:价格矩阵. 其最佳的θ向量可由下式计算得出: 其数学证明参考: 超定方程的最小二乘解 如果在使 ...
最新文章
- linux生成ext4镜像,mkfs.ext4生成分区镜像自动把文件转成了sparse怎么破?
- Java中设计模式之装饰者模式-2
- php 文件保存函数,PHP文件函数
- palindromic java_LeetCode(java)5. Longest Palindromic Substring
- php生成静态html分页实现方法
- Python笔记(6) 数字
- oracle 函数使用
- DialogBoxIndirectParam
- Redis安装(源码安装)
- 三菱modbusRTU通讯实例_三菱FX系列PLC如何接线并通过RS232进行下载程序
- js定义入参_js函数传参类型
- C#小游戏,拼音打字练习
- 华为LiteOS操作系统中的LOS_DL_LIST_ENTRY怎么理解?
- 【初赛】计算机操作系统
- 仿抖音--将图片转化成对应的字符图片
- 树莓派centos踩坑之旅,解决每次重启都需要route add才能有网络
- 粒子群算法 PSO(Particle Swarm Optimization)——原理及实现
- 计算机哪个行业前景好?
- 北雄安 南佛山:区块链政务应用C位城市已出线 ——区块链市政应用四级梯队盘点...
- 实用最优化方法课后习题-第三章