灰色预测模型

  灰色预测是对既含有已知信息又含有不确定信息的系统进行预测,就是对在一定范围内变化的、与时间有关的灰色过程进行预测。
  灰色预测对原始数据进行生成处理来寻找系统变动的规律,并生成有较强规律性的数据序列,然后建立相应的微分方程模型,从而预测事物未来发展趋势的状况。


目录

  • 灰色预测模型
  • 一、GM(1,1)模型简介
  • 二、GM(1,1)原理
  • 三、准指数规律的检验
  • 四、GM(1,1)模型的评价
  • 五、模型扩展(★)

一、GM(1,1)模型简介

  GM(1,1)是最简单的灰色预测模型,它是使用原始的离散非负数据列,通过一次累加生成削弱随机性的较有规律的新的离散数据列,然后通过建立微分方程模型,得到在离散点处的解经过累减生成的原始数据的近似估计值,从而预测原始数据的后续发展。(本文中只探究 GM(1,1) 模型,第一个 1 表示微分方程是一阶的,后面的 1 表示只有一个变量)


二、GM(1,1)原理

  设 x(0)=(x(0)(1),x(0)(2),⋯,x(0)(n))x^{(0)}=(x^{(0)}(1),x^{(0)}(2),\cdots,x^{(0)}(n))x(0)=(x(0)(1),x(0)(2),⋯,x(0)(n)) 是最初非负数据列,对其一次累加得到新的生成数据 x(1)x^{(1)}x(1) 。

  x(1)=(x(1)(1),x(1)(2),⋯,x(1)(n))x^{(1)}=(x^{(1)}(1),x^{(1)}(2),\cdots,x^{(1)}(n))x(1)=(x(1)(1),x(1)(2),⋯,x(1)(n)),其中:x(1)(m)=∑i=1mx(0)(i),m=1,2,⋯,nx^{(1)}(m)=\sum_{i=1}^{m}{x^{(0)}(i)},m=1,2,\cdots,nx(1)(m)=∑i=1m​x(0)(i),m=1,2,⋯,n。

  令z(1)z^{(1)}z(1) 为数列 x(1)x^{(1)}x(1) 的紧邻生成数列,即 z(1)=(z(1)(1),z(1)(2),⋯,z(1)(n))z^{(1)}=(z^{(1)}(1),z^{(1)}(2),\cdots,z^{(1)}(n))z(1)=(z(1)(1),z(1)(2),⋯,z(1)(n)),其中: z(1)(m)=δx(1)(m)+(1−δ)x(1)(m−1),m=2,3,⋯z^{(1)}(m)=\delta x^{(1)}(m)+(1-\delta)x^{(1)}(m-1),m=2,3,\cdotsz(1)(m)=δx(1)(m)+(1−δ)x(1)(m−1),m=2,3,⋯,nnn 且 δ=0.5\delta =0.5δ=0.5。
       



  我们称方程 x(0)(k)+az(1)(k)=bx^{(0)}(k)+az^{(1)}(k)=bx(0)(k)+az(1)(k)=b 为 GM(1,1) 模型的基本形式(k=2,3,…,n),其中, bbb 表示灰作用量。 −a-a−a 表示发展系数。下面引入矩阵形式:
u=(a,b)T,Y=[x(0)(2)x(0)(3)⋮x(0)(n)],B=[−z(1)(2)1−z(1)(3)1⋮⋮−z(1)(n)1]u=(a,b)^T,\quad Y=\left[ \begin{array}{c} x^{(0)}(2)\\ x^{(0)}(3)\\ \vdots \\ x^{(0)}(n) \end{array}\right],\quad B=\left[ \begin{array}{c} -z^{(1)}(2)\quad 1\\ -z^{(1)}(3)\quad 1\\ \quad\vdots \quad\qquad \vdots \\ -z^{(1)}(n)\quad 1 \end{array}\right] u=(a,b)T,Y=⎣⎢⎢⎢⎡​x(0)(2)x(0)(3)⋮x(0)(n)​⎦⎥⎥⎥⎤​,B=⎣⎢⎢⎢⎡​−z(1)(2)1−z(1)(3)1⋮⋮−z(1)(n)1​⎦⎥⎥⎥⎤​

  于是,GM(1,1) 模型 x(0)(k)+az(1)(k)=bx^{(0)}(k)+az^{(1)}(k)=bx(0)(k)+az(1)(k)=b 可表示为:Y=Bu\bf Y=BuY=Bu
  利用最小二乘法得到参数 a,b 的估计值为:
u^=(a^b^)=(BTB)−1BTY\color{fuchsia}{ \hat u=\left( \begin{array}{c} \hat a\\ \hat b\\ \end{array} \right)=\bf (B^TB)^{-1}B^TY} u^=(a^b^​)=(BTB)−1BTY

  实际上就是将 x(0)x^{(0)}x(0) 序列视为因变量 yyy, z(1)z^{(1)}z(1) 序列是为自变量 xxx,进行回归。
x(0)(k)=−az(1)(k)+b⇒y=kx+b\color{red}{\bf x^{(0)}(k)=-az^{(1)}(k)+b \quad\Rightarrow\quad y=kx+b} x(0)(k)=−az(1)(k)+b⇒y=kx+b


引入最小二乘法(OLS)

  最小二乘法定义:
yi^=kxi+b,k^,b^=argmin⁡k,b(∑i=1n(yi−yi^)2)=argmin⁡k,b∑i=1n(yi−kxi−b)2\hat{y_i} =kx_i+b,\quad \hat{k},\hat{b}=\mathop{arg\min}\limits_{k,b}(\sum_{i=1}^{n} (y_i-\hat{y_i})^2)= \mathop{arg\min}\limits_{k,b} \sum_{i=1}^{n}{(y_i-kx_i-b)^2} yi​^​=kxi​+b,k^,b^=k,bargmin​(i=1∑n​(yi​−yi​^​)2)=k,bargmin​i=1∑n​(yi​−kxi​−b)2

  我们令:
L=∑i=1n(yi−kxi−b)2=[y1−kx1−b,y2−kx2−b,⋯,yn−kxn−b][y1−kx1−by2−kx2−b⋮yn−kxn−b]L=\sum_{i=1}^{n}(y_i-kx_i-b)^2=[y_1-kx_1-b,y_2-kx_2-b,\cdots,y_n-kx_n-b] \left[ \begin{array}{c} y_1-kx_1-b\\ y_2-kx_2-b\\ \vdots\\ y_n-kx_n-b\\ \end{array} \right] L=i=1∑n​(yi​−kxi​−b)2=[y1​−kx1​−b,y2​−kx2​−b,⋯,yn​−kxn​−b]⎣⎢⎢⎢⎡​y1​−kx1​−by2​−kx2​−b⋮yn​−kxn​−b​⎦⎥⎥⎥⎤​

  并且令:
矩阵Y=[y1y2⋮yn],X=[1x11x2⋮⋮1xn],β=[bk]矩阵 Y = \left[ \begin{array}{c} y_1\\ y_2\\ \vdots\\ y_n\\ \end{array} \right],\quad X=\left[ \begin{array}{c} 1 \quad x_1\\ 1 \quad x_2\\ \vdots \text{ }\quad\text{ }\vdots\\ 1 \quad x_n\\ \end{array} \right],\quad \beta= \left[ \begin{array}{c} b\\ k\\ \end{array} \right] 矩阵Y=⎣⎢⎢⎢⎡​y1​y2​⋮yn​​⎦⎥⎥⎥⎤​,X=⎣⎢⎢⎢⎡​1x1​1x2​⋮  ⋮1xn​​⎦⎥⎥⎥⎤​,β=[bk​]

  那么:
Xβ=[b+kx1b+kx2⋮b+kxn],Y−Xβ=[y1−kx1−by2−kx2−b⋮yn−kxn−b]X\beta=\left[ \begin{array}{c} b+kx_1\\ b+kx_2\\ \vdots\\ b+kx_n\\ \end{array} \right],\quad Y-X\beta=\left[ \begin{array}{c} y_1-kx_1-b\\ y_2-kx_2-b\\ \vdots\\ y_n-kx_n-b\\ \end{array} \right] Xβ=⎣⎢⎢⎢⎡​b+kx1​b+kx2​⋮b+kxn​​⎦⎥⎥⎥⎤​,Y−Xβ=⎣⎢⎢⎢⎡​y1​−kx1​−by2​−kx2​−b⋮yn​−kxn​−b​⎦⎥⎥⎥⎤​

  所以有:
L=(Y−Xβ)T(Y−Xβ)=(YT−βTXT)(Y−Xβ)=YTY−YTXβ−βTXTY+βTXTXβ则β^=[b^k^]=argmin⁡β(L)=argminβ=(YTY−YTXβ−βTXTY+βTXTXβ)\begin{array}{l} L=(Y-X\beta)^T(Y-X\beta) \\ \quad=(Y^T-\beta^TX^T)(Y-X\beta)\\ \quad=Y^TY-Y^TX\beta-\beta^TX^TY+\beta^TX^TX\beta \\ \end{array}\\ 则 \text{ }\hat \beta=\left[ \begin{array}{c} \hat b\\ \hat k\\ \end{array} \right]=\mathop{arg\min}\limits_{\beta}{(L)}=\mathop{argmin}\limits_{\beta}=(Y^TY-Y^TX\beta-\beta^TX^TY+\beta^TX^TX\beta)\\ L=(Y−Xβ)T(Y−Xβ)=(YT−βTXT)(Y−Xβ)=YTY−YTXβ−βTXTY+βTXTXβ​则 β^​=[b^k^​]=βargmin​(L)=βargmin​=(YTY−YTXβ−βTXTY+βTXTXβ)

  对矩阵求导:
dLdt=−XTY−XTY+2XTXβ=0⇒XTXβ=XTY\frac {dL}{dt}=-X^TY-X^TY+2X^TX\beta=0\Rightarrow X^TX\beta=X^TY\\ dtdL​=−XTY−XTY+2XTXβ=0⇒XTXβ=XTY

  所以:
β^=(XTX)−1XTY\color{fuchsia}{\bf\hat\beta=(X^TX)^{-1}X^TY} β^​=(XTX)−1XTY

  最小二乘法可参考:https://blog.csdn.net/weixin_43819566/article/details/113091852


利用 OLS 估计的回归结果可以得出 a^\hat aa^ 和 b^\hat bb^,即 x(0)(k)=−a^z(1)(k)+b^(k=2,3,⋯,n)x^{(0)}{(k)}=-\hat az^{(1)}(k)+\hat b \quad (k=2,3,\cdots,n)x(0)(k)=−a^z(1)(k)+b^(k=2,3,⋯,n)

x(0)(k)=−a^z(1)(k)+b^⇒x(1)(k)−x(1)(k−1)=−a^z(1)(k)+b^x^{(0)}{(k)}=-\hat az^{(1)}(k)+\hat b \Rightarrow \color {blue} { x^{(1)}(k)-x^{(1)}(k-1) \color{black}{\text{ } = \text{ }-\hat a } \color{fuchsia}{ z^{(1)}(k)}} \color{black}{\text{ }+\text{ }} \color{red}{\hat b} x(0)(k)=−a^z(1)(k)+b^⇒x(1)(k)−x(1)(k−1) = −a^z(1)(k) + b^

  对于以上式子:
等式左边:x(1)(k)−x(1)(k−1)=∫k−1kdx(1)(t)dtdt(牛顿莱布尼茨公式)等式右边:z(1)(k)=x(1)(k)+x(1)(k−1)2≈∫k−1kx(1)(t)dt(定积分几何意义)等式左边:\color {blue} { x^{(1)}(k)-x^{(1)}(k-1)}\color{#000}{ = \int_{k-1}^k {\frac{dx^{(1)}(t)}{dt}} \,dt}\quad(牛顿莱布尼茨公式)\\ 等式右边:\color {fuchsia} {z^{(1)}(k)} \color {black} {\text{ } =\text{ } \frac{x^{(1)}(k)+x^{(1)}(k-1)}{2}}\approx \int_{k-1}^k x^{(1)}(t)dt\quad(定积分几何意义) 等式左边:x(1)(k)−x(1)(k−1)=∫k−1k​dtdx(1)(t)​dt(牛顿莱布尼茨公式)等式右边:z(1)(k) = 2x(1)(k)+x(1)(k−1)​≈∫k−1k​x(1)(t)dt(定积分几何意义)

∫k−1kdx(1)(t)dtdt≈−a^∫k−1kx(1)(t)dt+∫k−1kb^dt=∫k−1k[−a^x(1)(t)+b^]dt\color{blue}{\int_{k-1}^k {\frac{dx^{(1)}(t)}{dt}} \,dt}\color{black}{\text{ }\approx\text{ }-\hat a}\color{fuchsia}{\int_{k-1}^k x^{(1)}(t)dt}\color{black}{\text{ }+\text{ }}\color{red}{\int_{k-1}^k \hat b dt}\color{black}{=\int_{k-1}^k\left[-\hat ax^{(1)}(t)+\hat b\right]}dt ∫k−1k​dtdx(1)(t)​dt ≈ −a^∫k−1k​x(1)(t)dt + ∫k−1k​b^dt=∫k−1k​[−a^x(1)(t)+b^]dt

微分方程:dx(1)(t)dt=−a^x(1)(t)+b^被称为GM(1,1)模型的白化方程微分方程:\bf\frac{dx^{(1)}(t)}{dt}=-\hat ax^{(1)}(t)+\hat b\quad被称为\text{ }GM(1,1)\text{ }模型的白化方程 微分方程:dtdx(1)(t)​=−a^x(1)(t)+b^被称为 GM(1,1) 模型的白化方程

x(0)(k)+az(1)(k)=b被称为GM(1,1)的灰色微分方程\bf x^{(0)}(k)+az^{(1)}(k)=b被称为\text{ }GM(1,1)\text{ }的灰色微分方程 x(0)(k)+az(1)(k)=b被称为 GM(1,1) 的灰色微分方程


白化方程求解:

  白化方程:dx(1)(t)dt=−a^x(1)(t)+b^\frac{dx^{(1)}(t)}{dt}=-\hat ax^{(1)}(t)+\hat bdtdx(1)(t)​=−a^x(1)(t)+b^,如果取初始值 x^(1)(t)∣t=1=x(0)(1)\hat x^{(1)}(t)\mid_{t=1}=x^{(0)}(1)x^(1)(t)∣t=1​=x(0)(1),可求出对应的解为:
x(1)(t)=[x(0)(1)−b^a^]e−a^(t−1)+b^a^所以x(1)(m+1)=[x(0)(1)−b^a^]e−a^(m)+b^a^,m=1,2,⋯,n−1x^{(1)}(t)=\left[ x^{(0)}(1)-\frac{\hat b}{\hat a}\right]e^{-\hat a(t-1)}+\frac{\hat b}{\hat a}\\ 所以\quad x^{(1)}(m+1)=\left[ x^{(0)}(1)-\frac{\hat b}{\hat a}\right]e^{-\hat a(m)}+\frac{\hat b}{\hat a},\quad m=1,2,\cdots,n-1 x(1)(t)=[x(0)(1)−a^b^​]e−a^(t−1)+a^b^​所以x(1)(m+1)=[x(0)(1)−a^b^​]e−a^(m)+a^b^​,m=1,2,⋯,n−1

  由于 x(1)(m)=∑i=1mx(0)(i),m=1,2,⋯,nx^{(1)}(m)=\displaystyle\sum_{i=1}^{m}x^{(0)}(i),m=1,2,\cdots,nx(1)(m)=i=1∑m​x(0)(i),m=1,2,⋯,n,所以可以得到:
x(0)(m+1)=x(1)(m+1)−x(1)(m)=(1−ea^)[x(0)(1)−b^a^]e−a^(m)+b^a^,m=1,2,⋯,n−1\bf x^{(0)}(m+1)=x^{(1)}(m+1)-x^{(1)}(m)=(1-e^{\hat a})\left[ x^{(0)}(1)-\frac{\hat b}{\hat a}\right]e^{-\hat a(m)}+\frac{\hat b}{\hat a},\quad m=1,2,\cdots,n-1 x(0)(m+1)=x(1)(m+1)−x(1)(m)=(1−ea^)[x(0)(1)−a^b^​]e−a^(m)+a^b^​,m=1,2,⋯,n−1

  如果对原始数据进行预测,那么只需要在上式 m≥nm≥nm≥n 即可。


  GM(1,1)模型的本质是有条件的指数拟合:f(x)=C1eC2(x−1)f(x)=C_1e^{C_2(x-1)}f(x)=C1​eC2​(x−1),其中这里的指数规律阵对 x(1)(k)x^{(1)}(k)x(1)(k) 序列而言,原始数据是做差的结果。


三、准指数规律的检验

  1. 数据具有准指数规律是使用灰色系统建模的理论基础。
  2. 累加 rrr 次的序列为 x(r)=(x(r)(1),x(r)(2),⋯,x(r)(n))x^{(r)}=(x^{(r)}(1),x^{(r)}(2),\cdots,x^{(r)}(n))x(r)=(x(r)(1),x(r)(2),⋯,x(r)(n)),定义级比 σ(k)=x(r)(k)x(r)(k−1),k=2,3,⋯,n\sigma(k)=\frac{x^{(r)}(k)}{x^{(r)}(k-1)},k=2,3,\cdots,nσ(k)=x(r)(k−1)x(r)(k)​,k=2,3,⋯,n。
  3. 如果 ∀k,σ(k)∈[a,b]\forall k,\sigma(k) \in[a,b]∀k,σ(k)∈[a,b],且区间长度 δ=b−a<0.5\delta=b-a<0.5δ=b−a<0.5,则称累加 rrr 次后的序列具有准指数规律。
  4. 具体到 GM(1,1) 模型中,我们只需判断累加一次后的序列 x(1)=(x(1)(1),x(1)(2),⋯,x(1)(n))x^{(1)}=(x^{(1)}(1),x^{(1)}(2),\cdots,x^{(1)}(n))x(1)=(x(1)(1),x(1)(2),⋯,x(1)(n)) 是否存在准指数规律。
  5. 根据上述公式:
    序列 x(1)x^{(1)}x(1) 的级比 σ(k)=x(1)(k)x(1)(k−1)=x(0)(k)+x(1)(k−1)x(1)(k−1)=x(0)(k)x(1)(k−1)+1\sigma(k)=\frac{x^{(1)}(k)}{x^{(1)}(k-1)}=\frac{x^{(0)}(k)+x^{(1)}(k-1)}{x^{(1)}(k-1)}=\frac{x^{(0)}(k)}{x^{(1)}(k-1)}+1σ(k)=x(1)(k−1)x(1)(k)​=x(1)(k−1)x(0)(k)+x(1)(k−1)​=x(1)(k−1)x(0)(k)​+1
    定义 ρ(k)=x(0)(k)x(1)(k−1)\rho(k)=\frac{x^{(0)}(k)}{x^{(1)}(k-1)}ρ(k)=x(1)(k−1)x(0)(k)​ 为原始序列 x(0)x^{(0)}x(0) 的光滑比,注意到: ρ(k)=x(0)(k)x(0)(1)+x(0)(2)+⋯+x(0)(k−1)\rho(k)=\frac{x^{(0)}(k)}{x^{(0)}(1)+x^{(0)}(2)+\cdots+x^{(0)}(k-1)}ρ(k)=x(0)(1)+x(0)(2)+⋯+x(0)(k−1)x(0)(k)​
    假设 x(0)x^{(0)}x(0) 为非负序列,那么随着 kkk 增加,最终 ρ(k)\rho(k)ρ(k) 会逐渐接近 0,因此要是的具有 x(1)x^{(1)}x(1) 具有准指数规律,即 ∀k\forall k∀k,区间长度 δ\deltaδ <0.5,只需要保证 ρ(k)∈(0,0.5)\rho(k)∈(0,0.5)ρ(k)∈(0,0.5) 即可,此时序列 x(1)x^{(1)}x(1) 的级比 σ(k)∈(1,1.5)\sigma(k)∈(1,1.5)σ(k)∈(1,1.5) 。

注意:一般前两期:ρ(2)\rho(2)ρ(2) 和 ρ(3)\rho(3)ρ(3) 可能不符合要求,重点关注后面的期数。


四、GM(1,1)模型的评价

  使用 GM(1,1) 模型对未来的数据进行预测时,首先需要检验 GM(1,1) 模型对原数据的拟合程度(对原始数据的还原效果)。一般有两种方法:残差检验和级比偏差检验。


残差检验:

  绝对残差:ε(k)=x(0)(k)−x^(0)(k),k=2,3,⋯,n\varepsilon(k)=x^{(0)}(k)-\hat x^{(0)}(k),k=2,3,\cdots,nε(k)=x(0)(k)−x^(0)(k),k=2,3,⋯,n
  相对残差: εr(k)=∣x(0)−x^(0)(k)∣x(0)(k)×100%,k=2,3,⋯,n\varepsilon_r(k)=\frac{|x^{(0)}-\hat x^{(0)}(k)|}{ x^{(0)}(k)}\times100\%,k=2,3,\cdots,nεr​(k)=x(0)(k)∣x(0)−x^(0)(k)∣​×100%,k=2,3,⋯,n

  平均相对残差:
ε‾r=1n−1∑k=2n∣εr(k)∣\overline \varepsilon_r = \frac{1}{n-1} \sum_{k=2}^{n}|\varepsilon_r(k)|εr​=n−11​k=2∑n​∣εr​(k)∣

  • 如果 ε‾r<20%\overline \varepsilon_r< 20\%εr​<20%,则认为 GM(1,1) 对原始数据的拟合达到了一般要求。
  • 如果 ε‾r<10%\overline \varepsilon_r< 10\%εr​<10%,则认为 GM(1,1) 对原始数据的拟合达效果非常不错。(10%不绝对)

级比偏差检验:

  首先由 x(0)(k−1)x^{(0)}(k-1)x(0)(k−1) 和x(0)(k)x^{(0)}(k)x(0)(k) 计算出原始数据的级比 σ(k)\sigma(k)σ(k):
σ(k)=x(0)(k)x(0)(k−1),(k=2,3,⋯,n)\sigma(k)=\frac{x^{(0)}(k)}{x^{(0)}(k-1)},\quad(k=2,3,\cdots,n) σ(k)=x(0)(k−1)x(0)(k)​,(k=2,3,⋯,n)

  再根据预测出来的发展系数 (−a^)(-\hat a)(−a^) 计算出相应的级比偏差和平均级比偏差:
η(k)=∣1−1−0.5a^1+0.5a^1σ(k)∣,ηˉ=∑k=2nη(k)n−1\eta(k)=\left|1-\frac{1-0.5\hat a}{1+0.5\hat a}\frac{1}{\sigma(k)}\right|,\quad \bar \eta=\sum_{k=2}^{n}\frac{\eta(k)}{n-1} η(k)=∣∣∣∣​1−1+0.5a^1−0.5a^​σ(k)1​∣∣∣∣​,ηˉ​=k=2∑n​n−1η(k)​

  • 如果 ηˉ<0.2\bar \eta< 0.2ηˉ​<0.2,则认为 GM(1,1) 对原始数据的拟合达到了一般要求。
  • 如果 ηˉ<0.1\bar \eta< 0.1ηˉ​<0.1,则认为 GM(1,1) 对原始数据的拟合达效果非常不错。

  检验的原理:η(k)\eta(k)η(k) 越小,说明 x(0)(k)x^{(0)}(k)x(0)(k) 和 x^(0)(k)\hat x^{(0)}(k)x^(0)(k) 越接近。特别地,当 η(k)=0\eta(k)=0η(k)=0 时,可以得到:
σ(k)=1−0.5a^1+0.5a^=x^(0)(k)x(0)(k−1)\sigma(k)=\frac{1-0.5\hat a}{1+0.5\hat a}=\frac{\hat x^{(0)}(k)}{x^{(0)}(k-1)} σ(k)=1+0.5a^1−0.5a^​=x(0)(k−1)x^(0)(k)​


五、模型扩展(★)

  1. 数据是以年份度量的非负数据(如果是月份或者季度数据就要用 时间序列模型);
  2. 数据能经过准指数规律的检验(除了前两期外,后面至少90%的期数的光滑比要低于0.5,规定的 90% 不绝对) ;
  3. 数据的期数较短且和其他数据之间的关联性不强(小于等于10,也不能太短了,比如只有 3 期数据),要是数据期数较长,一般用传统的时间序列模型比较合适。
  4. 在传统的 GM(1,1) 模型的基础上,每预测一次,将预测的数据作为已知数据进行下一次预测,那么这种模型为 新信息 GM(1,1) 模型。在新信息 GM(1,1) 模型的基础上,去掉最老信息 x(0)(1)x^{(0)}(1)x(0)(1) ,那么这种模型为 新陈代谢 GM(1,1) 模型。应对比传统GM(1,1)、新信息 GM(1,1) 、新陈代谢 GM(1,1) 三种模型的预测效果,抉择使用。

  本文借鉴了数学建模清风老师的课件与思路,如果大家发现文章中有不正确的地方,欢迎大家在评论区留言,也可以点击查看下方链接查看清风老师的视频讲解~

原文链接:https://www.bilibili.com/video/BV1DW411s7wi

清风数学建模学习笔记——灰色预测模型推导及原理详解相关推荐

  1. 清风数学建模学习笔记——灰色关联分析(GRA)详细解读与案例分析

    灰色关联分析   灰色关联分析的基本思想 是根据序列曲线几何形状的相似程度来判断其联系是否紧密,曲线越接近,相应序列之间的关联度就越大,反之则越小.   此方法可用于 进行系统分析,也可应用于对问题 ...

  2. 清风数学建模学习笔记——K-means聚类模型详解及SPSS操作流程

    聚类模型   聚类模型,就是将样本划分为有类似的对象组成的多个类的过程.聚类后,我们可以更加准确的在每个类中单独使用统计模型进行估计.分析或预测:也可以探究不同类之间的相关性和主要差异.此外,聚类与分 ...

  3. 清风数学建模学习笔记——主成分分析(PCA)原理详解及案例分析

    主成分分析   本文将介绍主成分分析(PCA),主成分分析是一种降维算法,它能将多个指标转换为少数几个主成分,这些主成分是原始变量的线性组合,且彼此之间互不相关,其能反映出原始数据的大部分信息. 一般 ...

  4. 清风数学建模学习笔记——系统(层次)聚类原理详解及案例分析

    系统聚类   系统聚类的合并算法通过计算两类数据点间的距离,对最为接近的两类数据点进行组合,并反复迭代这一过程,直到将所有数据点合成一类,并生成聚类谱系图.此外,系统聚类可以解决簇数 K 的取值问题, ...

  5. 清风数学建模学习笔记——应用matlab实现分段三次埃尔米特(Hermite)插值与三次样条插值

    插值算法   数模比赛中,常常需要根据已知的函数点进行数据.模型的处理和分析,而有时候现有的数据是极少的,不足以支撑分析的进行,这时就需要使用一些数学的方法,模拟产生一些新的但又比较靠谱的值来满足需求 ...

  6. 数学建模学习笔记——灰色关联分析(评价类)

  7. 数学建模学习笔记(1)数学模型的特点和分类

    数学建模学习笔记(1)数学模型的特点和分类 ps:学习的教材为姜启源著的<数学模型(第四版)> 领取数模资料和更多内容请关注公众号:拾壹纪元 传送门: 线性规划(LP)问题 https:/ ...

  8. 【数学建模学习笔记【集训十天】之第六天】

    数模学习目录 Matplotlib 学习 Matplotlib简介 Matplotlib 散点图 运行效果如下: Matplotlib Pyplot 运行效果如下: 关于plot() 运行效果如下: ...

  9. 数学建模学习笔记(2.3)lingo软件求解线性规划问题

    数学建模学习笔记(2.3)lingo软件求解线性规划问题 lingo软件的优势在于体积小,专注于解决优化问题 且编程语言通俗易懂,没有门槛 对于刚刚接触数学建模同学比较友善 当然对于已经参与建模很久的 ...

最新文章

  1. 时间序列与R语言应用(part4)--自回归AR模型及其平稳性条件
  2. Kubernetes攻略之新手上路
  3. 为何time_before 起作用【转】
  4. spring mvc 4.3.2 + mybatis 3.4.1 + mysql 5.7.14 +shiro 幼儿园收费系统 之 消息管理
  5. IDEA 配置log4j
  6. 代理IP软件如何只切换浏览器IP地址
  7. 怎么用transmac制作mac安装盘|transmac制作苹果系统启动U盘方法
  8. 安卓投屏软件_安卓投屏下载-安卓投屏下载v7.7.3
  9. Apache反向代理设置
  10. nnt第三代接任务软件
  11. NVIDIA vid2vid论文复现
  12. 常忘知识点二-混合器
  13. 美国大学计算机科学专业研究生排名,美国大学计算机科学专业研究生排名介绍...
  14. 批量删除iPhone苹果通讯录的办法
  15. spark常见转换算子(transformation)的操作
  16. wlacm一笔画问题(图的遍历) 题解
  17. offsetof宏的模拟实现
  18. 口袋妖怪php源码,查看“精灵宝可梦 X·Y/新宝可梦”的源代码
  19. PAC脚本语法(代理自动配置)
  20. Lua性能优化—Lua内存优化

热门文章

  1. 物联网服务器通信协议选择,物联网都有哪些通信协议,该如何去选择
  2. CSS实现字体荧光效果
  3. 惊艳!这份阿里的「10亿级并发设计文档」Git狂揽9000星,堪称大厂直通车!
  4. 大脑的弥天大谎:为什么我们误把渴望当幸福
  5. python逻辑回归识别猫(持续更新中)
  6. 唐骏:先做人再做事偶尔作作秀
  7. SharePoint资料
  8. tp5.1使用阿里邮箱发送邮件
  9. 2023计算机毕业设计SSM最新选题之java公司销售合同管理系统kvwra
  10. 制作准考证方法wps版