写在前面:
  本文为科研理论笔记的第三篇,其余笔记目录传送门:

理论笔记专栏目录

  介绍结束下面开始进入正题:

1 高斯分布

​   一元高斯分布的概率密度函数为:
p(x)=1σ2πexp⁡(−(x−μ)22σ2);简写为:x∼N(μ,σ2)p(x) = \frac{1}{\sigma\sqrt{2\pi}}\exp (-\frac{(x-\mu)^2}{2\sigma^2}); 简写为:x \sim N(\mu, \sigma^2) p(x)=σ2π​1​exp(−2σ2(x−μ)2​);简写为:x∼N(μ,σ2)
其中的σ\sigmaσ和μ\muμ分别表示均值和方差,它们决定了高斯曲线的形状。

​   二维高斯分布图如下图所示,从XOZ和YOZ两个方向看过去,可以看出两个截面形状均遵循一维高斯分布,也就是说两个均值和两个方差可以唯一的确定一个二维高斯分布。

​   再推广到多元高斯分布,假设各维度之间相互独立,则一个n维的高斯分布的概率密度函数为:
p(x1,x2,...,xn)=∏i=1np(xi)=1(2π)n2σ1σ2...σnexp⁡(−12[(x1−μ1)2σ12+(x2−μ2)2σ22+...+(xn−μn)2σn2])(1)p(x_1, x_2, ..., x_n) = \prod_{i=1}^{n}p(x_i)=\frac{1}{(2\pi)^{\frac{n}{2}}\sigma_1\sigma_2...\sigma_n}\exp \left(-\frac{1}{2}\left [\frac{(x_1-\mu_1)^2}{\sigma_1^2} + \frac{(x_2-\mu_2)^2}{\sigma_2^2} + ... + \frac{(x_n-\mu_n)^2}{\sigma_n^2}\right]\right) \tag{1} p(x1​,x2​,...,xn​)=i=1∏n​p(xi​)=(2π)2n​σ1​σ2​...σn​1​exp(−21​[σ12​(x1​−μ1​)2​+σ22​(x2​−μ2​)2​+...+σn2​(xn​−μn​)2​])(1)
其中的σ1,σ2,...\sigma_1,\sigma_2,...σ1​,σ2​,...和μ1,μ2,...\mu_1,\mu_2,...μ1​,μ2​,...分别为第一维、第二维.........高斯分布的均值和方差,为了简化上式,令:
x=[x1,x2,...,xn]Tμ=[μ1,μ2,...,μn]Tx−μ=[x1−μ1,x2−μ2,…xn−μn]T\boldsymbol{x} = [x_1,x_2,...,x_n]^T \\ \boldsymbol{\mu} = [\mu_1,\mu_2,...,\mu_n]^T \\ \boldsymbol{x - \mu}=[x_1-\mu_1, \ x_2-\mu_2,\ … \ x_n-\mu_n]^T x=[x1​,x2​,...,xn​]Tμ=[μ1​,μ2​,...,μn​]Tx−μ=[x1​−μ1​, x2​−μ2​, … xn​−μn​]T

K=[σ120⋯00σ22⋯0⋮⋮⋱0000σn2]K = \begin{bmatrix} \sigma_1^2 & 0 & \cdots & 0\\ 0 & \sigma_2^2 & \cdots & 0\\ \vdots & \vdots & \ddots & 0\\ 0 & 0 & 0 & \sigma_n^2 \end{bmatrix} K=⎣⎢⎢⎢⎡​σ12​0⋮0​0σ22​⋮0​⋯⋯⋱0​000σn2​​⎦⎥⎥⎥⎤​

则有:
σ1σ2...σn=∣K∣12\sigma_1\sigma_2...\sigma_n = |K|^{\frac{1}{2}} σ1​σ2​...σn​=∣K∣21​

(x1−μ1)2σ12+(x2−μ2)2σ22+...+(xn−μn)2σn2=(x−μ)TK−1(x−μ)\frac{(x_1-\mu_1)^2}{\sigma_1^2} + \frac{(x_2-\mu_2)^2}{\sigma_2^2} + ... + \frac{(x_n-\mu_n)^2}{\sigma_n^2}=(\boldsymbol{x-\mu})^TK^{-1}(\boldsymbol{x-\mu}) σ12​(x1​−μ1​)2​+σ22​(x2​−μ2​)2​+...+σn2​(xn​−μn​)2​=(x−μ)TK−1(x−μ)

将上述两式带入式(1)化简得:
p(x)=(2π)−n2∣K∣−12exp⁡(−12(x−μ)TK−1(x−μ))p(\boldsymbol{x}) = (2\pi)^{-\frac{n}{2}}|K|^{-\frac{1}{2}}\exp \left( -\frac{1}{2}(\boldsymbol{x-\mu})^TK^{-1}(\boldsymbol{x-\mu}) \right) p(x)=(2π)−2n​∣K∣−21​exp(−21​(x−μ)TK−1(x−μ))
其中μ∈Rn\boldsymbol{\mu} \in \mathbb{R}^nμ∈Rn称为均值向量,K∈Rn×n\boldsymbol{K} \in \mathbb{R}^{n \times n}K∈Rn×n称为协方差矩阵,其代表了多维高斯分布中各维分布之间的关系,当各维度之间相互独立时,K\boldsymbol{K}K为对角矩阵;当各维度变量相关时,上式的形式仍然一致,但此时K\boldsymbol{K}K不再是对角矩阵,只具备半正定和对称的性质。

上式通常简写为:
x∼N(μ,K)\boldsymbol x \sim \mathcal{N}(\boldsymbol{\mu}, K) x∼N(μ,K)

2 高斯过程

​   从高斯分布到高斯过程(GP,Gaussian Process),就像手里抓着大把满足高斯分布的随机变量,而这些随机变量是按照时间或者空间这种连续性变量排列的,本质上它是一族随机变量的整体。举个并不太恰当的例子,倘若将我们人生的每一个时刻看做一个随机变量,且都是满足高斯分布,那么你的一生就可以看做一个GP样本,既有很多确定的东西,确定的是均值和核,例如在你高考的那一时刻你的分数均值为600,那么最终结果大概率会在[550,650]这个区间,你的家庭背景和自身天赋(均值函数和核函数)决定了的你人生的大致范围,但又有极大地不确定性,本质上是随机变量的整体,就像你可以凭借自身的努力改变很多东西,即你的人生就是属于你的高斯过程。

  高斯过程简单来说,就是一系列关于连续域(时间或空间)的随机变量的联合,而且其中每一个时间或空间点上的随机变量都是服从高斯分布的

  在下图中共有5条不同颜色的曲线,每条曲线都代表了一个GP的样本,首先观察其中橘黄色的曲线,对应x轴上找一个点,比如x=2大概对应的的y轴值约为2.6左右。但这并不是一个确定的点,它所代表的是对应x=2时的一个随机变量X(x=2)X_{(x=2)}X(x=2)​"正好"出现在2.6罢了,本质上对应x=2的是一个随机变量而不是一个确定的点。也就是说任意时刻的随机变量均服从一个确定的一维高斯分布(并不是说所有时刻对应的随机变量需要服从同一个高斯分布,只是服从的高斯分布的具体参数只跟时刻有关)。除此之外,若是GP的样本,还需要满足任意个点(对应不同时刻的随机变量)联合需要服从多元高斯分布,因此GP的分布就是对于时间域上所有随机变量的联合分布。


​   再仔细观察上图曲线,这个图中GP样本(不同颜色的曲线)虽然很多,但是它们是不是似乎都在围绕一个中心轴y=0上下震荡?这个规律就是由均值函数(mean function)μ(x)\boldsymbol{\mu}(\boldsymbol{x})μ(x)所决定的,事实上,均值函数决定的样本出现的整体位置,即基准线,若是均值函数恒为0的话那么基准线就是y=0。当然这也是常用的均值函数,其中原因就是它强调于刻画出现样本的整体的位置。另一个原因是GP在机器学习中的应用中,一般数据需要进行预处理,而归零中心常常是必须做的。除了0以外,一些线性的均值函数也是常用的。

​   既然每一个时刻对应的点都是随机变量,那为何似乎所有的时间差(x值相差)为2的的点对应y轴的值都是几乎一样的呢?这个规律就是由协方差函数(covariance function)K(x,x)K(\boldsymbol{x},\boldsymbol{x})K(x,x)所决定的,通常也称为核函数(kernel function),协方差函数在高斯过程中会生成一个协方差矩阵K\boldsymbol{K}K来衡量任意两个点之间的距离,它捕捉了不同输入点之间的关系,并且反映在了之后样本的位置上。这样的话,就可以做到,利用点与点之间关系,以从输入的训练数据预测未知点的值。不同的核函数有不同的衡量方法,得到的高斯过程的性质也不一样,下面是一些常用的核函数:

其中d=x−x′d=x-x'd=x−x′,σ\sigmaσ和lll称为高斯核的超参数

​   若给定协方差函数为K(x,x′)K(x,x')K(x,x′) ,则其在高斯过程中生成的协方差矩阵为:
K=[K(x1,x1)K(x1,x2)⋯K(x1,xn)K(x2,x1)K(x2,x2)⋯K(x2,xn)⋮⋮⋱⋮K(xn,x1)K(xn,x2)⋯K(xn,xn)]\boldsymbol K = \begin{bmatrix} K(x_1,x_1) & K(x_1,x_2) & \cdots & K(x_1,x_n)\\ K(x_2,x_1) & K(x_2,x_2) & \cdots & K(x_2,x_n)\\ \vdots & \vdots & \ddots & \vdots\\ K(x_n,x_1) & K(x_n,x_2) & \cdots & K(x_n,x_n) \end{bmatrix} K=⎣⎢⎢⎢⎡​K(x1​,x1​)K(x2​,x1​)⋮K(xn​,x1​)​K(x1​,x2​)K(x2​,x2​)⋮K(xn​,x2​)​⋯⋯⋱⋯​K(x1​,xn​)K(x2​,xn​)⋮K(xn​,xn​)​⎦⎥⎥⎥⎤​
​   下图是一些基于其他核函数的GP样本:



​   结合之前所说的GP样本需要满足任意个点(对应不同时刻的随机变量)联合服从多元高斯分布,既然满足多元高斯分布,那么就需要一个确定的均值向量μ\boldsymbol{\mu}μ和一个确定的协方差矩阵K\boldsymbol{K}K,而这二者正是由均值函数和协方差函数所确定的,也就是说,若是给定一个均值函数和协方差函数,那么自然不同时刻的随机变量出现的整体位置和相关情况也就被限定住了。即:一个GP可以被协方差函数和核函数共同唯一决定

​   下面给出高斯过程正式的数学定义:对于所有x=[x1,x2,⋯,xn]\boldsymbol{x} = [x_1, x_2, \cdots, x_n]x=[x1​,x2​,⋯,xn​]而言,f(x)=[f(x1),f(x2),⋯,f(xn)]f(\boldsymbol{x})=[f(x_1), f(x_2), \cdots, f(x_n)]f(x)=[f(x1​),f(x2​),⋯,f(xn​)]都服从多元高斯分布,则称fff是一个高斯过程,表示为:
f(x)∼GP(μ(x),K(x,x′))f(\boldsymbol{x}) \sim \mathcal{GP}(\boldsymbol{\mu}(\boldsymbol{x}), K(\boldsymbol{x},\boldsymbol{x'})) f(x)∼GP(μ(x),K(x,x′))
其中μ(x)=E(f(x)):Rn→Rn\boldsymbol{\mu}(\boldsymbol{x})=\mathbb E(f(\boldsymbol x)): \mathbb{R^{n}} \rightarrow \mathbb{R^{n}}μ(x)=E(f(x)):Rn→Rn表示均值函数,返回各个维度的均值;

​ K(x,x′)=E((f(x)−μ(x))(f(x′)−μ(x′))):Rn×Rn→Rn×nK(\boldsymbol{x},\boldsymbol{x'})=\mathbb E((f(\boldsymbol x)-\mu(\boldsymbol x))(f(\boldsymbol x')-\mu(\boldsymbol x'))) : \mathbb{R^{n}} \times \mathbb{R^{n}} \rightarrow \mathbb{R^{n\times n}}K(x,x′)=E((f(x)−μ(x))(f(x′)−μ(x′))):Rn×Rn→Rn×n表示协方差函数(核函数),返回各个维度之间的协方差矩阵。

3 高斯过程回归预测

​   回归(regression):也可以理解为拟合,即把一些看似孤立的数据联系在一起,找到规律,这就叫回归。

​   机器学习大致可以分为两类:

​   监督学习(Supervised learning):其本质就是就是从给定的训练数据中学习得到一个映射函数,即当新的数据来到时可是直接代入到之前学习得到的映射函数中,直接获得一个预测结果。学习的训练集要求是输入与输出,当然更直接的说就是特征和目标,而其中的目标是由人为的标注的。监督学习中主要包括回归和分类。所谓回归就是人为标注的目标是连续的,比如说回归天气温度(34度,23度,这些连续的实数),所谓分类就是输出是离散的,比如说分类天气状况(晴,阴,雨)。这些的学习都算是监督学习,也就是这个学习的开始都有个明确的目标。

​   无监督学习(Unsupervised learning):相比于监督学习,这里的训练集没有人为标注的结果。常见的就有聚类。举个例子,给你一大堆手机,这年头的手机去掉logo,谁都不知道谁是谁,对,给你一堆去掉logo的手机去训练,把最相似的聚在一起(聚类),然后要求就是再给你一个手机,你就可以自动把他归进之前聚好的类别中。这里所谓的聚类是不知道明确要求的归类,而监督学习中的的分类是已知明确标签的,比如智能机和非智能机。

​   高斯过程回归(GPR,Gaussian Process Regression)就是一种机器学习的方法,其属于上述类型中监督学习里的回归。其主要用于解决的问题可描述如下:假设有一个未知函数y=f(x)y=f(x)y=f(x),且在训练集DDD中有三个点(x1,y1),(x2,y2),(x3,y3)(x_1,y_1),(x_2,y_2),(x_3,y_3)(x1​,y1​),(x2​,y2​),(x3​,y3​)如下图所示,那么如果再给一个x∗x^*x∗,高斯过程回归会给出其对应随机变量y∗y^*y∗所服从的分布,即作出预测。

​   高斯过程回归的关键假设为:上述yyy值均服从联合正态分布。即对于上面的训练集例子而言,假设其满足:
[y1y2y3]∼N([000],[K11K12K13K21K22K23K31K32K33])\begin{bmatrix}y_1 \\y_2 \\y_3 \end{bmatrix} \sim \mathcal{N}\left(\begin{bmatrix}0 \\0 \\0 \end{bmatrix},\begin{bmatrix}K_{11} &K_{12} &K_{13} \\K_{21} &K_{22} &K_{23} \\K_{31} &K_{32} &K_{33} \end{bmatrix} \right) ⎣⎡​y1​y2​y3​​⎦⎤​∼N⎝⎛​⎣⎡​000​⎦⎤​,⎣⎡​K11​K21​K31​​K12​K22​K32​​K13​K23​K33​​⎦⎤​⎠⎞​
​   在这里我们取均值向量μ=0\boldsymbol{\mu}=0μ=0,其协方差矩阵K=[K11K12K13K21K22K23K31K32K33]\boldsymbol{K}=\begin{bmatrix}K_{11} &K_{12} &K_{13} \\K_{21} &K_{22} &K_{23} \\K_{31} &K_{32} &K_{33} \end{bmatrix}K=⎣⎡​K11​K21​K31​​K12​K22​K32​​K13​K23​K33​​⎦⎤​由核函数给出。

​   以此类推进一步考虑y∗y^*y∗,他与y1,y2,y3y_1,y_2,y_3y1​,y2​,y3​也应符合一个4维高斯分布,即:
[y1y2y3y∗]∼N([0000],[K11K12K13K1∗K21K22K23K2∗K31K32K33K3∗K∗1K∗2K∗3K∗∗])\begin{bmatrix}y_1 \\y_2 \\y_3 \\y^* \end{bmatrix} \sim \mathcal{N}\left(\begin{bmatrix}0 \\0 \\0 \\0 \end{bmatrix},\begin{bmatrix}K_{11} &K_{12} &K_{13} &K_{1*} \\K_{21} &K_{22} &K_{23} &K_{2*} \\K_{31} &K_{32} &K_{33} &K_{3*} \\K_{*1} &K_{*2} &K_{*3} &K_{**}\end{bmatrix} \right) ⎣⎢⎢⎡​y1​y2​y3​y∗​⎦⎥⎥⎤​∼N⎝⎜⎜⎛​⎣⎢⎢⎡​0000​⎦⎥⎥⎤​,⎣⎢⎢⎡​K11​K21​K31​K∗1​​K12​K22​K32​K∗2​​K13​K23​K33​K∗3​​K1∗​K2∗​K3∗​K∗∗​​⎦⎥⎥⎤​⎠⎟⎟⎞​
​   若给定了x∗x^*x∗,那么K1∗,K2∗,K3∗,K∗1,K∗2,K∗3K_{1*},K_{2*},K_{3*},K_{*1},K_{*2},K_{*3}K1∗​,K2∗​,K3∗​,K∗1​,K∗2​,K∗3​都可以通过核函数求出,而K∗∗K_{**}K∗∗​一般取1即可。

​ 设y⃗=[y1y2y3]\vec y=\begin{bmatrix}y_1 \\y_2 \\y_3 \end{bmatrix}y​=⎣⎡​y1​y2​y3​​⎦⎤​,K∗=[K1∗K2∗K3∗]\boldsymbol{K}_*=\begin{bmatrix}K_{1*} \\K_{2*} \\K_{3*} \end{bmatrix}K∗​=⎣⎡​K1∗​K2∗​K3∗​​⎦⎤​,即K\boldsymbol{K}K的右侧部分,那么套入公式即可得到y∗y^*y∗所服从的分布:
y∗∼N(μ∗,σ∗)(2)y^* \sim \mathcal{N}(\mu^*, \sigma^*) \tag{2} y∗∼N(μ∗,σ∗)(2)
其中:μ∗=K∗TK−1y⃗\mu^* = \boldsymbol K_*^T\boldsymbol K^{-1}\vec yμ∗=K∗T​K−1y​ ,σ∗=−K∗TK−1K∗+K∗∗\sigma^* = -\boldsymbol K_*^T\boldsymbol K^{-1}\boldsymbol K_*+K_{**}σ∗=−K∗T​K−1K∗​+K∗∗​,该公式的推导涉及到贝叶斯公式和似然估计,有兴趣可自行百度。

​   若再加上一个高斯噪声,即:y=f(x)+ϵy=f(x)+\epsilony=f(x)+ϵ,这个方程刻画了理想的输入量和输出量之间的关系,其中ϵ∼N(0,σn2)\epsilon \sim N(0,\sigma_n^2)ϵ∼N(0,σn2​),其分析过程同上,只不过需要再在上述协方差矩阵K\boldsymbol KK的基础上加上一个 σn2I\sigma_n^2Iσn2​I,即:K′=K+σn2I\boldsymbol K'=\boldsymbol K+\sigma_n^2IK′=K+σn2​I.

​   最后一步要考虑的就是当我们有了均值函数和核函数的具体形式后,该如何通过训练集DDD去估计并优化核函数中的超参数,相应的算法不止一种,下面不加证明的(有兴趣自行百度)给出一个利用最大似然估计求解超参数的算法公式:

​   设训练集D=(X,y)={(xi,yi)∣xi∈Rn,yi∈R,i=0,1,...,n}D=(X,y)=\{(x_i,y_i)|x_i\in \R^n,y_i\in \R,i=0,1,...,n \}D=(X,y)={(xi​,yi​)∣xi​∈Rn,yi​∈R,i=0,1,...,n},f(x)∼GP(0,Kθ)f(\boldsymbol{x}) \sim \mathcal{GP}(0, K_\theta)f(x)∼GP(0,Kθ​),其中θ\thetaθ表示超参数,KθK_\thetaKθ​表示带超参数的核函数,那么关于θ\thetaθ最大似然函数为:
L(θ)=log(y∣x,θ)=−12yTKθ−1y−12log∣Kθ∣−n2log2πL(\theta)=log(y|x,\theta)=-\frac{1}{2}y^TK_\theta^{-1}y-\frac{1}{2}log|K_\theta|-\frac{n}{2}log2\pi L(θ)=log(y∣x,θ)=−21​yTKθ−1​y−21​log∣Kθ​∣−2n​log2π
再令:
∂L∂θ=12tr(Kθ−1∂Kθ∂θ)−12yTKθ−1∂Kθ∂θKθ−1y=0(3)\frac{\partial L}{\partial\theta}=\frac{1}{2}tr(K_\theta^{-1}\frac{\partial K_\theta}{\partial\theta}) -\frac{1}{2}y^{T}K_\theta^{-1}\frac{\partial K_\theta}{\partial\theta}K_\theta^{-1}y=0 \tag{3} ∂θ∂L​=21​tr(Kθ−1​∂θ∂Kθ​​)−21​yTKθ−1​∂θ∂Kθ​​Kθ−1​y=0(3)
​ 即可解出θ\thetaθ的最大似然估计值θ^\hat\thetaθ^,其中trtrtr是指矩阵的迹。

​   下面举个简单的例子进行总结,请听题:

​   现有训练集:D=(X,y)={(−1.5,−1.65),(−1,−1.08),(−0.75,−0.27),(−0.4,0.27),(−0.25,0.59),(0,0.92)}D=(X,y)=\{(-1.5,-1.65),(-1,-1.08),(-0.75,-0.27),(-0.4,0.27),(-0.25,0.59),(0,0.92)\}D=(X,y)={(−1.5,−1.65),(−1,−1.08),(−0.75,−0.27),(−0.4,0.27),(−0.25,0.59),(0,0.92)},自选均值函数和核函数,预测当x∗=0.2x^*=0.2x∗=0.2时,y∗=?y^*=?y∗=?

​ step1:确定训练集中的点为一个高斯过程的采样点,即:y(x)∼GP(μ(x),K(x,x′))y(\boldsymbol{x}) \sim \mathcal{GP}(\boldsymbol{\mu}(\boldsymbol{x}), K(\boldsymbol{x},\boldsymbol{x'}))y(x)∼GP(μ(x),K(x,x′));

​ step2:确定均值函数,不妨取μ(x)=0\boldsymbol{\mu}(\boldsymbol{x})=0μ(x)=0;

​ step3:确定核函数,选取K(x,x′)=σf2exp[−d22l2]+σn2δ(x,x′)K(\boldsymbol{x},\boldsymbol{x'})=\sigma_f^2exp[\frac{-d^2}{2l^2}]+\sigma_n^2\delta(x,x')K(x,x′)=σf2​exp[2l2−d2​]+σn2​δ(x,x′),

​ 其中取σn=0.3\sigma_n=0.3σn​=0.3,δ(x,x′)={1,x=x′0,x≠x′\delta(x,x')=\begin{cases}1,&{x=x'} \\0,&{x\neq x'} \end{cases}δ(x,x′)={1,0,​x=x′x​=x′​,σf\sigma_fσf​和lll为超参数;

​ step4:根据后验概率确定预测点的表达式,即上式(2);

​ step5:利用最大似然估计求解超参数,即套用上式(3),解出l^=1,σ^f=1.27\hat l=1,\hat \sigma_f=1.27l^=1,σ^f​=1.27,注意在编程时一般这一步可以调用内置函数实现;

​ step6:代入数据,求得协方差矩阵K=[1.701.421.210.870.720.511.421.701.561.341.210.971.211.561.701.511.421.210.871.341.511.701.591.480.721.211.421.591.701.560.510.971.211.481.561.70]\boldsymbol{K}=\begin{bmatrix}1.70&1.42&1.21&0.87&0.72&0.51 \\1.42&1.70&1.56&1.34&1.21&0.97 \\1.21&1.56&1.70&1.51&1.42&1.21 \\0.87&1.34&1.51&1.70&1.59&1.48 \\0.72&1.21&1.42&1.59&1.70&1.56 \\0.51&0.97&1.21&1.48&1.56&1.70 \end{bmatrix}K=⎣⎢⎢⎢⎢⎢⎢⎡​1.701.421.210.870.720.51​1.421.701.561.341.210.97​1.211.561.701.511.421.21​0.871.341.511.701.591.48​0.721.211.421.591.701.56​0.510.971.211.481.561.70​⎦⎥⎥⎥⎥⎥⎥⎤​

​ K∗=[0.380.791.031.351.461.58]\boldsymbol K_*=\begin{bmatrix}0.38&0.79&1.03&1.35&1.46&1.58 \end{bmatrix}K∗​=[0.38​0.79​1.03​1.35​1.46​1.58​],取K∗∗=1.70K_{**}=1.70K∗∗​=1.70,

最后带入式(2)即可解出:μ∗=0.95\mu^*=0.95μ∗=0.95,σ∗=0.21\sigma^*=0.21σ∗=0.21,即y∗∼N(0.95,0.21)y^* \sim \mathcal{N}(0.95,0.21)y∗∼N(0.95,0.21),解毕。

​   最后总结如下图:

GPR(高斯过程回归)相关推荐

  1. Gaussian Processes Regression(GPR) 高斯过程回归 Matlab 实现

    高斯过程回归(GPR)的matlab 实现, Matlab 为实现高斯过程回归提供了接口函数 fitrgp, 详细参考fitrgp官方文档 非常详细[4] 语法: gprMdl = fitrgp(tb ...

  2. python 高斯烟羽模型_GPR(高斯过程回归)详细推导

    GPR(高斯过程回归)详细推导 一.综述 GPR来源于线性模型,有两种方式可以推导出GPR,一种是weight space view,另外一种是function space view.两者考察方式假设 ...

  3. 转载:说说高斯过程回归

    原文链接: 说说高斯过程回归 – 我爱计算机 http://www.52cs.org/?p=509&_360safeparam=1929050203 高斯过程回归 来自于 我爱计算机 WWW. ...

  4. 高斯过程回归python_scikit-learn中的多输出高斯过程回归

    好吧,你无意中碰上了冰山...... 作为前奏,让我们明确指出方差和标准差的概念仅适用于标量变量;对于矢量变量(比如你自己的3d输出),方差的概念不再有意义,而是使用协方差矩阵(Wikipedia,W ...

  5. 高斯过程回归 | Matlab实现高斯过程回归多输入单输出预测(Gaussian Process Regression)

    文章目录 效果一览 文章概述 研究内容 程序设计 参考资料 效果一览 文章概述 高斯过程回归 | Matlab实现高斯过程回归多输入单输出预测(Gaussian Process Regression) ...

  6. 趋势预测方法(四)高斯过程回归_时序概率性预测

    高斯过程回归(GPR) a基本原理: 利用高斯过程回归将可能的数据趋势曲线都保存下来(每条趋势曲线都有自己的置信度,在区间内呈高斯分布),最后在一张图中显示出来,再判断总体的趋势情况. b算法原理: ...

  7. 高斯过程分类 matlab,matlab 高斯过程回归模型 matlab Gaussian process regression model

    [实例简介] 高斯过程回归及分类的代码,内容全,有实例,注释清晰.包括分类系列和预测回归系列,值得感兴趣的同学学习借鉴.里面有对应的数据和demo程序,程序可运行,MATLAB2014a下测试通过,其 ...

  8. 高斯过程回归的权空间观点推导及代码实现

    文章目录 1.高斯过程简介 1.1定义 2.部分基础知识(已具备的直接跳至第3节) 2.1 部分矩阵计算基础 2.1.1 分块矩阵求逆 2.1.2 矩阵求逆引理 2.2 多元高斯分布 2.2.1 联合 ...

  9. 高斯过程回归python_sklearn文档 — 1.7. 高斯过程

    原文章为scikit-learn中"用户指南"-->"监督学习的第七节:Gaussian Processes"###### 高斯过程(GP)是一种被设计来 ...

最新文章

  1. ORA-06502 when awr report produce
  2. 《你要么出众,要么出局》读书笔记
  3. Visual Studio 中粗略的代码行数统计
  4. 宿舍管理系统设计分析图
  5. MFC窗口标题栏隐藏
  6. 将报表模板中数据集的数据源名称与服务器中的数据源名称修改一致.,连接数据库,服务器端的几个常见错误...
  7. 腾讯信息流推荐业务实践:内容分发场景的多目标架构实践
  8. hadoop的基本搭建
  9. devcpp 的各种快捷键
  10. Linux内核原理-pid namespace
  11. 密码学 ZUC算法 Python实现
  12. 微信小程序开发工具的目录结构
  13. IT男的神级吐槽 || 我们IT人的心声(_)
  14. swag_ios安卓 testlight /apps/android官方开发包安装
  15. Mac 此账户尚未用于app store_App Store调整频繁!游戏App下架数量再次增加! | 8月推广报告...
  16. C++ day22 继承(二)基类指针数组通过虚方法实现智能的多态
  17. linux对指定ip限速,使用tc对linux中某ip段限速
  18. patch的用法【转】
  19. Escape/Unescape,HTML实体编码,敲击码(Tap code),摩尔斯电码(Morse Code)
  20. HDU 威威猫系列故事——篮球梦

热门文章

  1. 管网管理GIS服务平台有何功能?
  2. 简单研究用于监控数通设备的Zabbix模板:Template Module Interfaces SNMP与Template Module EtherLike-MIB SNMP
  3. Flex FormItem样式
  4. 嵌入式开发要求的一些专业技能总结
  5. 动态规划之最大K乘积问题
  6. 什么是智能云断路器?
  7. oralce 数据库基础
  8. 编程范式(斯坦福大学)学习笔记《十二》
  9. Centos7下使用scp实现远程服务备份文件
  10. STM32L5单片机即将量产,Cortex-M33内核,更低功耗,更多安全!