随机过程(二):更新过程的详细理解
一、基础知识
1. 大数定律
(1)切比雪夫大数定律
设 X1,X2,⋯,XnX_1,X_2,\cdots,X_nX1,X2,⋯,Xn是一列相互独立的随机变量,他们分别存在期望E(xk)E(x_k)E(xk)和方差D(xk)D(x_k)D(xk)。若存在常数CCC使得D(xk)≤C(k=1,2,⋯,n)D(x_k)\le C(k=1,2,\cdots,n)D(xk)≤C(k=1,2,⋯,n),则对任意小的正数ε\varepsilonε有下式成立:
limn→∞P{∣1n∑k=1nxk−1n∑k=1nE(xk)∣<ε}=1\mathop {\lim }\limits_{n \to \infty } P\left\{ {\left| {\frac{1}{n}\sum\limits_{k = 1}^n {{x_k} - \frac{1}{n}\sum\limits_{k = 1}^n {E({x_k})} } } \right| < \varepsilon } \right\} = 1n→∞limP{∣∣∣∣∣n1k=1∑nxk−n1k=1∑nE(xk)∣∣∣∣∣<ε}=1
该定理的意思是随着样本容量nnn的增加,样本平均数将接近于总体平均数。这就是统计推断中依据样本平均数估计总体平均数的理论依据所在。特别需要注意的是,切比雪夫大数定理并未要求 X1,X2,⋯,XnX_1,X_2,\cdots,X_nX1,X2,⋯,Xn同分布,相较于后面介绍的伯努利大数定律和辛钦大数定律更具一般性。
(2)伯努利大数定律
设μn\mu_nμn是nnn次独立试验中事件A发生的次数,且事件A在每次试验中发生的概率为ppp,则对任意正数ε\varepsilonε有下式成立:
limn→∞P{∣μnn−p∣<ε}=1\mathop {\lim }\limits_{n \to \infty } P\left\{ {\left| {\frac{{{\mu _n}}}{n} - p} \right| < \varepsilon } \right\} = 1n→∞limP{∣∣∣nμn−p∣∣∣<ε}=1
该定律是切比雪夫大数定律的特例,其含义是:当nnn足够大时,事件A出现的频率将几乎接近于其发生的概率,即频率的稳定性。
该定理也是抽样调查中用样本参数去估计总体参数的理论依所在。
(3)辛钦大数定律
设X1,X2,⋯,Xn⋯X_1,X_2,\cdots,X_n\cdotsX1,X2,⋯,Xn⋯为独立同分布的随机变量序列,若他们的数学期望存在且为μ\muμ,则对任意的ε>0\varepsilon>0ε>0有下式成立:
limn→∞P{∣1n∑i=1nXi−μ∣<ε}=1\mathop {\lim }\limits_{n \to \infty } P\left\{ {\left| {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} - \mu } \right| < \varepsilon } \right\} = 1n→∞limP{∣∣∣∣∣n1i=1∑nXi−μ∣∣∣∣∣<ε}=1
注:辛钦大数定律是我们最常见的大数定律,切比雪夫大数定律最具有一般性。
2. 中心极限定理
(1)独立同分布的中心极限定理
设X1,X2,⋯Xn,⋯X_1,X_2,\cdots X_n,\cdotsX1,X2,⋯Xn,⋯独立同分布的随机变量,并且具有有限的数学期望和方差:E(Xi)=μ,D(Xi)=σ2(i=1,2⋯)E(X_i)=\mu,D(X_i)=\sigma^2(i=1,2\cdots)E(Xi)=μ,D(Xi)=σ2(i=1,2⋯),则对任意xxx,分布函数Fn(x)=P{∑i=1n(Xi−μ)σn≤x}=P{∑i=1n(Xi)−nμσn≤x}{F_n}(x) = P\left\{ {\frac{{\sum\nolimits_{i = 1}^n {\left( {{X_i} - \mu } \right)} }}{{\sigma \sqrt n }} \le x} \right\}=P\left\{ {\frac{{\sum\nolimits_{i = 1}^n {\left( {{X_i} } \right)-n \mu} }}{{\sigma \sqrt n }} \le x} \right\}Fn(x)=P{σn∑i=1n(Xi−μ)≤x}=P{σn∑i=1n(Xi)−nμ≤x}
满足limn→∞Fn(x)=limn→∞P{∑i=1n(Xi)−nμσn≤x}=12π∫−∞xe−t22dt=Φ(x)\mathop {\lim }\limits_{n \to \infty } {F_n}(x) = \mathop {\lim }\limits_{n \to \infty } P\left\{ {\frac{{\sum\nolimits_{i = 1}^n {\left( {{X_i}} \right)} - n\mu }}{{\sigma \sqrt n }} \le x} \right\} = \frac{1}{{\sqrt {2\pi } }}\int_{ - \infty }^x {{e^{\frac{{ - {t^2}}}{2}}}} dt=\Phi (x)n→∞limFn(x)=n→∞limP{σn∑i=1n(Xi)−nμ≤x}=2π1∫−∞xe2−t2dt=Φ(x)
该定理的意思是:当nnn很大时,随机变量Yn=∑i=1n(Xi−μ)σnY_n={\frac{{\sum\nolimits_{i = 1}^n {\left( {{X_i} - \mu } \right)} }}{{\sigma \sqrt n }}}Yn=σn∑i=1n(Xi−μ)近似地服从标准正态分布N(0,1)N(0,1)N(0,1)。因此,当nnn很大时,∑i=1nXi=σnYn+nμ\sum\limits_{i = 1}^n {{X_i}} = \sigma \sqrt n {Y_n} + n\mui=1∑nXi=σnYn+nμ近似地服从正态分布N(nμ,nσ2)N(n\mu,n\sigma^2)N(nμ,nσ2)。该定理是中心极限定理最简单又最常用的一种形式,在实际工作中,只要nnn足够大,便可以把独立同分布的随机变量之和当作正态变量。这种方法在数理统计中用得很普遍,当处理大样本时,它是重要工具。
(1)不同分布的中心极限定理
设X1,X2,⋯XnX_1,X_2,\cdots X_nX1,X2,⋯Xn是一列独立随机变量,它们的概率密度分别为fxk(x)f_{x_k}(x)fxk(x),并有E(Xk)=μk,D(Xk)=σk2,(k=1,2,...)E(X_k)=\mu_k,D(X_k)=\sigma_k^2 ,(k=1,2,...)E(Xk)=μk,D(Xk)=σk2,(k=1,2,...),令Bn2=∑i=1nσk2Yn=∑k=1nXk−∑k=1nμkBnB_n^2 = \sum\limits_{i = 1}^n {\sigma _k^2} {\kern 20pt} {Y_n} = \frac{{\sum\nolimits_{k = 1}^n {{X_k}} - \sum\nolimits_{k = 1}^n {{\mu _k}} }}{{{B_n}}} Bn2=i=1∑nσk2Yn=Bn∑k=1nXk−∑k=1nμk
若对任意正数τ\tauτ有:limn→∞1Bn2∑k=1n∫∣x−μk>τBn∣(x−μk)2fxk(x)dx=0\mathop {\lim }\limits_{n \to \infty } \frac{1}{{B_n^2}}\sum\limits_{k = 1}^n {\int\limits_{\left| {x - {\mu _k} > \tau {B_n}} \right|} {{{\left( {x - {\mu _k}} \right)}^2}{f_{{x_k}}}(x)} dx = 0} n→∞limBn21k=1∑n∣x−μk>τBn∣∫(x−μk)2fxk(x)dx=0
则对任意xxx,随机变量YnY_nYn的分布函数Fn(x)F_n(x)Fn(x),满足:
limn→∞Fn(x)=limn→∞P{∑k=1nXk−∑k=1nμkBn≤x}=12π∫−∞xe−t22dt\mathop {\lim }\limits_{n \to \infty } {F_n}(x) = \mathop {\lim }\limits_{n \to \infty } P\left\{ {\frac{{\sum\nolimits_{k = 1}^n {{X_k}} - \sum\nolimits_{k = 1}^n {{\mu _k}} }}{{{B_n}}} \le x} \right\} = \frac{1}{{\sqrt {2\pi } }}\int_{ - \infty }^x {{e^{\frac{{ - {t^2}}}{2}}}} dtn→∞limFn(x)=n→∞limP{Bn∑k=1nXk−∑k=1nμk≤x}=2π1∫−∞xe2−t2dt
该定理说明:所研究的随机变量如果是有大量独立的而且均匀的随机变量相加而成,那么它的分布将近似于正态分布。
二、引言
在随机过程(一)中,我们主要介绍了泊松过程,让我们先回顾一下泊松过程主要知识点:
(1)泊松过程中事件发生的次数是独立平稳的:独立意味着两个不相交的时间段内,事件发生的次数是相互独立的;平稳意味着某个时间段事件发生次数以固定的比例随该时间段的长度而增加,该比例即为泊松过程的参数λ\lambdaλ,也表示单位时间内事件发生的次数;
(2)在很小的时间h→0h \to 0h→0内,发生一次事件的概率为:P{N(h)=1}=λh+o(h)P\{ N(h) = 1\} = \lambda h + o(h)P{N(h)=1}=λh+o(h);
(3)在很小的时间h→0h \to 0h→0内,发生两次及以上次事件的概率为:P{N(h)⩾2}=o(h)P\{ N(h) \geqslant 2\} = o(h)P{N(h)⩾2}=o(h);
(4)任意两次事件间隔时间服从参数为λ\lambdaλ的指数分布,且任意两个间隔时间是相互独立的;
(5)在时间ttt内事件发生的次数服从参数为λt\lambda tλt的泊松分布。
如果对各种分布不是很熟悉,请参阅详细介绍各种分布。
现在让我们考虑一个计数过程{N(t),t⩾0}\left\{ {N(t),t \geqslant 0} \right\}{N(t),t⩾0},该过程的一个特点是:两次事件之间的间隔时间是独立同分布的,且分布函数为F(⋅)F(\cdot)F(⋅)。注意到这个特点和上面的第(4)点很像,唯一的不同是上面第(4)点要求服从指数分布,而我们要求它服从任意分布F(⋅)F(\cdot)F(⋅)即可,这相当于是对第(4)点做一个推广。我们称之这样的计数过程为更新过程(renewal process),下面我们将给出更新过程的正式定义:
定义: 设{Xn,n=1,2,…}\left\{X_n,n=1,2,\ldots\right\}{Xn,n=1,2,…}是一系列非负随机变量且具有共同分布FFF,其中XnX_nXn表示第n−1n-1n−1个事件与第nnn个事件之间的时间。(注意,XnX_nXn是非负变量,因此会有Xn=0X_n=0Xn=0,为了严谨性,设有F(0)=P(Xn=0)<1F(0)=P(X_n=0)<1F(0)=P(Xn=0)<1)。令Sn=∑i=1nXi,n≥1S_n=\sum\limits_{i=1}^{n}X_i,n\ge1Sn=i=1∑nXi,n≥1,S0=0S_0=0S0=0,因此SnS_nSn就是第nnn个事件发生的时刻。记到时间刻ttt时事件发生的次数为N(t)N(t)N(t),则称计数过程
N(t)=sup{n:Sn≤t}(1)N(t)=sup\left\{n:S_n \le t \right\} \tag1N(t)=sup{n:Sn≤t}(1)
为更新过程。
看着上面的定义,估计很多人还是不明白到底什么是更新过程,因此我们举个例子让大家直观的感受一下更新过程。假设你的工作内容是专门维护某台机器,该机器元件A一旦损坏,你就立马去更换一个新的(此处假设你是非常厉害的,更换所花费的时间为0),每个A元件的工作寿命都服从同一个分布,现在问你经过ttt时间以后,你总共更换了多少个A元件?这就是更新过程!A元件发生损坏即对应定义中的事件发生,事件发生后你会立马进行更新,然后等待下个事件的发生。由于我们前面已经假设你是个超人(更新一个元件的时间是0),因此我们可以将“更新”和“事件”这两个词进行相同意思的混用。现在,相信大家对更新过程有了一个较为清晰初步的理解。
有了更新过程的定义,一个自然而然的问题是,我们需要对这个过程研究什么?我们当然不能停留在更新了几次这种简单的问题上,而是应该透过现象去看一些本质的问题。
三、N(t)N(t)N(t)的分布及相关极限定理
研究N(t)N(t)N(t)的分布也即是说研究在有限的时间ttt内,更新(也可以用“事件”代替)发生的次数大概是个什么情况。研究这点有什么用呢?以上面的更换元件为例,你要是能了解N(t)N(t)N(t)的分布情况,对于每次采购多少个元件是不是很有帮助。
在正式推导N(t)N(t)N(t)的分布之前,我们可以有个直觉上的猜测:那就是有限的时间内更新肯定不是无数次的!下面进行数学上的推导。
根据更新过程的定义:假设从0到ttt时间内,若事件发生了nnn次(即N(t)=nN(t)=nN(t)=n),则要么第nnn次事件刚好发生在ttt时刻(即Sn=tS_n=tSn=t),要么在ttt时刻之前发生了第nnn次事件(即Sn≤tS_n\le tSn≤t);若[0−t][0-t][0−t]时间内事件发生的次数大于nnn次(即N(t)>nN(t)>nN(t)>n),则同样有在ttt时刻之前发生了第nnn次事件(即Sn≤tS_n\le tSn≤t);我们将上述情况合并可得:
N(t)≥n⇔Sn≤t(2)N(t) \ge n{\kern 3pt} \Leftrightarrow {\kern 3pt} {S_n} \le t \tag2N(t)≥n⇔Sn≤t(2)
由(2)式可以推出下面的概率:
P{N(t)=n}=P{N(t)≥n}−P{N(t)≥n+1}=P{Sn≤t}−P{Sn+1≤t}(3)\begin{aligned}P\left\{N(t) = n \right\}&=P\left\{N(t)\ge n \right\}-P\left\{N(t)\ge n+1 \right\}\\ &=P\left\{S_n\le t \right\}-P\left\{S_{n+1}\le t \right\} \end{aligned} \tag3P{N(t)=n}=P{N(t)≥n}−P{N(t)≥n+1}=P{Sn≤t}−P{Sn+1≤t}(3)
还记得我们前面在定义中有XiX_iXi是独立同分布的,分布函数为FFF,Sn=∑i=1nXiS_n=\sum\limits_{i=1}^nX_iSn=i=1∑nXi,根据概率论知识(相互独立的随机变量XXX和YYY,其和Z=X+YZ=X+YZ=X+Y的分布是他们的卷积,即FZ=FX∗FYF_Z=F_X*F_YFZ=FX∗FY),SnS_nSn的分布函数FnF_nFn为nnn个FFF的卷积,因此有:
P{N(t)=n}=P{Sn≤t}−P{Sn+1≤t}=Fn(t)−Fn+1(t)(4)P\left\{N(t) = n \right\}=P\left\{S_n\le t \right\}-P\left\{S_{n+1}\le t \right\}=F_n(t)-F_{n+1}(t)\tag4P{N(t)=n}=P{Sn≤t}−P{Sn+1≤t}=Fn(t)−Fn+1(t)(4)
(4)式即是N(t)N(t)N(t)的分布函数。
现在我们令N(t)N(t)N(t)的均值为m(t)m(t)m(t),即m(t)=E[N(t)]m(t)=E[N(t)]m(t)=E[N(t)],称之为更新函数,则有如下命题:
命题1: m(t)=∑n=1∞Fn(t)m(t) = \sum\limits_{n = 1}^\infty {{F_n}(t)}m(t)=n=1∑∞Fn(t)
证明:令InI_nIn来表示第nnn次的事件是否发生在[0,t][0,t][0,t]时间内,如果是其值为1,否则为0,故有In={1第n次事件发生在[0,t]内0其他{I_n} = \left\{ \begin{array}{l} 1{\kern 5pt} 第n次事件发生在[0,t]内\\ 0{\kern 5pt} 其他 \end{array} \right.In={1第n次事件发生在[0,t]内0其他
此时,我们可以将该计数过程写成 N(t)=∑n=1∞InN(t)=\sum\limits_{n=1}^{\infty}I_nN(t)=n=1∑∞In形式,所以有:
E[N(t)]=E[∑n=1∞In]=∑n=1∞E[In]=∑n=1∞(P{In=1}∗1+P{In=0}∗0)=∑n=1∞P{In=1}=∑n=1∞P{Sn≤t}=∑n=1∞Fn\begin{aligned} E[N(t)] &= E[\sum\limits_{n = 1}^\infty {{I_n}} ] = \sum\limits_{n = 1}^\infty {E[{I_n}]} = \sum\limits_{n = 1}^\infty {(P\{ {I_n} = 1\} *1 + P\{ {I_n} = 0\} *0)} \\ &= \sum\limits_{n = 1}^\infty {P\{ {I_n} = 1\} } = \sum\limits_{n = 1}^\infty {P\{ {S_n} \le t\} } = \sum\limits_{n = 1}^\infty {{F_n}} \end{aligned}E[N(t)]=E[n=1∑∞In]=n=1∑∞E[In]=n=1∑∞(P{In=1}∗1+P{In=0}∗0)=n=1∑∞P{In=1}=n=1∑∞P{Sn≤t}=n=1∑∞Fn
注意,因为InI_nIn是非负的,所以第二个等号是合理的。
命题2: 对所有的 0≤t<∞,都有m(t)<∞0\le t < \infty ,都有m(t) <\infty0≤t<∞,都有m(t)<∞成立。
证明:在更新过程的定义中随机变量XnX_nXn表示第n−1n-1n−1个事件和第nnn个事件之间的时间间隔,且有P{Xn=0}<1P\left\{X_n=0\right\}<1P{Xn=0}<1,根据概率的连续性肯定存在一个α\alphaα使得P{Xn=α}>0P\left\{X_n=\alpha \right\}>0P{Xn=α}>0。现在我们定义一个与XnX_nXn相关的更新过程YnY_nYn,它满足:
Yn={0Xn<ααXn≥α{Y_n} = \left\{ \begin{array}{l} 0{\kern 5pt} X_n < \alpha \\ \alpha{\kern 5pt} X_n \ge \alpha \end{array} \right. Yn={0Xn<ααXn≥α
令 Tn=∑i=1nYnT_n=\sum\limits_{i=1}^nY_nTn=i=1∑nYn,则 TnT_nTn 表示第nnn个YYY事件发生的时刻,具体来说就是从任意一个事件XXX发生开始算起,在接下来的α\alphaα时间段内,事件XXX没有再一次发生,那么事件YYY肯定在第α\alphaα时刻发生。为了便于理解,我们用下图来描述这两个更新过程:
记事件XXX的更新过程为N(t)=sup{n:Sn≤t}N(t)=sup\left\{n:S_n \le t \right\}N(t)=sup{n:Sn≤t},事件YYY的更新过程为Nˉ(t)=sup{n:Tn≤t}\bar N(t)=sup\left\{n:T_n \le t \right\}Nˉ(t)=sup{n:Tn≤t},由YnY_nYn的定义和上面的图可知,事件YYY的发生时间肯定在 nα,n=0,1,⋯n\alpha,n=0,1,\cdotsnα,n=0,1,⋯ 处,而在 nαn\alphanα 时事件YYY是否发生的概率为P{Xn≥α}P\left\{X_n\ge\alpha \right\}P{Xn≥α}。
现在我们换个角度来思考事件YYY的更新过程Nˉ(t)\bar N(t)Nˉ(t):每隔α\alphaα时间,就需要看事件YYY是否发生,而是否发生的概率是固定的P{Xn≥α}P\left\{X_n\ge\alpha \right\}P{Xn≥α},是不是觉得这个过程有点熟悉?你猜的没错,它就是几何分布的随机变量(不熟悉请参阅详细介绍各种分布)!
既然知道Nˉ(t)\bar N(t)Nˉ(t)是服从参数为P{Xn≥α}P\left\{X_n\ge\alpha \right\}P{Xn≥α}几何分布,那么问题就简单了,根据几何分布的特点易知:
E[Nˉ(t)]=1P{Xn≥t}≤tα+1P{Xn≥t}<∞E[\bar N(t)]=\frac{1}{P\left\{ X_n \ge t \right \}}\le \frac{\frac{t}{\alpha}+1}{P\left\{ X_n \ge t \right \}}<\inftyE[Nˉ(t)]=P{Xn≥t}1≤P{Xn≥t}αt+1<∞
而 Yn≤XnY_n\le X_nYn≤Xn 意味着Nˉ(t)≥N(t)\bar N(t)\ge N(t)Nˉ(t)≥N(t)(这点也可以从上面的图中看出),所以肯定有m(t)<∞m(t) <\inftym(t)<∞成立。
注:命题2说明在有限的时间内,更新次数不会是无限的。
有限的时间内更新次数不是无限的,那么无限的时间呢?我们不做证明的给出结论:无限时间会导致无限的更新次数,即N(∞)=∞N(\infty)=\inftyN(∞)=∞。
现在我们关心另外一个问题,随着时间的推移,更新速度是怎样的?先给出结论:
命题3: 假设XnX_nXn 的均值为μ\muμ,即E[Xn]=∫0∞xdF(x)=μE[X_n]=\int_0^\infty {xdF(x)} =\muE[Xn]=∫0∞xdF(x)=μ,则有当t→∞t\to\inftyt→∞时,N(t)t\frac{N(t)}{t}tN(t)以概率1收敛于与1μ\frac{1}{\mu}μ1,即
N(t)t→1μ\frac{N(t)}{t}\to \frac{1}{\mu}tN(t)→μ1
证明:根据更新过程的定义,若在ttt时间内,总共发了nnn次事件,即N(t)=nN(t)=nN(t)=n,那么SnS_nSn表示第nnn个事件发生的时刻,且有Sn≤tS_n\le tSn≤t,很明显,Sn+1>tS_{n+1}>tSn+1>t。我们将不等式Sn≤t<Sn+1S_n\le t<S_{n+1}Sn≤t<Sn+1两边同时除以N(t)N(t)N(t)得:
SnN(t)≤tN(t)<Sn+1N(t)=Sn+1N(t)+1N(t)+1N(t)\frac{S_n}{N(t)}\le \frac{t}{N(t)}<\frac{S_{n+1}}{N(t)}=\frac{S_{n+1}}{N(t)+1}\frac{N(t)+1}{N(t)}N(t)Sn≤N(t)t<N(t)Sn+1=N(t)+1Sn+1N(t)N(t)+1
根据概率论中的强大数定律有:t→∞时有SnN(t)→μt \to \infty 时有 \frac{S_n}{N(t)}\to \mut→∞时有N(t)Sn→μ
同理可得Sn+1N(t)+1→μ\frac{S_{n+1}}{N(t)+1}\to \muN(t)+1Sn+1→μ,而N(∞)+1N(∞)=1\frac{N(\infty)+1}{N(\infty)}=1N(∞)N(∞)+1=1,根据夹逼定理可知命题成立。
注:命题3说明在从长远看,更新过程的平均更新速度是趋向于稳定的,其更新发生的平均速率是1μ\frac{1}{\mu}μ1。
定理1(基本更新定理)当t→∞t\to\inftyt→∞时有:
m(t)t→1μ\frac{m(t)}{t}\to \frac{1}{\mu}tm(t)→μ1
我们先来说说该定理和命题3的区别,命题3说的平均更新速率依概率1收敛于1/μ1/\mu1/μ,而定理1说的是平均更新速率的期望(因为m(t)=E[N(t)]m(t)=E[N(t)]m(t)=E[N(t)])收敛于1/μ1/\mu1/μ。咋一看,平均更新速率已经收敛了稳定了,那么它的期望也应该是收敛且稳定于同样一个值。但事实上两者并一定相等。下面举个例子:
设UUU是区间(0,1)(0,1)(0,1)上的均匀分布的随机变量,而随机变量Yn,n≥1Y_n,n\ge1Yn,n≥1的定义如下:
Yn={0U>1/nnU≤1/n{Y_n} = \left\{ \begin{array}{l} 0{\kern 5pt} U>1/n\\ n{\kern 5pt} U\le 1/n \end{array} \right. Yn={0U>1/nnU≤1/n
因为n→∞n\to\inftyn→∞时有1/n→01/n\to01/n→0,此时U>1/nU>1/nU>1/n的概率为1,因此有Yn→0Y_n\to0Yn→0,然而,它的期望为E[Yn]=0∗P(U>1/n)+n∗P(U≤1/n)=n∗1/n=1E\left[ Y_n\right]=0*P(U>1/n)+n*P(U\le1/n)=n*1/n=1E[Yn]=0∗P(U>1/n)+n∗P(U≤1/n)=n∗1/n=1,即期望恒等于1。
关于定理1的证明,其和命题3的证明类似,即利用夹逼定理。此处不进行详细证明了,如有需要请留言,本人再补充。
注:定理1说明随着时间的推移,更新过程的平均更新速度的期望是趋向于稳定的,其更新发生的期望平均速率是1μ\frac{1}{\mu}μ1。
定理2 若更新过程中来到的间隔时间的均值μ\muμ和方差σ2\sigma^2σ2有限,那么当t→∞t\to\inftyt→∞时有:
P{N(t)−t/μσt/μ3<y}→12π∫−∞ye−x2/2dxP\left\{\frac{N(t)-t/\mu}{\sigma\sqrt{t/\mu^3}}<y\right\}\to\frac{1}{\sqrt{2\pi}}\int_{-\infty}^y{e^{-x^2/2}}dxP{σt/μ3N(t)−t/μ<y}→2π1∫−∞ye−x2/2dx
证明:令rt=yσt/μ3+t/μr_t=y\sigma\sqrt{t/\mu^3}+t/\murt=yσt/μ3+t/μ,则有:
P{N(t)−t/μσt/μ3<y}=P{N(t)<rt}=P{Srt>t}=P{Srt−rtμσrt>t−rtμσrt}=P{Srt−rtμσrt>−y(1+yσtμ)−1/2}\begin{aligned}P\left\{\frac{N(t)-t/\mu}{\sigma\sqrt{t/\mu^3}}<y\right\}&=P\left\{N(t)<r_t\right\}=P\left\{S_{r_t}>t \right\}\\ &=P\left\{ {\frac{{{S_{{r_t}}} - {r_t}\mu }}{{\sigma \sqrt {{r_t}} }}>\frac{{t - {r_t}\mu }}{{\sigma \sqrt {{r_t}} }}} \right\}\\ &=P\left\{ \frac{{{S_{{r_t}}} - {r_t}\mu }}{{\sigma \sqrt {{r_t}} }}>-y\left(1+\frac{y\sigma}{\sqrt{t\mu}}\right)^{-1/2} \right\} \end{aligned} P{σt/μ3N(t)−t/μ<y}=P{N(t)<rt}=P{Srt>t}=P{σrtSrt−rtμ>σrtt−rtμ}=P{σrtSrt−rtμ>−y(1+tμyσ)−1/2}
上式中,当t→∞t\to \inftyt→∞时rt→∞r_t\to \inftyrt→∞,而SrtS_{r_t}Srt表示rtr_trt个间隔时间的和,因此根据独立同分布的中心极限定理可知随机变量Srt−rtμσrt\frac{{{S_{{r_t}}} - {r_t}\mu }}{{\sigma \sqrt {{r_t}} }}σrtSrt−rtμ近似地服从N(0,1)N(0,1)N(0,1)的正态分布。又因为当t→∞t\to \inftyt→∞时有−y(1+yσtμ)−1/2→−y-y\left(1+\frac{y\sigma}{\sqrt{t\mu}}\right)^{-1/2}\to -y−y(1+tμyσ)−1/2→−y,故有:
P{N(t)−t/μσt/μ3<y}→12π∫−y∞e−x22dxP\left\{\frac{N(t)-t/\mu}{\sigma\sqrt{t/\mu^3}}<y\right\}\to \frac{1}{{\sqrt {2\pi } }}\int_{ - y}^\infty {{e^{\frac{{ - {x^2}}}{2}}}} dxP{σt/μ3N(t)−t/μ<y}→2π1∫−y∞e2−x2dx
又因为∫−y∞e−x22dx=∫−∞ye−x22dx\int_{ - y}^\infty {{e^{\frac{{ - {x^2}}}{2}}}} dx = \int_{ - \infty }^y {{e^{\frac{{ - {x^2}}}{2}}}} dx∫−y∞e2−x2dx=∫−∞ye2−x2dx
故定理得证!
从严格意义上来说,上述证明是有瑕疵的,因为中心极限定理中要求rtr_trt是一个整数(回顾第一部分中的独立同分布的中心极限定理的介绍),但本证明中rt=yσt/μ3+t/μr_t=y\sigma\sqrt{t/\mu^3}+t/\murt=yσt/μ3+t/μ却并不能保证是整数!
注:定理1说明在很长时间以后,总的更新次数将近似服从正态分布,分布的均值为t/μt/\mut/μ,方差为tσ2/μ3t\sigma^2/\mu^3tσ2/μ3。
四、关键更新定理
1.格点
如果一个随机变量XXX只取某个非负变量ddd的整数倍,则称XXX是格点,能满足该性质的最大的ddd称之为XXX的周期。同时,我们也称XXX的分布函数FFF是格点的。
举个例子:调度站中的公交车根据人流情况决定发车间隔时间,但都是以5分钟的倍数进行发车,即要么每隔5分钟发车,要么隔10分钟,15分钟,20分钟,最多隔30分钟。令随机变量XXX为发车间隔时间,则XXX可能的取值为{5,10,15,20,25,30}\left\{5,10,15,20,25,30\right\}{5,10,15,20,25,30},可以发现XXX的取值是1的倍数,也是5的倍数,所以XXX是格点的,其周期为5。
2. 布莱克威尔定理(Blackwell’s Theorem)
定理2 (i)如果 FFF 不是格点的,则对一切a≥0a\ge0a≥0,t→∞t\to\inftyt→∞时有:
m(t+a)−m(t)→a/μm(t+a)-m(t)\to a/\mum(t+a)−m(t)→a/μ
(ii)如果 FFF 是格点的,周期为ddd,则n→∞n\to\inftyn→∞时有:
E[在时刻nd更新的次数]→d/μE[在时刻nd更新的次数]\to d/\muE[在时刻nd更新的次数]→d/μ
从直观上去理解该定理,回顾我们前面的定理1,该定理说的是在经过无穷的时间后,更新过程趋向于稳定,其更新发生的期望速率为1/μ1/\mu1/μ,那可以很容易推测出当FFF不是格点时,在aaa这个时间段内,更新次数的期望是a/μa/\mua/μ。但如果FFF是格点的,此时更新只会发生在ddd的整数倍的时间点上,因此更新次数只会依赖于这个时间段内有多少个ndndnd的时间点,故关于格点情形下的极限应该是在时间为ndndnd时的极限。根据基本更新定理(即定理1),其极限必然为d/μd/\mud/μ。
3. 关键更新定理
定理3 若FFF不是格点的,且若h(t)h(t)h(t)直接黎曼可积,则有:
limt→∞∫0th(t−x)dm(x)=∫0+∞h(t)μdt\mathop {\lim }\limits_{t \to \infty}\int_{ 0}^{t}h(t-x)dm(x)=\int_{0}^{+\infty}\frac{h(t)}{\mu}dtt→∞lim∫0th(t−x)dm(x)=∫0+∞μh(t)dt
其中,m(x)=∑n=1∞Fn(x)m(x)=\sum\limits_{n=1}^\infty F_n(x)m(x)=n=1∑∞Fn(x)而μ=∫0+∞Fˉ(t)dt\mu=\int_0^{+\infty}\bar F(t)dtμ=∫0+∞Fˉ(t)dt。
注:黎曼可积简单的来说就是用“横切法”来求积分,而我们常用的是“竖切法”,具体的请自行查阅相关资料。下面给出函数hhh直接黎曼可积的一个充分条件:
(i)对一切t≥0t\ge0t≥0有h(t)≥0h(t)\ge0h(t)≥0;
(ii)h(t)h(t)h(t)非增;
(iii)∫0∞h(t)dt<∞\int_0^\infty h(t)dt<\infty∫0∞h(t)dt<∞。
这个定理看起来就让人摸不着头脑,不知道它想讲什么。我们可以这样想,上面的等式左边是一个求极限的过程,等式右边是一个求积分的过程,这说明这个定理的作用就是你在求某些极限很困难的时候,可以将其转化为求积分,这样问题就会简单一些。但可惜的是,本人能力有限,无法给出该定理的严格证明过程。如果有会证明该定理的人,求不吝赐教!
五、延迟更新过程
还记得我们一开始在介绍更新过程时提到的其与泊松过程的区别么?泊松过程的间隔时间是服从指数分布,更新过程的间隔时间是服从任意同一分布。现在我们把这样假设再放宽一些:即第一次的间隔时间和其余的间隔时间服从不同的分布,这就是延迟更新过程!想一下,因为从第二次间隔开始,后面的每次间隔都是服从同一个分布,这不就是前面所定义的更新过程么,只是这个更新过程从第一次更新发生之后开始算起(也即是从第二个间隔时间开始算起),故我们称之为“延迟更新过程”。下面给出数学意义上的严格定义:
设{Xn,n=1,2,…}\left\{X_n,n=1,2,\ldots\right\}{Xn,n=1,2,…}是一系列非负随机变量,X1X_1X1具有分布GGG,而Xn(n>1)X_n(n>1)Xn(n>1)具有分布FFF。其中XnX_nXn表示第n−1n-1n−1个事件与第nnn个事件之间的时间。令Sn=∑i=1nXi,n≥1S_n=\sum\limits_{i=1}^{n}X_i,n\ge1Sn=i=1∑nXi,n≥1,S0=0S_0=0S0=0,因此SnS_nSn就是第nnn个事件发生的时刻。称计数过程
ND(t)=sup{n:Sn≤t}(1)N_D(t)=sup\left\{n:S_n \le t \right\} \tag1ND(t)=sup{n:Sn≤t}(1)
为一般或延迟更新过程。
很明显,当GGG和FFF相等时,即为更新过程。因此,我们可以根据更新过程的一些性质来猜测延迟更新过程的一些性质。
P{ND(t)=n}=P{Sn≤t}−P{Sn+1≤t}=G∗Fn−1(t)−G∗Fn(t)P\left\{N_D(t)=n\right\}=P\left\{S_n\le t\right\}-P\left\{S_{n+1}\le t\right\}=G*F_{n-1}(t)-G*F_n(t)P{ND(t)=n}=P{Sn≤t}−P{Sn+1≤t}=G∗Fn−1(t)−G∗Fn(t)
令mD(t)=E{ND(t)}m_D(t)=E\left\{N_D(t)\right\}mD(t)=E{ND(t)},则有mD(t)=∑n=1∞G∗Fn−1(t)m_D(t)=\sum\limits_{n=1}^\infty G*F_{n-1}(t)mD(t)=n=1∑∞G∗Fn−1(t)。下面直接给出延迟更新过程的相关命题与定理,其中μ=∫0+∞xdF(x)\mu=\int_0^{+\infty}xdF(x)μ=∫0+∞xdF(x):
(1)当t→∞t\to\inftyt→∞时,以概率1有:
ND(t)t→1μ\frac{N_D(t)}{t}\to \frac{1}{\mu}tND(t)→μ1
该点对应更新过程中的命题3。
(2)当t→1t\to1t→1时有:
mD(t)t→1μ\frac{m_D(t)}{t}\to \frac{1}{\mu}tmD(t)→μ1
该点对应更新过程中的定理1,即基本更新定理。
(3)若FFF不是格点的,则当t→∞t\to\inftyt→∞时:
mD(t+a)−mD(t)→aμm_D(t+a)-m_D(t)\to\frac{a}{\mu}mD(t+a)−mD(t)→μa
(4)若FFF与GGG是格点的,周期为DDD,则当t→∞t\to\inftyt→∞时:
E[在时刻nd的更新次数]→dμE\left[在时刻nd的更新次数\right] \to \frac{d}{\mu}E[在时刻nd的更新次数]→μd
(3)、(4)两点对应更新过程中的布莱克威尔定理。
(5)若FFF不是格点的,μ<∞\mu<\inftyμ<∞且hhh直接黎曼可积,则:
∫0+∞h(t−x)dmD(x)→∫0+∞h(t)μdt\int_0^{+\infty}h(t-x)dm_D(x)\to \int_0^{+\infty}\frac{h(t)}{\mu}dt∫0+∞h(t−x)dmD(x)→∫0+∞μh(t)dt
该点对应更新过程中的定理3,即关键更新定理。
——————————————————————————————————
总结:更新过程比较重要的知识点就是基本更新定理、关键更新定理、布莱克威尔定理。然而,据本人粗略了解,更新过程在经管领域应用并不是很多,所以本人对其的理解也比较浅显,希望有问题大家可以相互探讨一下,也请大家不吝赐教!
随机过程(二):更新过程的详细理解相关推荐
- 【随机过程】随机过程之更新过程(2)
[随机过程]随机过程之更新过程(2) 标签(空格分隔): [信号处理] 声明:引用请注明出处http://blog.csdn.net/lg1259156776/ 说明:关于更新过程,内容也不少,但是核 ...
- JavaScript专题(二):深入理解iframe
原文地址为: JavaScript专题(二):深入理解iframe 一 目的 iframe是网页布局中重要的元素,是解决一些常见前端问题的必修课,而iframe总是让人捉摸不透,不好掌握.关于ifra ...
- TensorFlow学习笔记(二):快速理解Tutorial第一个例子-MNIST机器学习入门 标签: 机器学习SoftmaxTensorFlow教程 2016-08-02 22:12 3729人阅
TensorFlow学习笔记(二):快速理解Tutorial第一个例子-MNIST机器学习入门 标签: 机器学习SoftmaxTensorFlow教程 2016-08-02 22:12 3729人阅读 ...
- java 数组存入数据库_Java中关于二维数组的理解与使用
今天练习的时候遇到一个题目,题目需求是这样的: 需求说明: 根据3个班各5名学生某门课程的成绩,正确使用二维数组计算如图所示3个班各自的总成绩 分析: 要实现这个功能需要存储两个信息: 一个是班级信息 ...
- java不等长二维数组_Java中关于二维数组的理解与使用
今天练习的时候遇到一个题目,题目需求是这样的: 需求说明: 根据3个班各5名学生某门课程的成绩,正确使用二维数组计算如图所示3个班各自的总成绩 分析: 要实现这个功能需要存储两个信息: 一个是班级信息 ...
- puppet成长日记二 Package资源详细介绍及案例分析
puppet成长日记二 Package资源详细介绍及案例分析 一.系统环境 1.puppet服务端 Release:RHEL6.4 HOSTNAME: puppetserver.rsyslog.org ...
- Maven依赖详细理解
Maven依赖理解 1 简介 2 依赖的配置 3 依赖的范围 4 传递性依赖 4.1 传递性依赖和依赖调解 5 依赖调解 6 可选依赖 7 总结 8 下载 1 简介 在Maven项目中,有一个核心文 ...
- 【时序列】时序列数据如何一步步分解成趋势(trend)季节性(seasonality)和误差(residual)- 详细理解python sm.tsa.seasonal_decompose
[时序列]时序列数据如何一步步分解成趋势(trend)季节性(seasonality)和误差(residual)- 理解python sm.tsa.seasonal_decompose 在做时序列分析 ...
- html页面创建二维数组,二维数组怎么理解
如何理解Java中的二维数组? 二维数组可以看成是以一维数组为元素的一维数组.通常将最外层的一维数组称为外维数组:而作为元素的内层数组称为内维数组.如下: //声明一个字符串类型的二维数组,其中外维数 ...
- 模型整合之模型堆叠——详细理解Stacking model
详细理解Stacking model 如果你得到了10个不一样的model,并且每个model都各有千秋,这个时候你该怎么选?想必你一定是很为难吧,但通过集成方法,你可以轻松的将10个model合成为 ...
最新文章
- linux导出路径path,Linux kernel 绝对路径之d_path篇【转】
- 如何取得Win7文件的管理员权限?
- java安装cab破损,WCELOAD无法安装压缩的CAB文件
- linux如何运行安卓程序,如何在Android系统上运行C语言的程序
- C语言 指针数组-字符指针数组整型指针数组 char*s[3] int*a[5] 数组指针int(*p)[4]
- 虚拟机开启mysql服务_远程操作虚拟机中的mysql服务器
- iOS UIWebView 之 UIProgressView
- 实施IT运维管理 循序渐进
- 电脑word在哪_焦作市周边商务电脑办公入门培训
- 【游戏测试】客户端性能 - drawcall 工具链
- 金蝶K3开发-工业老单据序时薄增加过滤条件
- WHQL认证和代码签名
- KVM 虚拟化技术之Hypervisor的实现
- 如何运用AI聊天机器人,助推内容营销活动取得成功?
- 一文带你由浅入深地解读 Go Zap 的高性能
- 山东大学暑期项目实训-基于信用评分卡算法模型的个人信用评级系统的设计与实现-第一周-1(6月28日)
- 使用C++写的中国象棋(单机版)
- 使用双视场测量工件长度尺寸
- pySpark 运行时出现 Permission denied: (权限问题)
- ps切图插件Cutterman Mac中文版
热门文章
- Linux一些有用的操作
- C#网络编程之面向连接的套接字
- word wrap java控制台_word wrap 解惑
- db2如何锁定一张表_如何通过一张表,提高20%的工作效率?
- java中foreach怎么访问_JAVA中的foreach怎么用
- html禁止页面动画,Animate.css 超强CSS3动画库,三行代码搞定H5页面动画特效!
- linux 共享内存管理,什么是物理/虚拟/共享内存——Linux内存管理小结一
- python中list是链表吗_Python
- 【UVA10976】Fractions Again?!(结构体内重载运算符---水题)
- c语言文件操作rewand,C语言程序设计第章概述.ppt