高维统计学习笔记1——LASSO和Oracle性质

主要参考资料:Sara Van De Geer《Estimation and Testing Under Sparsity》

前言

当年Tibshirani提出LASSO的时候,未曾想到LASSO竟然成为了高维统计中一个非常重要的工具,这其中当然有一部分要归功于苏黎世联邦理工大学的美女教授Sara van de geer对LASSO理论的贡献。废话少说,开始学习。

1.高维统计的重要工具——极小化正则风险

当数据特征的数量ppp远大于我们所观测的样本量nnn时,我们称数据是高维的,如果把总体的特征看作参数β\betaβ,对参数进行估计和检验的一个有效方法是极小化正则风险。

Notation

损失函数 R:B→R,B⊂RpR:\mathcal{B}\rightarrow R, \mathcal{B}\subset\mathbb{R}^pR:B→R,B⊂Rp.
目标参数 β0=arg⁡min⁡β∈BR(β)\beta^0=\arg\min_{\beta\in\mathcal{B}}R(\beta)β0=argminβ∈B​R(β).
经验损失函数 Rn:B→RR_n:\mathcal{B}\rightarrow RRn​:B→R, based on n data points X1,X2,...,XnX_1,X_2,...,X_nX1​,X2​,...,Xn​ with n&lt;pn&lt;pn<p
惩罚 pen:B→[0,+∞)pen:\mathcal{B}\rightarrow[0,+\infty)pen:B→[0,+∞),实际上它是一个给定稀疏性后的惩罚,它对应着Rp\mathbb{R}^pRp上的一个范数。

如何估计参数β\betaβ呢?我们考虑的极小化正则风险:
β^:=arg⁡min⁡β∈B{Rn(β)+pen(β)}\hat{\beta}:=\arg\min_{\beta\in\mathcal{B}}\{R_n(\beta)+pen(\beta)\}β^​:=argβ∈Bmin​{Rn​(β)+pen(β)}Van de geer 这本书的目的就正是研究这个估计,希望能有在很高的概率下有下面这个不等式:R(β^)≤R(β0)+Remainder,R(\hat{\beta})\leq R(\beta_0)+Remainder,R(β^​)≤R(β0​)+Remainder, RemainderRemainderRemainder是一个很小的数,它取决于β0\beta_0β0​有多稀疏。

而她实际展示的结果是下面这个更一般的不等式:R(β^)≤R(β)+Remainder(β),∀β.R(\hat{\beta})\leq R(\beta)+Remainder(\beta),\forall\beta.R(β^​)≤R(β)+Remainder(β),∀β.这里Remainder(β)Remainder(\beta)Remainder(β)取决于β\betaβ的非零项的数目,其实这就是一个sharp oracle inequality,而一个non-sharp oracle inequality有下面的形式:R(β^)≤R(β0)+(1+η)(R(β)−R(β0))+Remainder(β),∀β.R(\hat{\beta})\leq R(\beta_0)+(1+\eta)(R(\beta)-R(\beta_0))+Remainder(\beta),\forall \beta.R(β^​)≤R(β0​)+(1+η)(R(β)−R(β0​))+Remainder(β),∀β. 这里η&gt;0\eta&gt;0η>0是某个很小的正常数。

2.线性模型和LASSO

Notation

∣∣.∣∣n2=∣∣.∣∣22/n,||.||_n^2=||.||_2^2/n,∣∣.∣∣n2​=∣∣.∣∣22​/n,βS,j=βj1{j∈S},\beta_{S,j}=\beta_j1\{j\in S\},βS,j​=βj​1{j∈S},βS=(βS,1,...,βS,p)T,\beta_S=(\beta_{S,1},...,\beta_{S,p})^T,βS​=(βS,1​,...,βS,p​)T,β−S=βSc.\beta_{-S}=\beta_{S^c}.β−S​=βSc​.
我们考虑模型Y=f0+ϵ.Y=f^0+\epsilon.Y=f0+ϵ.这里ϵ\epsilonϵ是一个期望为0的干扰,Y∈RnY\in\mathbb{R}^nY∈Rn。假设f0=Xβ0f^0=X\beta^0f0=Xβ0,那么这就是一个线性模型。假设ϵi\epsilon_iϵi​之间不相关且方差为σ2\sigma^2σ2,Xn×pX_{n\times p}Xn×p​是一个非随机的设计阵,这时我们注意到 E∣∣Ynew−Xβ^∣∣n2=E∣∣Xβ0−Xβ^∣∣n2+σ2.E|| Y_{new}-X\hat{\beta}||_n^2=E||X\beta_0-X\hat{\beta}||_n^2+\sigma^2.E∣∣Ynew​−Xβ^​∣∣n2​=E∣∣Xβ0​−Xβ^​∣∣n2​+σ2.
显然,我们希望∣∣Xβ0−Xβ^∣∣n2=op(1)|| X\beta_0-X\hat{\beta}||_n^2=o_p(1)∣∣Xβ0​−Xβ^​∣∣n2​=op​(1)。

如果n&gt;pn&gt;pn>p,最小二乘估计β^LS\hat{\beta}^{LS}β^​LS是对参数β\betaβ的一个合理的估计,我们很容易得到E∣∣Xβ0−Xβ^LS∣∣n2=pnσ2,E||X\beta_0-X\hat{\beta}^{LS}||_n^2=\frac{p}{n}\sigma^2,E∣∣Xβ0​−Xβ^​LS∣∣n2​=np​σ2,当p≫np\gg np≫n且XXX行满秩时,有
E∣∣Xβ0−Xβ^LS∣∣n2=nnσ2=σ2≠o(1).E||X\beta_0-X\hat{\beta}^{LS}||_n^2=\frac{n}{n}\sigma^2=\sigma^2 =\not o(1).E∣∣Xβ0​−Xβ^​LS∣∣n2​=nn​σ2=σ2≠​o(1).
因此在高维条件下最小二乘估计是不合适的。LASSO一个很好的性质是它能够产生稀疏的估计,这源于L1L_1L1​约束的几何形状,这点想必大家都清楚,就不多说了。LASSO估计的定义是:β^=arg⁡min⁡β∈B{∣∣Y−Xβ∣∣n2+2λ∣∣β∣∣1}.\hat{\beta}=\arg\min_{\beta\in\mathcal{B}}\{||Y-X\beta||_n^2+2\lambda||\beta||_1\}.β^​=argβ∈Bmin​{∣∣Y−Xβ∣∣n2​+2λ∣∣β∣∣1​}.同样,我们去计算一下∣∣Xβ0−Xβ^∣∣n2||X\beta_0-X\hat{\beta}||_n^2∣∣Xβ0​−Xβ^​∣∣n2​,我们希望它在高维的情况下依概率收敛到0,并且想知道速度有多快。

首先,由LASSO的定义显然有
∣∣Y−Xβ^∣∣n2+2λ∣∣β^∣∣1≤∣∣Y−Xβ∣∣n2+2λ∣∣β∣∣1,∀β||Y-X\hat{\beta}||_n^2+2\lambda|\hat{|\beta}||_1\leq||Y-X\beta||_n^2+2\lambda||\beta||_1,\forall \beta∣∣Y−Xβ^​∣∣n2​+2λ∣∣β^​∣∣1​≤∣∣Y−Xβ∣∣n2​+2λ∣∣β∣∣1​,∀β做一点简单的计算可得∣∣Xβ0−Xβ^∣∣n2≤∣∣Xβ0−Xβ∣∣n2+2ϵTX(β^−β)n+2λ(∣∣β∣∣1−∣∣β^∣∣1),||X\beta^0 -X\hat{\beta}||_n^2\leq||X\beta^0-X\beta||_n^2+\frac{2\epsilon^TX(\hat{\beta}-\beta)}{n}+2\lambda(||\beta||_1-||\hat{\beta}||_1),∣∣Xβ0−Xβ^​∣∣n2​≤∣∣Xβ0−Xβ∣∣n2​+n2ϵTX(β^​−β)​+2λ(∣∣β∣∣1​−∣∣β^​∣∣1​),为了去bound左边这个prediction error,我们需要bound后面三项,第一项暂且不用去管它,对第二项有
2ϵTX(β^−β)n≤2∣∣ϵTXn∣∣∞∣∣β^−β∣∣1,\frac{2\epsilon^TX(\hat{\beta}-\beta)}{n}\leq2||\frac{\epsilon^TX}{n}||_{\infty}||\hat{\beta}-\beta||_1,n2ϵTX(β^​−β)​≤2∣∣nϵTX​∣∣∞​∣∣β^​−β∣∣1​,我们不妨令集合
F={w:2∣∣ϵ(w)TXn∣∣∞&lt;2λ0},\mathcal{F}=\{w:2||\frac{\epsilon(w)^TX}{n}||_{\infty}&lt;2\lambda_0\},F={w:2∣∣nϵ(w)TX​∣∣∞​<2λ0​},如果ϵ∼Nn(0,σ2I)\epsilon\sim\mathcal{N}_n(0,\sigma^2I)ϵ∼Nn​(0,σ2I),而且我们的数据阵经过了标准化,i.e.,∣∣X(j)∣∣n2=1||X^{(j)}||_n^2=1∣∣X(j)∣∣n2​=1,则ϵTX(j)/n∼N(0,σ2n)\epsilon^TX^{(j)}/n\sim\mathcal{N}(0,\frac{\sigma^2}{n})ϵTX(j)/n∼N(0,nσ2​),这时P[Fc]≤∑j=1pP[∣ϵTX(j)n∣≥λ0]≤pe−nλ022σ2=eln⁡(p)−nλ022σ2.\mathbb{P}[\mathcal{F}^c]\leq\sum_{j=1}^{p}\mathbb{P}[|\frac{\epsilon^TX^{(j)}}{n}|\geq\lambda_0]\leq pe^{-\frac{n\lambda_0^2}{2\sigma^2}}=e^{\ln(p)-\frac{n\lambda_0^2}{2\sigma^2}}.P[Fc]≤j=1∑p​P[∣nϵTX(j)​∣≥λ0​]≤pe−2σ2nλ02​​=eln(p)−2σ2nλ02​​.令λ0=σ2log⁡p+t2n\lambda_0=\sigma\sqrt{\frac{2\log p+t^2}{n}}λ0​=σn2logp+t2​​,则有P[F]≥1−e−t2/2\mathbb{P}[\mathcal{F}]\geq1-e^{-t^2/2}P[F]≥1−e−t2/2,也就是说如果λ0≍log⁡(p)n\lambda_0\asymp\sqrt{\frac{\log(p)}{n}}λ0​≍nlog(p)​​,那么P[F]≈1,\mathbb{P}[\mathcal{F}]\approx1,P[F]≈1,即∣∣ϵ(w)TXn∣∣∞=Op(log⁡(p)n).||\frac{\epsilon(w)^TX}{n}||_{\infty}=O_p(\sqrt{\frac{\log(p)}{n}}).∣∣nϵ(w)TX​∣∣∞​=Op​(nlog(p)​​).
所以在集合F\mathcal{F}F上,
∣∣Xβ0−Xβ^∣∣n2≤∣∣Xβ0−Xβ∣∣n2+2λ0∣∣β^−β∣∣1+2λ(∣∣β∣∣1−∣∣β^∣∣1),||X\beta^0 -X\hat{\beta}||_n^2\leq||X\beta^0-X\beta||_n^2+2\lambda_0||\hat{\beta}-\beta||_1+2\lambda(||\beta||_1-||\hat{\beta}||_1),∣∣Xβ0−Xβ^​∣∣n2​≤∣∣Xβ0−Xβ∣∣n2​+2λ0​∣∣β^​−β∣∣1​+2λ(∣∣β∣∣1​−∣∣β^​∣∣1​),(1)(1)(1)令β=β0\beta=\beta^0β=β0,则有
(2)0.5∣∣Xβ0−Xβ^∣∣n2+(λ−λ0)∣∣β^∣∣1≤(λ+λ0)∣∣β0∣∣1,0.5||X\beta^0 -X\hat{\beta}||_n^2+(\lambda-\lambda_0)||\hat{\beta}||_1\leq(\lambda+\lambda_0)||\beta^0||_1, \tag20.5∣∣Xβ0−Xβ^​∣∣n2​+(λ−λ0​)∣∣β^​∣∣1​≤(λ+λ0​)∣∣β0∣∣1​,(2)如果取λ0≤0.5λ\lambda_0\leq0.5\lambdaλ0​≤0.5λ,则,
(3)∣∣Xβ0−Xβ^∣∣n2+λ∣∣β^∣∣1≤3λ∣∣β0∣∣1.||X\beta^0 -X\hat{\beta}||_n^2+\lambda||\hat{\beta}||_1\leq3\lambda||\beta^0||_1. \tag3∣∣Xβ0−Xβ^​∣∣n2​+λ∣∣β^​∣∣1​≤3λ∣∣β0∣∣1​.(3)所以我们关心的为问题变成了∣∣β0∣∣1||\beta^0||_1∣∣β0∣∣1​到底有多大。这时,我们需要在∣∣β0∣∣1||\beta^0||_1∣∣β0∣∣1​和β0TΣ^β0{\beta^0}^T\hat{\Sigma}\beta^0β0TΣ^β0之间建立起联系,记Σ^=XTX/n\hat{\Sigma}=X^TX/nΣ^=XTX/n。Sara van de geer(2007) 那篇文章里提出了Compatibility constant,它的定义是,对一个常数L≥1L\geq1L≥1和指标集SSS,

ϕ^2(L,S):=min⁡{∣S∣∣∣XβS−Xβ−S∣∣n2:∣∣βS∣∣1=1,∣∣β−S∣∣1≤L},\hat{\phi}^2(L,S):=\min\{|S|||X\beta_S-X\beta_{-S}||_n^2:||\beta_S||_1=1,||\beta_{-S}||_1\leq L\},ϕ^​2(L,S):=min{∣S∣∣∣XβS​−Xβ−S​∣∣n2​:∣∣βS​∣∣1​=1,∣∣β−S​∣∣1​≤L}, LLL一般被称作“拉伸因子”,直观上看,C-constant其实就是一个凸包到另一个拉伸后的凸包的距离。对任意β∗\beta^*β∗,取S∗={j:βj∗≠0},δ∗=β∗∣∣β∗∣∣1S^*=\{j:\beta^*_j=\not0\},\delta^*=\frac{\beta^*}{||\beta^*||_1}S∗={j:βj∗​≠​0},δ∗=∣∣β∗∣∣1​β∗​,那么显然有∣∣β∗∣∣12≤∣S∗∣∣∣Xβ∗∣∣n2ϕ^2(1,S∗).||\beta^*||_1^2\leq\frac{|S^*|||X\beta^*||_n^2}{\hat{\phi}^2(1,S^*)}.∣∣β∗∣∣12​≤ϕ^​2(1,S∗)∣S∗∣∣∣Xβ∗∣∣n2​​.当然,这个S∗S^*S∗通常是不知道的,如果考虑的是任意集合SSS,显然我们需要再添加一个条件∣∣β−S∗∣∣1≤3∣∣βS∗∣∣1||\beta_{-S}^*||_1\leq3||\beta_{S}^*||_1∣∣β−S∗​∣∣1​≤3∣∣βS∗​∣∣1​(这里的3我给的相当随意),这样只需要令δ∗=β∗∣∣βS∗∣∣1\delta^*=\frac{\beta^*}{||\beta_S^*||_1}δ∗=∣∣βS∗​∣∣1​β∗​,就有∣∣βS∗∣∣12≤∣S∣∣∣XβS∗−Xβ−S∗∣∣n2ϕ^2(3,S).||\beta_{S}^*||_1^2\leq\frac{|S|||X\beta_S^*-X\beta_{-S}^*||_n^2}{\hat{\phi}^2(3,S)}.∣∣βS∗​∣∣12​≤ϕ^​2(3,S)∣S∣∣∣XβS∗​−Xβ−S∗​∣∣n2​​.有了C-Constant的概念,我们取S0={j:βj0≠0}S^0=\{j:\beta^0_j=\not0\}S0={j:βj0​≠​0},对(1)做一点简单的变换,在λ&gt;2λ0\lambda&gt;2\lambda_0λ>2λ0​的条件下可得,(4)∣∣Xβ0−Xβ^∣∣n2+λ∣∣β^−S0∣∣1≤3λ∣∣β^S0−βS00∣∣1,||X\beta^0 -X\hat{\beta}||_n^2+\lambda||\hat{\beta}_{-S^0}||_1\leq3\lambda||\hat{\beta}_{S^0}-\beta^0_{S^0}||_1,\tag4 ∣∣Xβ0−Xβ^​∣∣n2​+λ∣∣β^​−S0​∣∣1​≤3λ∣∣β^​S0​−βS00​∣∣1​,(4)取δ=β^−β0∣∣β^S0−βS00∣∣1\delta=\frac{\hat{\beta}-\beta^0}{||\hat{\beta}_{S^0}-\beta^0_{S^0}||_1}δ=∣∣β^​S0​−βS00​∣∣1​β^​−β0​,可以得到∣∣β^S0−βS00∣∣12≤∣S0∣∣∣Xβ0−Xβ^∣∣n2ϕ^2(3,S0).||\hat{\beta}_{S^0}-\beta^0_{S^0}||_1^2\leq\frac{|S^0|||X\beta^0 -X\hat{\beta}||_n^2}{\hat{\phi}^2(3,S^0)}.∣∣β^​S0​−βS00​∣∣12​≤ϕ^​2(3,S0)∣S0∣∣∣Xβ0−Xβ^​∣∣n2​​.由基本不等式,
(5)4λ∣∣β^S0−βS00∣∣1≤8λ2∣S0∣ϕ^2(3,S0)+0.5∣∣Xβ0−Xβ^∣∣n2,4\lambda||\hat{\beta}_{S^0}-\beta^0_{S^0}||_1\leq\frac{8\lambda^2|S^0|}{\hat{\phi}^2(3,S^0)}+0.5||X\beta^0 -X\hat{\beta}||_n^2,\tag54λ∣∣β^​S0​−βS00​∣∣1​≤ϕ^​2(3,S0)8λ2∣S0∣​+0.5∣∣Xβ0−Xβ^​∣∣n2​,(5)结合(4),(5),我们显然有
(6)∣∣Xβ0−Xβ^∣∣n2+2λ∣∣β^−β0∣∣1≤16λ2∣S0∣ϕ^2(3,S0).||X\beta^0 -X\hat{\beta}||_n^2+2\lambda||\hat{\beta}-\beta^0||_1\leq\frac{16\lambda^2|S^0|}{\hat{\phi}^2(3,S^0)}.\tag6∣∣Xβ0−Xβ^​∣∣n2​+2λ∣∣β^​−β0∣∣1​≤ϕ^​2(3,S0)16λ2∣S0∣​.(6)
这就是所谓的oracle不等式,注意到如果C-Constant远离0,且λ≍log⁡pn\lambda\asymp\sqrt{\frac{\log p}{n}}λ≍nlogp​​我们有∣∣Xβ0−Xβ^∣∣n2=Op(∣S0∣log⁡pn).||X\beta^0 -X\hat{\beta}||_n^2=O_p(\frac{|S^0|\log p}{n}).∣∣Xβ0−Xβ^​∣∣n2​=Op​(n∣S0∣logp​).

我这里只是给出了对Oracle的一个直观感受,而书中用了一些特别的技巧,也给出了一个更加严格而且一般的定理:

定理2.2(Oracle)

假设∣∣XTϵ/n∣∣∞≤λ0,0≤δ&lt;1||X^T\epsilon/n||_\infty\leq\lambda^0,0\leq\delta&lt;1∣∣XTϵ/n∣∣∞​≤λ0,0≤δ<1且λ&gt;λ0\lambda&gt;\lambda_0λ>λ0​,令λ−=λ−λ0,λ−=λ+λ0+δλ−,L=λ−(1−δ)λ−,\lambda_{-}=\lambda-\lambda_0,\lambda^-=\lambda+\lambda_0+\delta\lambda_-,L=\frac{\lambda^-}{(1-\delta)\lambda_-},λ−​=λ−λ0​,λ−=λ+λ0​+δλ−​,L=(1−δ)λ−​λ−​,那么我们有
2δλ−∣∣β^−β∣∣1+∣∣Xβ0−Xβ^∣∣n22\delta\lambda_-||\hat{\beta}-\beta||_1+||X\beta^0 -X\hat{\beta}||_n^22δλ−​∣∣β^​−β∣∣1​+∣∣Xβ0−Xβ^​∣∣n2​≤min⁡β∈Rpmin⁡S⊂{1,...,p}{2δλ−∣∣β−β0∣∣1+∣∣Xβ0−Xβ∣∣n2\leq\min_{\beta\in\mathbb{R}^p}\min_{S\subset\{1,...,p\}}\{2\delta\lambda_-||\beta-\beta^0||_1+||X\beta^0 -X\beta||_n^2≤β∈Rpmin​S⊂{1,...,p}min​{2δλ−​∣∣β−β0∣∣1​+∣∣Xβ0−Xβ∣∣n2​+λ−2∣S∣ϕ^2(L,S)+4λ∣∣β−S∣∣1}.+\frac{{\lambda^-}^2|S|}{\hat{\phi}^2(L,S)}+4\lambda||\beta_{-S}||_1\}.+ϕ^​2(L,S)λ−2∣S∣​+4λ∣∣β−S​∣∣1​}.如果(β∗,S∗)(\beta^*,S^*)(β∗,S∗)是不等式右边的一个最小元,那么我们就称(β∗,S∗)(\beta^*,S^*)(β∗,S∗)是一个Oracle。显然,取β=β0\beta=\beta^0β=β0,可以得到我们之前得出的上面那个结果。

参考资料

[1] Sara van de geer, Estimation and Testing Under Sparsity, 2016

高维统计学习笔记1——LASSO和Oracle性质相关推荐

  1. oracle rac 仲裁盘_【学习笔记】深入研究Oracle RAC节点驱逐的条件和案例

    天萃荷净 Oracle研究中心学习笔记:分享一篇关于Oracle数据库RAC环境中节点间管理的文章,详细介绍了RAC节点驱逐条件和管理方法. 本站文章除注明转载外,均为本站原创: 转载自loveOra ...

  2. 【统计学习笔记】最大似然法

    [统计学习笔记]最大似然法 最大似然原理 随机试验有若干个可能的结果,如果在一次试验中结果A发生,而导致结果A发生的原因有很多,在分析导致结果A发生的原因时,使结果A发生的概率最大的原因,推断为导致结 ...

  3. 【统计学习笔记】泛化误差上界

    [统计学习笔记]泛化误差上界 1. 泛化误差 2. 泛化误差上界 1. 泛化误差 学习方法的泛化能力是指由该方法学习到的模型对未知数据的预测能力,是学习方法本质上重要的性质.测试误差是依赖于测试数据集 ...

  4. oracle常用数据统计,学习笔记:Oracle DBMS_STATS常用方法汇总 常用于收集统计oracle...

    天萃荷净 Oracle数据库中DBMS_STATS常用方法(收集oracle数据库.索引.表等信息) –收集Oracle数据库信息命令 EXEC DBMS_STATS.gather_database_ ...

  5. oracle学习笔记(一)------oracle基础知识和基本sql语句

    最近一直在学习oracle,总结了一些学习笔记,我会陆续贴出来,和网友交流 ,希望能给一些初学者提供帮肋,也希望能有高手指点. oracle数据库逻辑结构   包括 表空间,段,区间和数据块     ...

  6. 统计学习笔记(1)——统计学习方法概论

    1.统计学习 统计学习是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科,也称统计机器学习.统计学习是数据驱动的学科.统计学习是一门概率论.统计学.信息论.计算理论.最优化理 ...

  7. 统计学习笔记—手撕“感知机”

    统计学习方法笔记(1)-感知机 引言 感知机模型 模型简述 感知机算法思想 感知机算法性质 算例实现 导入数据 使用前两类莺尾花数据 利用感知机进行线性分类 小结 参考 轻松一刻 引言 下午拜读了李航 ...

  8. 数据清洗之数据统计-学习笔记

    学习笔记:数据的统计 import pandas as pd import numpy as np import os os.chdir(r'F:\CSDN\课程内容\代码和数据') #在线杂货店订单 ...

  9. 自适应LASSO的Oracle性质,最新变量选择_惩罚似然_自适应Lasso_SCAD_Oracle性质论文

    最新变量选择_惩罚似然_自适应Lasso_SCAD_Oracle性质论文 变量选择论文:广义线性模型下罚估计量的性质 [中文摘要]变量选择是高维统计建模的基础.但传统的使用逐步回归的方法不仅计算复杂而 ...

最新文章

  1. 强势回归!比 Python 快 20% 的 Pyston v2.0 来了!
  2. 在我的网站上开通了WebPart演示和下载列表。
  3. psql error: psql: symbol lookup error: psql: undefined symbol: PQconnectdbParams
  4. 前端工程构建工具——Yeoman
  5. fence机制 linux_Linux ha fence设备测试
  6. Ubuntu: 一个命令行下的翻译工具
  7. DB2新建编目及删除编目
  8. 【1】测试用例设计-测试用例概述
  9. Eigen教程(6)之高级初始化方法
  10. DisplayTag详解
  11. 最新黑客攻防实战从入门到精通(第二版)_学习笔记(二)
  12. PMP培训一般是多久?怎么收费?
  13. asp毕业设计—— 基于asp+access的网上论坛设计与实现(毕业论文+程序源码)——网上论坛
  14. 翻车记之2018.7.27
  15. 一个人年轻的时候,总以为疾病和死神只会光顾别人
  16. sandboxie游戏不能运行在虚拟环境中如何解决_Sandboxie:这款曾卖一百多的知名沙盘软件,现在免费开源了...
  17. 过来,带你了解什么是物联网?
  18. Algorithm Gossp (18) 最大公因数、最小公倍数、因式分解
  19. 树莓派 可用于播放音频的三个软件
  20. 点燃你温暖我 爱心 源码

热门文章

  1. 360so收购搜狗搜索!
  2. Qt继承QWidget或者QWidget直接弹出窗口(非模态对话框)(对话框)
  3. c语言字符 ul,c语言中的0UL或1UL是什么意思
  4. 【Pygame小游戏】“史上最炫酷贪吃蛇”驾到,FUN开玩(不好玩不要钱)
  5. 微信小程序:字体设计符号组合多功能微信小程序源码
  6. Qt 中的信息输出机制:QDebug、QInfo、QWarning、QCritical 的简单介绍和用法
  7. 我爬取了某非法网贷后台系统数据,终于知道什么叫做利滚利滚利滚利了
  8. Tesla AI Day视觉自动驾驶技术解读:感知+规划+矢量地图+自动标注+仿真
  9. Pandas 数据结构
  10. c语言目标文件作用,关于编译:C语言中的目标文件是什么?