LDA 吉布斯采样(Gibbs Sampling)的公式推导
假设读者已经了解 LDA 的来龙去脉。
需要明确采样的含义:
随机变量是总体,采样就是按照总体的概率分布(指示了样本出现的概率)抽取样本的过程。样本应该能正确反映总体的情况,即样本与总体应该具有相同的统计性质(均值,方差等)。
一、《LDA数学八卦》中的推导
语料库中的第 iii 个词对应的主题我们记为 ziz_izi,其中 i=(m,n)i=(m,n)i=(m,n) 是一个二维下标,即语料库中第 iii 个词对应于第 mmm 篇文档的第 nnn 词,我们用 ¬i\neg i¬i 表示去除下标为 iii 的词。
那么按照 Gibbs Sampling 的要求,我们要求得任一坐标轴 iii 对应的条件分布 p(zi=k∣Z⃗¬i,W⃗)p(z_i=k|\vec{Z}_{\neg i},\vec{W})p(zi=k∣Z¬i,W),注意这是一个离散型概率分布的抽样。由贝叶斯法则可得(条件概率正比于联合概率):
p(zi=k∣Z⃗¬i,W⃗)∝p(zi=k,wi=t∣Z⃗¬i,W⃗¬i)p(z_i=k|\vec{Z}_{\neg i},\vec{W})\propto p(z_i=k,w_i=t|\vec{Z}_{\neg i},\vec{W}_{\neg i})p(zi=k∣Z¬i,W)∝p(zi=k,wi=t∣Z¬i,W¬i)
由于zi=k,wi=tz_i=k,w_i=tzi=k,wi=t只涉及到第 mmm 篇文档和第 kkk 个主题,所以只会涉及到如下两个 Dirichlet-Multinomial 共轭结构
- α⃗→θ⃗m→z⃗m\vec{\alpha}\rightarrow\vec{\theta}_m\rightarrow\vec{z}_mα→θm→zm
- β⃗→φ⃗k→w⃗k\vec{\beta}\rightarrow\vec{\varphi}_k\rightarrow\vec{w}_kβ→φk→wk
去掉了语料中第 iii 个词对应的 (zi,wi)(z_i,w_i)(zi,wi),并不会改变上面两个共轭结构,只是会减少对应的计数。所以 θ⃗m,φ⃗k\vec{\theta}_m,\vec{\varphi}_kθm,φk 的后验分布都还是狄利克雷分布:
p(θ⃗m∣Z⃗¬i,W⃗¬i)=Dir(θ⃗m∣n⃗m,¬i+α⃗)p(φ⃗k∣Z⃗¬i,W⃗¬i)=Dir(φ⃗k∣n⃗k,¬i+β⃗)p(\vec{\theta}_m|\vec{Z}_{\neg i},\vec{W}_{\neg i})=Dir(\vec{\theta}_m|\vec{n}_{m,\neg i}+\vec{\alpha})\\p(\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})=Dir(\vec{\varphi}_k|\vec{n}_{k,\neg i}+\vec{\beta})p(θm∣Z¬i,W¬i)=Dir(θm∣nm,¬i+α)p(φk∣Z¬i,W¬i)=Dir(φk∣nk,¬i+β)
注意,n⃗m,¬i,n⃗k,¬i\vec{n}_{m,\neg i},\vec{n}_{k,\neg i}nm,¬i,nk,¬i 都不是双下标,n⃗m=(nm(1),⋯ ,nm(K))\vec{n}_{m}=(n_m^{(1)},\cdots,n_m^{(K)})nm=(nm(1),⋯,nm(K)),nm(k)n_m^{(k)}nm(k) 表示第 m 篇文档中第 k 个主题的词的个数,n⃗k=(nk(1),⋯ ,nk(V))\vec{n}_k=(n_k^{(1)},\cdots,n_k^{(V)})nk=(nk(1),⋯,nk(V)),nk(t)n_k^{(t)}nk(t) 表示第 k 个主题中第 t(词典下标) 个词的个数。¬i\neg i¬i 表示去除下标为 iii(语料下标) 的词,所以在统计生成 n⃗m,n⃗k\vec{n}_{m},\vec{n}_{k}nm,nk 这两个向量时,我们可以当做第 m 篇文档中就没有这个词,也就不统计该词相关的计数,n⃗m,¬i,n⃗k,¬i\vec{n}_{m,\neg i},\vec{n}_{k,\neg i}nm,¬i,nk,¬i 表示的就是这样一种含义。
Gibbs Sampling 公式的推导:
p(zi=k∣Z⃗¬i,W⃗)∝p(zi=k,wi=t∣Z⃗¬i,W⃗¬i)=∫p(zi=k,wi=t,θ⃗m,φ⃗k∣Z⃗¬i,W⃗¬i)dθ⃗mdφ⃗k=∫p(zi=k,θ⃗m∣Z⃗¬i,W⃗¬i)⋅p(wi=t,φ⃗k∣Z⃗¬i,W⃗¬i)dθ⃗mdφ⃗k=∫p(zi=k∣θ⃗m)p(θ⃗m∣Z⃗¬i,W⃗¬i)⋅p(wi=t∣φ⃗k)p(φ⃗k∣Z⃗¬i,W⃗¬i)dθ⃗mdφ⃗k=∫p(zi=k∣θ⃗m)Dir(θ⃗m∣n⃗m,¬i+α⃗)dθ⃗m⋅∫p(wi=t∣φ⃗k)Dir(φ⃗k∣n⃗k,¬i+β⃗)dφ⃗k=∫θmkDir(θ⃗m∣n⃗m,¬i+α⃗)dθ⃗m⋅∫φktDir(φ⃗k∣n⃗k,¬i+β⃗)dφ⃗k=E(θmk)⋅E(φkt)=θ^mk⋅φ^kt\begin{aligned} p(z_i=k|\vec{Z}_{\neg i},\vec{W})\propto & p(z_i=k,w_i=t|\vec{Z}_{\neg i},\vec{W}_{\neg i})\\ =&\int p(z_i=k,w_i=t,\vec{\theta}_m,\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})\mathrm d\vec{\theta}_m\mathrm d\vec{\varphi}_k\\ =&\int p(z_i=k,\vec{\theta}_m|\vec{Z}_{\neg i},\vec{W}_{\neg i})\cdot p(w_i=t,\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})\mathrm d\vec{\theta}_m\mathrm d\vec{\varphi}_k\\ =&\int p(z_i=k|\vec{\theta}_m)p(\vec{\theta}_m|\vec{Z}_{\neg i},\vec{W}_{\neg i})\cdot p(w_i=t|\vec{\varphi}_k)p(\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})\mathrm d\vec{\theta}_m\mathrm d\vec{\varphi}_k\\ =&\int p(z_i=k|\vec{\theta}_m)Dir(\vec{\theta}_m|\vec{n}_{m,\neg i}+\vec{\alpha})\mathrm d\vec{\theta}_m\cdot\int p(w_i=t|\vec{\varphi}_k)Dir(\vec{\varphi}_k|\vec{n}_{k,\neg i}+\vec{\beta})\mathrm d\vec{\varphi}_k\\ =&\int \theta_{mk} Dir(\vec{\theta}_m|\vec{n}_{m,\neg i}+\vec{\alpha})\mathrm d\vec{\theta}_m\cdot\int \varphi_{kt} Dir(\vec{\varphi}_k|\vec{n}_{k,\neg i}+\vec{\beta})\mathrm d\vec{\varphi}_k\\ =&E(\theta_{mk})\cdot E(\varphi_{kt})\\ =&\hat{\theta}_{mk}\cdot\hat{\varphi}_{kt} \end{aligned} p(zi=k∣Z¬i,W)∝=======p(zi=k,wi=t∣Z¬i,W¬i)∫p(zi=k,wi=t,θm,φk∣Z¬i,W¬i)dθmdφk∫p(zi=k,θm∣Z¬i,W¬i)⋅p(wi=t,φk∣Z¬i,W¬i)dθmdφk∫p(zi=k∣θm)p(θm∣Z¬i,W¬i)⋅p(wi=t∣φk)p(φk∣Z¬i,W¬i)dθmdφk∫p(zi=k∣θm)Dir(θm∣nm,¬i+α)dθm⋅∫p(wi=t∣φk)Dir(φk∣nk,¬i+β)dφk∫θmkDir(θm∣nm,¬i+α)dθm⋅∫φktDir(φk∣nk,¬i+β)dφkE(θmk)⋅E(φkt)θ^mk⋅φ^kt
根据狄利克雷分布的期望公式有:
θ^mk=nm,¬i(k)+αk∑k=1Knm,¬i(k)+αkφ^kt=nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βt\hat{\theta}_{mk}=\frac{n_{m,\neg i}^{(k)}+\alpha_k}{\sum_{k=1}^Kn_{m,\neg i}^{(k)}+\alpha_k}\\\hat{\varphi}_{kt}=\frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}θ^mk=∑k=1Knm,¬i(k)+αknm,¬i(k)+αkφ^kt=∑t=1Vnk,¬i(t)+βtnk,¬i(t)+βt
所以 LDA 模型的采样公式为:
p(zi=k∣Z⃗¬i,W⃗)∝nm,¬i(k)+αk∑k=1Knm,¬i(k)+αk⋅nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βtp(z_i=k|\vec{Z}_{\neg i},\vec{W})\propto\frac{n_{m,\neg i}^{(k)}+\alpha_k}{\sum_{k=1}^Kn_{m,\neg i}^{(k)}+\alpha_k}\cdot\frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}p(zi=k∣Z¬i,W)∝∑k=1Knm,¬i(k)+αknm,¬i(k)+αk⋅∑t=1Vnk,¬i(t)+βtnk,¬i(t)+βt
二、《Parameter estimation for text analysis》中的推导
第一类狄利克雷积分,后面直接当作结论使用,不做证明:
Δ(α⃗)=∫∑xi=1∏i=1Nxiαi−1dx⃗\Delta(\vec{\alpha})=\int_{\sum x_i=1}\prod_{i=1}^Nx_i^{\alpha_i-1}\mathrm d\vec{x}Δ(α)=∫∑xi=1i=1∏Nxiαi−1dx
考虑一个有狄利克雷先验的一元模型(文档的生成仅依赖于一个词分布),此时只有一个 Dirichlet-Multinomial 共轭结构,有:
p(W∣α⃗)=∫p(W∣p⃗)⋅p(p⃗∣α⃗)dp⃗p(W|\vec{\alpha})=\int{p(W|\vec{p})\cdot p(\vec{p}|\vec{\alpha})\mathrm d\vec{p}}p(W∣α)=∫p(W∣p)⋅p(p∣α)dp
对比我们在概率论中学过的全概率公式,可以把这个式子理解为连续型变量的全概率公式。
具体的:
p(W∣α⃗)=∫∏n=1NMult(w=wn∣p⃗,1)⋅Dir(p⃗∣α⃗)dp⃗=∫∏v=1Vpvn(v)⋅1Δ(α⃗)∏v=1Vpvαv−1dp⃗=1Δ(α⃗)∫∏v=1Vpvn(v)+αv−1dp⃗∣Dirichlet∫=Δ(n⃗+α⃗)Δ(α⃗),n⃗={n(v)}v=1V\begin{aligned} p(W|\vec{\alpha})=&\int{\prod_{n=1}^N\mathrm{Mult}(w=w_n|\vec{p},1)\cdot \mathrm{Dir}(\vec{p}|\vec{\alpha})\mathrm d\vec{p}}\\ =&\int{\prod_{v=1}^Vp_v^{n^{(v)}}\cdot \frac{1}{\Delta(\vec\alpha)}\prod_{v=1}^Vp_v^{\alpha_v-1}\mathrm d\vec{p}}\\ =&\frac{1}{\Delta(\vec\alpha)}\int{\prod_{v=1}^Vp_v^{n^{(v)}+\alpha_v-1}\mathrm d\vec{p}} & | \mathrm{Dirichlet}\int\\ =&\frac{\Delta(\vec{n}+\vec\alpha)}{\Delta(\vec\alpha)},\vec{n}=\{n^{(v)}\}_{v=1}^V \end{aligned} p(W∣α)====∫n=1∏NMult(w=wn∣p,1)⋅Dir(p∣α)dp∫v=1∏Vpvn(v)⋅Δ(α)1v=1∏Vpvαv−1dpΔ(α)1∫v=1∏Vpvn(v)+αv−1dpΔ(α)Δ(n+α),n={n(v)}v=1V∣Dirichlet∫
其中,Mult(w=wn∣p⃗,1)\mathrm{Mult}(w=w_n|\vec{p},1)Mult(w=wn∣p,1) 表示多项式分布 N 次实验中一次实验的观测结果,最后一步的推导使用了第一类狄利克雷积分。
上面这个推导的意义是,消去了多项式分布的参数 p⃗\vec{p}p 的影响,因为它是未知的,仅使用词计数和狄利克雷超参数(伪计数)来表达观察到的语料的概率。
那么对于 LDA 模型来说,就是 K+M 个 Dirichlet-Multinomial 共轭结构。
首先对于 K 个主题的 Dirichlet-Multinomial 共轭结构有:
p(w⃗∣z⃗,β⃗)=∫p(w⃗∣z⃗,Φ)p(Φ∣β⃗)dΦ=∏k=1K∫1Δ(β⃗)∏t=1Vφk,tnk(t)+βt−1dφ⃗k=∏k=1KΔ(n⃗k+β⃗)Δ(β⃗),n⃗k={nk(t)}t=1V\begin{aligned} p(\vec w|\vec z,\vec \beta)=&\int p(\vec w|\vec z,\Phi)p(\Phi|\vec \beta)\mathrm d\Phi\\ =&\prod_{k=1}^K\int\frac{1}{\Delta(\vec\beta)}\prod_{t=1}^V\varphi_{k,t}^{n_k^{(t)}+\beta_t-1}\mathrm d\vec\varphi_k\\ =&\prod_{k=1}^K\frac{\Delta(\vec n_k+\vec\beta)}{\Delta(\vec\beta)},\vec n_k=\{n_k^{(t)}\}_{t=1}^V \end{aligned} p(w∣z,β)===∫p(w∣z,Φ)p(Φ∣β)dΦk=1∏K∫Δ(β)1t=1∏Vφk,tnk(t)+βt−1dφkk=1∏KΔ(β)Δ(nk+β),nk={nk(t)}t=1V
其次对于 M 个文档的 Dirichlet-Multinomial 共轭结构有:
p(z⃗∣α⃗)=∫p(z⃗∣Θ)p(Θ∣α⃗)dΘ=∏m=1M∫1Δ(α⃗)∏k=1Kθm,knm(k)+αk−1dθ⃗m=∏m=1MΔ(n⃗m+α⃗)Δ(α⃗),n⃗m={nm(k)}k=1K\begin{aligned} p(\vec z|\vec \alpha)=&\int p(\vec z|\Theta)p(\Theta|\vec \alpha)\mathrm d\Theta\\ =&\prod_{m=1}^M\int\frac{1}{\Delta(\vec\alpha)}\prod_{k=1}^K\theta_{m,k}^{n_m^{(k)}+\alpha_k-1}\mathrm d\vec\theta_m\\ =&\prod_{m=1}^M\frac{\Delta(\vec n_m+\vec\alpha)}{\Delta(\vec\alpha)},\vec n_m=\{n_m^{(k)}\}_{k=1}^K \end{aligned} p(z∣α)===∫p(z∣Θ)p(Θ∣α)dΘm=1∏M∫Δ(α)1k=1∏Kθm,knm(k)+αk−1dθmm=1∏MΔ(α)Δ(nm+α),nm={nm(k)}k=1K
所以模型的联合分布为:
p(z⃗,w⃗∣α⃗,β⃗)=∏k=1KΔ(n⃗k+β⃗)Δ(β⃗)⋅∏m=1MΔ(n⃗m+α⃗)Δ(α⃗)p(\vec z,\vec w|\vec\alpha,\vec\beta)=\prod_{k=1}^K\frac{\Delta(\vec n_k+\vec\beta)}{\Delta(\vec\beta)}\cdot\prod_{m=1}^M\frac{\Delta(\vec n_m+\vec\alpha)}{\Delta(\vec\alpha)}p(z,w∣α,β)=k=1∏KΔ(β)Δ(nk+β)⋅m=1∏MΔ(α)Δ(nm+α)
因为 Gibbs Sampling 的要求就是根据条件分布进行采样,所以 LDA 模型的采样公式为:
p(zi=k∣z⃗¬i,w⃗)=p(w⃗,z⃗)p(w⃗,z⃗¬i)=p(w⃗∣z⃗)p(w⃗¬i∣z⃗¬i)p(wi)⋅p(z⃗)p(z⃗¬i)(1)∝Δ(n⃗k+β⃗)Δ(n⃗k,¬i+β⃗)⋅Δ(n⃗m+α⃗)Δ(n⃗m,¬i+α⃗)(2)=Γ(nk(t)+βt)Γ(∑t=1Vnk,¬i(t)+βt)Γ(nk,¬i(t)+βt))Γ(∑t=1Vnk(t)+βt)⋅Γ(nm(k)+αk)Γ(∑k=1Knm,¬i(k)+αk)Γ(nm,¬i(k)+αk)Γ(∑k=1Knm(k)+αk)(3)=nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βt⋅nm,¬i(k)+αk[∑k=1Knm(k)+αk]−1(4)∝nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βt⋅(nm,¬i(k)+αk)(5)\begin{aligned} p(z_i=k|\vec{z}_{\neg i},\vec{w})=& \frac{p(\vec{w},\vec{z})}{p(\vec{w},\vec{z}_{\neg i})}=\frac{p(\vec{w}|\vec{z})}{p(\vec{w}_{\neg i}|\vec{z}_{\neg i})p(w_i)}\cdot\frac{p(\vec{z})}{p(\vec{z}_{\neg i})} & (1)\\ \propto & \frac{\Delta(\vec{n}_k+\vec\beta)}{\Delta(\vec{n}_{k,\neg i}+\vec\beta)}\cdot \frac{\Delta(\vec{n}_m+\vec\alpha)}{\Delta(\vec{n}_{m,\neg i}+\vec\alpha)} &(2)\\ =& \frac{\Gamma(n_k^{(t)}+\beta_t)\Gamma(\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t)}{\Gamma(n_{k,\neg i}^{(t)}+\beta_t))\Gamma(\sum_{t=1}^Vn_k^{(t)}+\beta_t)}\cdot\frac{\Gamma(n_m^{(k)}+\alpha_k)\Gamma(\sum_{k=1}^Kn_{m,\neg i}^{(k)}+\alpha_k)}{\Gamma(n_{m,\neg i}^{(k)}+\alpha_k)\Gamma(\sum_{k=1}^Kn_m^{(k)}+\alpha_k)}&(3)\\ =&\frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}\cdot\frac{n_{m,\neg i}^{(k)}+\alpha_k}{[\sum_{k=1}^Kn_m^{(k)}+\alpha_k]-1}&(4)\\ \propto & \frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}\cdot(n_{m,\neg i}^{(k)}+\alpha_k)&(5) \end{aligned} p(zi=k∣z¬i,w)=∝==∝p(w,z¬i)p(w,z)=p(w¬i∣z¬i)p(wi)p(w∣z)⋅p(z¬i)p(z)Δ(nk,¬i+β)Δ(nk+β)⋅Δ(nm,¬i+α)Δ(nm+α)Γ(nk,¬i(t)+βt))Γ(∑t=1Vnk(t)+βt)Γ(nk(t)+βt)Γ(∑t=1Vnk,¬i(t)+βt)⋅Γ(nm,¬i(k)+αk)Γ(∑k=1Knm(k)+αk)Γ(nm(k)+αk)Γ(∑k=1Knm,¬i(k)+αk)∑t=1Vnk,¬i(t)+βtnk,¬i(t)+βt⋅[∑k=1Knm(k)+αk]−1nm,¬i(k)+αk∑t=1Vnk,¬i(t)+βtnk,¬i(t)+βt⋅(nm,¬i(k)+αk)(1)(2)(3)(4)(5)
上面的公式推导做以下五点解释:
- (1) 式和 (2) 式正比,是因为 p(wi)p(w_i)p(wi) 是一个常数;由于 ¬i\neg i¬i 只涉及两个共轭结构,所以 (1) 式到 (2) 式约去了相同的 Δ\DeltaΔ 函数。
- (2) 式到 (3) 式,同样是因为 i 只与第 k 个主题和第 m 篇文档有关,将 Δ\DeltaΔ 函数展开成 Γ\GammaΓ 函数后,约去了相同的 Γ\GammaΓ 函数。
- (3) 式到 (4) 式利用了 Γ\GammaΓ 函数的性质:Γ(x+1)=xΓ(x)\Gamma(x+1)=x\Gamma(x)Γ(x+1)=xΓ(x),进行约去。
- (4) 式里有一个减 1,是因为把第 m 篇文档里要去掉的那个计数分离了出来。
- 因为第 m 篇文档的单词数是已知的,所以 (4) 式和 (5) 式是正比关系。
三、原来对 LDA 的一个疑惑,以及解答
疑问:LDA 并没有做任何词语语义方面的工作,仅仅是做一些数量上的统计,它是怎么挖掘出文档具有语义含义的主题的呢?
LDA 本质上是对词进行了聚类(依据某方面的相似度),聚的这个类就是主题。换句话说就是,按照主题给词进行了聚类。
既然没有做词语义方面的工作,那词之间的相似度是怎么确定的呢?
读完 LDA 著名的科普文章《Parameter estimation for text analysis》,它里面提到潜在主题是高阶共现的结果,即,t1 和 t2 共现,t2 和 t3 共现,表明 t1 和 t3 是一个二阶共现,以此类推。(共现,在不同上下文中共同出现。两个词越经常在不同的上下文共现,就越表示这两个词相似。)
LDA 吉布斯采样(Gibbs Sampling)的公式推导相关推荐
- 随机采样和随机模拟:吉布斯采样Gibbs Sampling实现高斯分布参数推断
http://blog.csdn.net/pipisorry/article/details/51539739 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样来采样截断多维高斯分布的参数(已知一 ...
- 随机采样和随机模拟:吉布斯采样Gibbs Sampling
2016年05月12日 00:24:21 阅读数:45658 http://blog.csdn.net/pipisorry/article/details/51373090 吉布斯采样算法详解 为什么 ...
- 三步完成吉布斯采样Gibbs sampling
吉布斯采样的具体执行过程只需要三个步骤,非常非常简单好理解,其它相关的背景知识能帮助加深理解. 一.Preliminaries Monte Carlo methods 它是很宽泛的一类计算方法,依赖重 ...
- 【ML】线性回归的吉布斯采样(Gibbs Sampling)实现(python)
导航 Bayesian Linear Regression Gibbs Sampling Derving a Gibbs sampler Update for β0\beta_0β0 Update ...
- 使用MATLAB贝叶斯工具箱(BNT),进行吉布斯采样(Gibbs Sampling)之前需要做的编译工作...
使用BNT(Bayesian Networks Toolbox)进行推断时,内置了吉布斯采样算法(即gibbs_sampling_inf_engine),但是如果调用这个引擎做推断会报错.报错内容大概 ...
- 【机器学习】主题建模+隐狄利克雷分配模型(LDA)+吉布斯采样
[主题建模] 大数据时代,面对海量的数据,如果能知道它的主题是什么,从数据压缩的角度来看,我们可以通过很少量的主题来管理很大亮的文档数据集合,从而实现一个比较简洁的操作和管理文档集合的目的:除此之外, ...
- Markov Chain Monte Carlo 和 Gibbs Sampling算法
Welcome To My Blog 一.蒙特卡洛模拟 蒙特卡洛模拟(Monte Carlo Simulation)是随机模拟的别名,关于随机模拟的一个重要的问题就是:给定一个概率分布p(x),如何生 ...
- 概率语言模型及其变形系列-LDA及Gibbs Sampling
转载自:http://blog.csdn.net/yangliuy/article/details/8302599 本系列博文介绍常见概率语言模型及其变形模型,主要总结PLSA.LDA及LDA的变形模 ...
- 吉布斯采样(Gibbs Sampling)
吉布斯采样(Gibbs Sampling) 常用于DBM和DBN,吉布斯采样主要用在像LDA和其它模型参数的推断上. 要完成Gibbs抽样,需要知道条件概率.也就是说,gibbs采样是通过条件 ...
最新文章
- windows服务搭建及命令总结
- 一些思考,没想好标题
- 软件分享:将应用一键打包成dmg文件
- python子类如何继承父类的实例变量?
- Unable to simultaneously satisfy constraints.
- php项目安装器,php服务器环境安装及项目搭建
- angular 加入原生html,Angular HTML绑定
- mysql数据库的安装和配置文件_MySQL 数据库安装与配置详解
- mysql实战33 | 我查这么多数据,会不会把数据库内存打爆?
- 从大学到结婚,我和小云的这13年
- php连接数据库非明文,MySQL 数据库配置 SSL 安全连接
- 对标Postman的ApiPost创始人:用户,是ApiPost唯一的信仰
- 诺基亚自带36个铃声_vivo手机的6个隐藏功能,快开启,帮你玩转vivo
- MongoDBTool - 测试版【GUI美化完毕】 源代码发布 --MongoDB爱好者,Winform爱好者 请进...
- mysql gtid 主键冲突_MySQL Last_SQL_Errno: 1062----经典错误,主键冲突
- xml笔记(马士兵)
- 软件工程-可行性分析
- macOS Monterey/BigSur 安装HP打印机驱动
- 使用setBounds()函数设置Java布局
- Unity在UI上使用MaskableGraphic类画一个矩形刻度尺
热门文章
- 一行修改网页内容的代码
- 服务器系统重装后多出一个盘,服务器系统重装后多出一个盘
- java时间间隔_java 计算两个 日期时间 相间隔多少天小时分钟 等
- protocal 协议
- docker php扩展,Docker php扩展安装篇
- 瑞萨单片机流水灯实例
- Java程序员的JavaScript学习笔记(13—— jQuery UI)
- 十分钟简明易懂搞定堆排序算法,附Python源码
- 批量获取文件的摘要(md5、sha1、sha256)
- 成为JavaGC专家Part I — 深入浅出Java垃圾回收机制 转载http://www.importnew.com/1993.html