假设读者已经了解 LDA 的来龙去脉。

需要明确采样的含义:
随机变量是总体,采样就是按照总体的概率分布(指示了样本出现的概率)抽取样本的过程。样本应该能正确反映总体的情况,即样本与总体应该具有相同的统计性质(均值,方差等)。

一、《LDA数学八卦》中的推导

语料库中的第 iii 个词对应的主题我们记为 ziz_izi​,其中 i=(m,n)i=(m,n)i=(m,n) 是一个二维下标,即语料库中第 iii 个词对应于第 mmm 篇文档的第 nnn 词,我们用 ¬i\neg i¬i 表示去除下标为 iii 的词。
那么按照 Gibbs Sampling 的要求,我们要求得任一坐标轴 iii 对应的条件分布 p(zi=k∣Z⃗¬i,W⃗)p(z_i=k|\vec{Z}_{\neg i},\vec{W})p(zi​=k∣Z¬i​,W),注意这是一个离散型概率分布的抽样。由贝叶斯法则可得(条件概率正比于联合概率):
p(zi=k∣Z⃗¬i,W⃗)∝p(zi=k,wi=t∣Z⃗¬i,W⃗¬i)p(z_i=k|\vec{Z}_{\neg i},\vec{W})\propto p(z_i=k,w_i=t|\vec{Z}_{\neg i},\vec{W}_{\neg i})p(zi​=k∣Z¬i​,W)∝p(zi​=k,wi​=t∣Z¬i​,W¬i​)
由于zi=k,wi=tz_i=k,w_i=tzi​=k,wi​=t只涉及到第 mmm 篇文档和第 kkk 个主题,所以只会涉及到如下两个 Dirichlet-Multinomial 共轭结构

  1. α⃗→θ⃗m→z⃗m\vec{\alpha}\rightarrow\vec{\theta}_m\rightarrow\vec{z}_mα→θm​→zm​
  2. β⃗→φ⃗k→w⃗k\vec{\beta}\rightarrow\vec{\varphi}_k\rightarrow\vec{w}_kβ​→φ​k​→wk​

去掉了语料中第 iii 个词对应的 (zi,wi)(z_i,w_i)(zi​,wi​),并不会改变上面两个共轭结构,只是会减少对应的计数。所以 θ⃗m,φ⃗k\vec{\theta}_m,\vec{\varphi}_kθm​,φ​k​ 的后验分布都还是狄利克雷分布:
p(θ⃗m∣Z⃗¬i,W⃗¬i)=Dir(θ⃗m∣n⃗m,¬i+α⃗)p(φ⃗k∣Z⃗¬i,W⃗¬i)=Dir(φ⃗k∣n⃗k,¬i+β⃗)p(\vec{\theta}_m|\vec{Z}_{\neg i},\vec{W}_{\neg i})=Dir(\vec{\theta}_m|\vec{n}_{m,\neg i}+\vec{\alpha})\\p(\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})=Dir(\vec{\varphi}_k|\vec{n}_{k,\neg i}+\vec{\beta})p(θm​∣Z¬i​,W¬i​)=Dir(θm​∣nm,¬i​+α)p(φ​k​∣Z¬i​,W¬i​)=Dir(φ​k​∣nk,¬i​+β​)
注意,n⃗m,¬i,n⃗k,¬i\vec{n}_{m,\neg i},\vec{n}_{k,\neg i}nm,¬i​,nk,¬i​ 都不是双下标,n⃗m=(nm(1),⋯ ,nm(K))\vec{n}_{m}=(n_m^{(1)},\cdots,n_m^{(K)})nm​=(nm(1)​,⋯,nm(K)​),nm(k)n_m^{(k)}nm(k)​ 表示第 m 篇文档中第 k 个主题的词的个数,n⃗k=(nk(1),⋯ ,nk(V))\vec{n}_k=(n_k^{(1)},\cdots,n_k^{(V)})nk​=(nk(1)​,⋯,nk(V)​),nk(t)n_k^{(t)}nk(t)​ 表示第 k 个主题中第 t(词典下标) 个词的个数。¬i\neg i¬i 表示去除下标为 iii(语料下标) 的词,所以在统计生成 n⃗m,n⃗k\vec{n}_{m},\vec{n}_{k}nm​,nk​ 这两个向量时,我们可以当做第 m 篇文档中就没有这个词,也就不统计该词相关的计数,n⃗m,¬i,n⃗k,¬i\vec{n}_{m,\neg i},\vec{n}_{k,\neg i}nm,¬i​,nk,¬i​ 表示的就是这样一种含义。

Gibbs Sampling 公式的推导:
p(zi=k∣Z⃗¬i,W⃗)∝p(zi=k,wi=t∣Z⃗¬i,W⃗¬i)=∫p(zi=k,wi=t,θ⃗m,φ⃗k∣Z⃗¬i,W⃗¬i)dθ⃗mdφ⃗k=∫p(zi=k,θ⃗m∣Z⃗¬i,W⃗¬i)⋅p(wi=t,φ⃗k∣Z⃗¬i,W⃗¬i)dθ⃗mdφ⃗k=∫p(zi=k∣θ⃗m)p(θ⃗m∣Z⃗¬i,W⃗¬i)⋅p(wi=t∣φ⃗k)p(φ⃗k∣Z⃗¬i,W⃗¬i)dθ⃗mdφ⃗k=∫p(zi=k∣θ⃗m)Dir(θ⃗m∣n⃗m,¬i+α⃗)dθ⃗m⋅∫p(wi=t∣φ⃗k)Dir(φ⃗k∣n⃗k,¬i+β⃗)dφ⃗k=∫θmkDir(θ⃗m∣n⃗m,¬i+α⃗)dθ⃗m⋅∫φktDir(φ⃗k∣n⃗k,¬i+β⃗)dφ⃗k=E(θmk)⋅E(φkt)=θ^mk⋅φ^kt\begin{aligned} p(z_i=k|\vec{Z}_{\neg i},\vec{W})\propto & p(z_i=k,w_i=t|\vec{Z}_{\neg i},\vec{W}_{\neg i})\\ =&\int p(z_i=k,w_i=t,\vec{\theta}_m,\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})\mathrm d\vec{\theta}_m\mathrm d\vec{\varphi}_k\\ =&\int p(z_i=k,\vec{\theta}_m|\vec{Z}_{\neg i},\vec{W}_{\neg i})\cdot p(w_i=t,\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})\mathrm d\vec{\theta}_m\mathrm d\vec{\varphi}_k\\ =&\int p(z_i=k|\vec{\theta}_m)p(\vec{\theta}_m|\vec{Z}_{\neg i},\vec{W}_{\neg i})\cdot p(w_i=t|\vec{\varphi}_k)p(\vec{\varphi}_k|\vec{Z}_{\neg i},\vec{W}_{\neg i})\mathrm d\vec{\theta}_m\mathrm d\vec{\varphi}_k\\ =&\int p(z_i=k|\vec{\theta}_m)Dir(\vec{\theta}_m|\vec{n}_{m,\neg i}+\vec{\alpha})\mathrm d\vec{\theta}_m\cdot\int p(w_i=t|\vec{\varphi}_k)Dir(\vec{\varphi}_k|\vec{n}_{k,\neg i}+\vec{\beta})\mathrm d\vec{\varphi}_k\\ =&\int \theta_{mk} Dir(\vec{\theta}_m|\vec{n}_{m,\neg i}+\vec{\alpha})\mathrm d\vec{\theta}_m\cdot\int \varphi_{kt} Dir(\vec{\varphi}_k|\vec{n}_{k,\neg i}+\vec{\beta})\mathrm d\vec{\varphi}_k\\ =&E(\theta_{mk})\cdot E(\varphi_{kt})\\ =&\hat{\theta}_{mk}\cdot\hat{\varphi}_{kt} \end{aligned} p(zi​=k∣Z¬i​,W)∝=======​p(zi​=k,wi​=t∣Z¬i​,W¬i​)∫p(zi​=k,wi​=t,θm​,φ​k​∣Z¬i​,W¬i​)dθm​dφ​k​∫p(zi​=k,θm​∣Z¬i​,W¬i​)⋅p(wi​=t,φ​k​∣Z¬i​,W¬i​)dθm​dφ​k​∫p(zi​=k∣θm​)p(θm​∣Z¬i​,W¬i​)⋅p(wi​=t∣φ​k​)p(φ​k​∣Z¬i​,W¬i​)dθm​dφ​k​∫p(zi​=k∣θm​)Dir(θm​∣nm,¬i​+α)dθm​⋅∫p(wi​=t∣φ​k​)Dir(φ​k​∣nk,¬i​+β​)dφ​k​∫θmk​Dir(θm​∣nm,¬i​+α)dθm​⋅∫φkt​Dir(φ​k​∣nk,¬i​+β​)dφ​k​E(θmk​)⋅E(φkt​)θ^mk​⋅φ^​kt​​

根据狄利克雷分布的期望公式有:
θ^mk=nm,¬i(k)+αk∑k=1Knm,¬i(k)+αkφ^kt=nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βt\hat{\theta}_{mk}=\frac{n_{m,\neg i}^{(k)}+\alpha_k}{\sum_{k=1}^Kn_{m,\neg i}^{(k)}+\alpha_k}\\\hat{\varphi}_{kt}=\frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}θ^mk​=∑k=1K​nm,¬i(k)​+αk​nm,¬i(k)​+αk​​φ^​kt​=∑t=1V​nk,¬i(t)​+βt​nk,¬i(t)​+βt​​

所以 LDA 模型的采样公式为:
p(zi=k∣Z⃗¬i,W⃗)∝nm,¬i(k)+αk∑k=1Knm,¬i(k)+αk⋅nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βtp(z_i=k|\vec{Z}_{\neg i},\vec{W})\propto\frac{n_{m,\neg i}^{(k)}+\alpha_k}{\sum_{k=1}^Kn_{m,\neg i}^{(k)}+\alpha_k}\cdot\frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}p(zi​=k∣Z¬i​,W)∝∑k=1K​nm,¬i(k)​+αk​nm,¬i(k)​+αk​​⋅∑t=1V​nk,¬i(t)​+βt​nk,¬i(t)​+βt​​

二、《Parameter estimation for text analysis》中的推导

第一类狄利克雷积分,后面直接当作结论使用,不做证明:
Δ(α⃗)=∫∑xi=1∏i=1Nxiαi−1dx⃗\Delta(\vec{\alpha})=\int_{\sum x_i=1}\prod_{i=1}^Nx_i^{\alpha_i-1}\mathrm d\vec{x}Δ(α)=∫∑xi​=1​i=1∏N​xiαi​−1​dx
考虑一个有狄利克雷先验的一元模型(文档的生成仅依赖于一个词分布),此时只有一个 Dirichlet-Multinomial 共轭结构,有:
p(W∣α⃗)=∫p(W∣p⃗)⋅p(p⃗∣α⃗)dp⃗p(W|\vec{\alpha})=\int{p(W|\vec{p})\cdot p(\vec{p}|\vec{\alpha})\mathrm d\vec{p}}p(W∣α)=∫p(W∣p​)⋅p(p​∣α)dp​
对比我们在概率论中学过的全概率公式,可以把这个式子理解为连续型变量的全概率公式。
具体的:
p(W∣α⃗)=∫∏n=1NMult(w=wn∣p⃗,1)⋅Dir(p⃗∣α⃗)dp⃗=∫∏v=1Vpvn(v)⋅1Δ(α⃗)∏v=1Vpvαv−1dp⃗=1Δ(α⃗)∫∏v=1Vpvn(v)+αv−1dp⃗∣Dirichlet∫=Δ(n⃗+α⃗)Δ(α⃗),n⃗={n(v)}v=1V\begin{aligned} p(W|\vec{\alpha})=&\int{\prod_{n=1}^N\mathrm{Mult}(w=w_n|\vec{p},1)\cdot \mathrm{Dir}(\vec{p}|\vec{\alpha})\mathrm d\vec{p}}\\ =&\int{\prod_{v=1}^Vp_v^{n^{(v)}}\cdot \frac{1}{\Delta(\vec\alpha)}\prod_{v=1}^Vp_v^{\alpha_v-1}\mathrm d\vec{p}}\\ =&\frac{1}{\Delta(\vec\alpha)}\int{\prod_{v=1}^Vp_v^{n^{(v)}+\alpha_v-1}\mathrm d\vec{p}} & | \mathrm{Dirichlet}\int\\ =&\frac{\Delta(\vec{n}+\vec\alpha)}{\Delta(\vec\alpha)},\vec{n}=\{n^{(v)}\}_{v=1}^V \end{aligned} p(W∣α)====​∫n=1∏N​Mult(w=wn​∣p​,1)⋅Dir(p​∣α)dp​∫v=1∏V​pvn(v)​⋅Δ(α)1​v=1∏V​pvαv​−1​dp​Δ(α)1​∫v=1∏V​pvn(v)+αv​−1​dp​Δ(α)Δ(n+α)​,n={n(v)}v=1V​​∣Dirichlet∫​
其中,Mult(w=wn∣p⃗,1)\mathrm{Mult}(w=w_n|\vec{p},1)Mult(w=wn​∣p​,1) 表示多项式分布 N 次实验中一次实验的观测结果,最后一步的推导使用了第一类狄利克雷积分。

上面这个推导的意义是,消去了多项式分布的参数 p⃗\vec{p}p​ 的影响,因为它是未知的,仅使用词计数和狄利克雷超参数(伪计数)来表达观察到的语料的概率。

那么对于 LDA 模型来说,就是 K+M 个 Dirichlet-Multinomial 共轭结构。
首先对于 K 个主题的 Dirichlet-Multinomial 共轭结构有:
p(w⃗∣z⃗,β⃗)=∫p(w⃗∣z⃗,Φ)p(Φ∣β⃗)dΦ=∏k=1K∫1Δ(β⃗)∏t=1Vφk,tnk(t)+βt−1dφ⃗k=∏k=1KΔ(n⃗k+β⃗)Δ(β⃗),n⃗k={nk(t)}t=1V\begin{aligned} p(\vec w|\vec z,\vec \beta)=&\int p(\vec w|\vec z,\Phi)p(\Phi|\vec \beta)\mathrm d\Phi\\ =&\prod_{k=1}^K\int\frac{1}{\Delta(\vec\beta)}\prod_{t=1}^V\varphi_{k,t}^{n_k^{(t)}+\beta_t-1}\mathrm d\vec\varphi_k\\ =&\prod_{k=1}^K\frac{\Delta(\vec n_k+\vec\beta)}{\Delta(\vec\beta)},\vec n_k=\{n_k^{(t)}\}_{t=1}^V \end{aligned} p(w∣z,β​)===​∫p(w∣z,Φ)p(Φ∣β​)dΦk=1∏K​∫Δ(β​)1​t=1∏V​φk,tnk(t)​+βt​−1​dφ​k​k=1∏K​Δ(β​)Δ(nk​+β​)​,nk​={nk(t)​}t=1V​​
其次对于 M 个文档的 Dirichlet-Multinomial 共轭结构有:
p(z⃗∣α⃗)=∫p(z⃗∣Θ)p(Θ∣α⃗)dΘ=∏m=1M∫1Δ(α⃗)∏k=1Kθm,knm(k)+αk−1dθ⃗m=∏m=1MΔ(n⃗m+α⃗)Δ(α⃗),n⃗m={nm(k)}k=1K\begin{aligned} p(\vec z|\vec \alpha)=&\int p(\vec z|\Theta)p(\Theta|\vec \alpha)\mathrm d\Theta\\ =&\prod_{m=1}^M\int\frac{1}{\Delta(\vec\alpha)}\prod_{k=1}^K\theta_{m,k}^{n_m^{(k)}+\alpha_k-1}\mathrm d\vec\theta_m\\ =&\prod_{m=1}^M\frac{\Delta(\vec n_m+\vec\alpha)}{\Delta(\vec\alpha)},\vec n_m=\{n_m^{(k)}\}_{k=1}^K \end{aligned} p(z∣α)===​∫p(z∣Θ)p(Θ∣α)dΘm=1∏M​∫Δ(α)1​k=1∏K​θm,knm(k)​+αk​−1​dθm​m=1∏M​Δ(α)Δ(nm​+α)​,nm​={nm(k)​}k=1K​​
所以模型的联合分布为:
p(z⃗,w⃗∣α⃗,β⃗)=∏k=1KΔ(n⃗k+β⃗)Δ(β⃗)⋅∏m=1MΔ(n⃗m+α⃗)Δ(α⃗)p(\vec z,\vec w|\vec\alpha,\vec\beta)=\prod_{k=1}^K\frac{\Delta(\vec n_k+\vec\beta)}{\Delta(\vec\beta)}\cdot\prod_{m=1}^M\frac{\Delta(\vec n_m+\vec\alpha)}{\Delta(\vec\alpha)}p(z,w∣α,β​)=k=1∏K​Δ(β​)Δ(nk​+β​)​⋅m=1∏M​Δ(α)Δ(nm​+α)​
因为 Gibbs Sampling 的要求就是根据条件分布进行采样,所以 LDA 模型的采样公式为:
p(zi=k∣z⃗¬i,w⃗)=p(w⃗,z⃗)p(w⃗,z⃗¬i)=p(w⃗∣z⃗)p(w⃗¬i∣z⃗¬i)p(wi)⋅p(z⃗)p(z⃗¬i)(1)∝Δ(n⃗k+β⃗)Δ(n⃗k,¬i+β⃗)⋅Δ(n⃗m+α⃗)Δ(n⃗m,¬i+α⃗)(2)=Γ(nk(t)+βt)Γ(∑t=1Vnk,¬i(t)+βt)Γ(nk,¬i(t)+βt))Γ(∑t=1Vnk(t)+βt)⋅Γ(nm(k)+αk)Γ(∑k=1Knm,¬i(k)+αk)Γ(nm,¬i(k)+αk)Γ(∑k=1Knm(k)+αk)(3)=nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βt⋅nm,¬i(k)+αk[∑k=1Knm(k)+αk]−1(4)∝nk,¬i(t)+βt∑t=1Vnk,¬i(t)+βt⋅(nm,¬i(k)+αk)(5)\begin{aligned} p(z_i=k|\vec{z}_{\neg i},\vec{w})=& \frac{p(\vec{w},\vec{z})}{p(\vec{w},\vec{z}_{\neg i})}=\frac{p(\vec{w}|\vec{z})}{p(\vec{w}_{\neg i}|\vec{z}_{\neg i})p(w_i)}\cdot\frac{p(\vec{z})}{p(\vec{z}_{\neg i})} & (1)\\ \propto & \frac{\Delta(\vec{n}_k+\vec\beta)}{\Delta(\vec{n}_{k,\neg i}+\vec\beta)}\cdot \frac{\Delta(\vec{n}_m+\vec\alpha)}{\Delta(\vec{n}_{m,\neg i}+\vec\alpha)} &(2)\\ =& \frac{\Gamma(n_k^{(t)}+\beta_t)\Gamma(\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t)}{\Gamma(n_{k,\neg i}^{(t)}+\beta_t))\Gamma(\sum_{t=1}^Vn_k^{(t)}+\beta_t)}\cdot\frac{\Gamma(n_m^{(k)}+\alpha_k)\Gamma(\sum_{k=1}^Kn_{m,\neg i}^{(k)}+\alpha_k)}{\Gamma(n_{m,\neg i}^{(k)}+\alpha_k)\Gamma(\sum_{k=1}^Kn_m^{(k)}+\alpha_k)}&(3)\\ =&\frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}\cdot\frac{n_{m,\neg i}^{(k)}+\alpha_k}{[\sum_{k=1}^Kn_m^{(k)}+\alpha_k]-1}&(4)\\ \propto & \frac{n_{k,\neg i}^{(t)}+\beta_t}{\sum_{t=1}^Vn_{k,\neg i}^{(t)}+\beta_t}\cdot(n_{m,\neg i}^{(k)}+\alpha_k)&(5) \end{aligned} p(zi​=k∣z¬i​,w)=∝==∝​p(w,z¬i​)p(w,z)​=p(w¬i​∣z¬i​)p(wi​)p(w∣z)​⋅p(z¬i​)p(z)​Δ(nk,¬i​+β​)Δ(nk​+β​)​⋅Δ(nm,¬i​+α)Δ(nm​+α)​Γ(nk,¬i(t)​+βt​))Γ(∑t=1V​nk(t)​+βt​)Γ(nk(t)​+βt​)Γ(∑t=1V​nk,¬i(t)​+βt​)​⋅Γ(nm,¬i(k)​+αk​)Γ(∑k=1K​nm(k)​+αk​)Γ(nm(k)​+αk​)Γ(∑k=1K​nm,¬i(k)​+αk​)​∑t=1V​nk,¬i(t)​+βt​nk,¬i(t)​+βt​​⋅[∑k=1K​nm(k)​+αk​]−1nm,¬i(k)​+αk​​∑t=1V​nk,¬i(t)​+βt​nk,¬i(t)​+βt​​⋅(nm,¬i(k)​+αk​)​(1)(2)(3)(4)(5)​
上面的公式推导做以下五点解释:

  1. (1) 式和 (2) 式正比,是因为 p(wi)p(w_i)p(wi​) 是一个常数;由于 ¬i\neg i¬i 只涉及两个共轭结构,所以 (1) 式到 (2) 式约去了相同的 Δ\DeltaΔ 函数。
  2. (2) 式到 (3) 式,同样是因为 i 只与第 k 个主题和第 m 篇文档有关,将 Δ\DeltaΔ 函数展开成 Γ\GammaΓ 函数后,约去了相同的 Γ\GammaΓ 函数。
  3. (3) 式到 (4) 式利用了 Γ\GammaΓ 函数的性质:Γ(x+1)=xΓ(x)\Gamma(x+1)=x\Gamma(x)Γ(x+1)=xΓ(x),进行约去。
  4. (4) 式里有一个减 1,是因为把第 m 篇文档里要去掉的那个计数分离了出来。
  5. 因为第 m 篇文档的单词数是已知的,所以 (4) 式和 (5) 式是正比关系。

三、原来对 LDA 的一个疑惑,以及解答

疑问:LDA 并没有做任何词语语义方面的工作,仅仅是做一些数量上的统计,它是怎么挖掘出文档具有语义含义的主题的呢?

LDA 本质上是对词进行了聚类(依据某方面的相似度),聚的这个类就是主题。换句话说就是,按照主题给词进行了聚类。

既然没有做词语义方面的工作,那词之间的相似度是怎么确定的呢?
读完 LDA 著名的科普文章《Parameter estimation for text analysis》,它里面提到潜在主题是高阶共现的结果,即,t1 和 t2 共现,t2 和 t3 共现,表明 t1 和 t3 是一个二阶共现,以此类推。(共现,在不同上下文中共同出现。两个词越经常在不同的上下文共现,就越表示这两个词相似。)

LDA 吉布斯采样(Gibbs Sampling)的公式推导相关推荐

  1. 随机采样和随机模拟:吉布斯采样Gibbs Sampling实现高斯分布参数推断

    http://blog.csdn.net/pipisorry/article/details/51539739 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样来采样截断多维高斯分布的参数(已知一 ...

  2. 随机采样和随机模拟:吉布斯采样Gibbs Sampling

    2016年05月12日 00:24:21 阅读数:45658 http://blog.csdn.net/pipisorry/article/details/51373090 吉布斯采样算法详解 为什么 ...

  3. 三步完成吉布斯采样Gibbs sampling

    吉布斯采样的具体执行过程只需要三个步骤,非常非常简单好理解,其它相关的背景知识能帮助加深理解. 一.Preliminaries Monte Carlo methods 它是很宽泛的一类计算方法,依赖重 ...

  4. 【ML】线性回归的吉布斯采样(Gibbs Sampling)实现(python)

    导航 Bayesian Linear Regression Gibbs Sampling Derving a Gibbs sampler Update for β0\beta_0β0​ Update ...

  5. 使用MATLAB贝叶斯工具箱(BNT),进行吉布斯采样(Gibbs Sampling)之前需要做的编译工作...

    使用BNT(Bayesian Networks Toolbox)进行推断时,内置了吉布斯采样算法(即gibbs_sampling_inf_engine),但是如果调用这个引擎做推断会报错.报错内容大概 ...

  6. 【机器学习】主题建模+隐狄利克雷分配模型(LDA)+吉布斯采样

    [主题建模] 大数据时代,面对海量的数据,如果能知道它的主题是什么,从数据压缩的角度来看,我们可以通过很少量的主题来管理很大亮的文档数据集合,从而实现一个比较简洁的操作和管理文档集合的目的:除此之外, ...

  7. Markov Chain Monte Carlo 和 Gibbs Sampling算法

    Welcome To My Blog 一.蒙特卡洛模拟 蒙特卡洛模拟(Monte Carlo Simulation)是随机模拟的别名,关于随机模拟的一个重要的问题就是:给定一个概率分布p(x),如何生 ...

  8. 概率语言模型及其变形系列-LDA及Gibbs Sampling

    转载自:http://blog.csdn.net/yangliuy/article/details/8302599 本系列博文介绍常见概率语言模型及其变形模型,主要总结PLSA.LDA及LDA的变形模 ...

  9. 吉布斯采样(Gibbs Sampling)

    吉布斯采样(Gibbs Sampling)   常用于DBM和DBN,吉布斯采样主要用在像LDA和其它模型参数的推断上.   要完成Gibbs抽样,需要知道条件概率.也就是说,gibbs采样是通过条件 ...

最新文章

  1. windows服务搭建及命令总结
  2. 一些思考,没想好标题
  3. 软件分享:将应用一键打包成dmg文件
  4. python子类如何继承父类的实例变量?
  5. Unable to simultaneously satisfy constraints.
  6. php项目安装器,php服务器环境安装及项目搭建
  7. angular 加入原生html,Angular HTML绑定
  8. mysql数据库的安装和配置文件_MySQL 数据库安装与配置详解
  9. mysql实战33 | 我查这么多数据,会不会把数据库内存打爆?
  10. 从大学到结婚,我和小云的这13年
  11. php连接数据库非明文,MySQL 数据库配置 SSL 安全连接
  12. 对标Postman的ApiPost创始人:用户,是ApiPost唯一的信仰
  13. 诺基亚自带36个铃声_vivo手机的6个隐藏功能,快开启,帮你玩转vivo
  14. MongoDBTool - 测试版【GUI美化完毕】 源代码发布 --MongoDB爱好者,Winform爱好者 请进...
  15. mysql gtid 主键冲突_MySQL Last_SQL_Errno: 1062----经典错误,主键冲突
  16. xml笔记(马士兵)
  17. 软件工程-可行性分析
  18. macOS Monterey/BigSur 安装HP打印机驱动
  19. 使用setBounds()函数设置Java布局
  20. Unity在UI上使用MaskableGraphic类画一个矩形刻度尺

热门文章

  1. 一行修改网页内容的代码
  2. 服务器系统重装后多出一个盘,服务器系统重装后多出一个盘
  3. java时间间隔_java 计算两个 日期时间 相间隔多少天小时分钟 等
  4. protocal 协议
  5. docker php扩展,Docker php扩展安装篇
  6. 瑞萨单片机流水灯实例
  7. Java程序员的JavaScript学习笔记(13—— jQuery UI)
  8. 十分钟简明易懂搞定堆排序算法,附Python源码
  9. 批量获取文件的摘要(md5、sha1、sha256)
  10. 成为JavaGC专家Part I — 深入浅出Java垃圾回收机制 转载http://www.importnew.com/1993.html