parameter estimation for text analysis
p(θ∣X)=p(X∣θ)p(θ)p(X)p(\theta|X)=\frac{p(X|\theta)p(\theta)}{p(X)} p(θ∣X)=p(X)p(X∣θ)p(θ)
其中p(θ)p(\theta)p(θ)称为先验,p(X∣θ)p(X|\theta)p(X∣θ)称为似然,p(θ∣X)p(\theta|X)p(θ∣X)称为后验,p(X)p(X)p(X)称为evidence ,又叫边际似然(marginal likelihood)。
最大似然估计(MLE)是最大化似然函数p(X∣θ)p(X|\theta)p(X∣θ)。
最大后验概率(MAP)是最大化p(X∣θ)p(θ)p(X|\theta)p(\theta)p(X∣θ)p(θ)
两者都是点估计。最大后验概率是对参数指定一个先验分布。得到的值介于先验和MLE之间。
贝叶斯估计是基于贝叶斯公式进行求解,它将参数θ\thetaθ也看做随机变量,为θ\thetaθ指定一个先验分布,通过计算得到p(θ∣X)p(\theta|X)p(θ∣X)。
共轭
对似然函数,选定一个先验后,得到一个与先验具有相同函数形式的的后验分布(除了系数不同),此时,我们说先验分布和后验分布是共轭的,同时,这个先验是似然的共轭先验。
Conjugate Prior: In Bayesian probability theory, if the posterior distributions p(θ|x) are in the same family as the prior probability distribution p(θ), the prior and posterior are then called conjugate distributions, and the prior is called a conjugate prior for the likelihood. ----from wiki
共轭的好处是计算方便,同时超参数有明确的物理意义,就是伪计数。另外一个好处就是在计算似然函数时可以把似然函数中的参数通过积分给消掉,从而把似然表示为超参数的函数。这个要通过推导才能看出来。
在定义似然函数时,以伯努利分布和二项分布为例,什么时候要在似然函数上加上二项分布的系数,什么时候不加?当我们只是对一系列伯努利实验的结果序列进行建模时不用加系数。当我们对一系列伯努利实验的每个结果的次数进行建模时就要加上系数。
这里的叙述可能有问题,二项分布的似然函数的表达式是pk(1−p)n−kp^k(1-p)^{n-k}pk(1−p)n−k
unigram model假设文档之间独立,词之间也独立,那么生成一个文档的过程就是一个多次的多项式分布实验,重复N次就生成了N个单词。这是最简单的模型,其实就是多次的多项式分布实验。
其实也可以给unigram model中的单词被选中的概率一个先验分布,从而使用贝叶斯估计的那一套来进行计算。
贝叶斯网络是一类图模型,用来表示概率分布和条件依赖。
贝叶斯网路是一个有向图,节点表示随机变量,边表示条件关系,其中观测变量和隐含变量的表示又有不同。盘子表示随机变量的多次重复出现,右下角是出现次数。
推导
首先应该了解gamma函数:
gamma函数是阶乘函数在实数与复数上的扩展,定义为:
Γ(x)=∫0∞tx−1etdt\Gamma(x)=\int_0^\infty\frac{t^x-1}{e^t}dt Γ(x)=∫0∞ettx−1dt
如果x为正整数,有如下性质:
Γ(n)=n!\Gamma(n)=n! Γ(n)=n!
同时有如下递推公式:
Γ(x+1)=xΓ(x)\Gamma(x+1)=x\Gamma(x) Γ(x+1)=xΓ(x)
下面是Dirichlet分布,该分布是Beta分布从二维到K维的推广。
该分布的概率密度函数为:
f(p,α)=Γ(∑k=1Kαk)∏k=1KΓ(αk)∏k=1Kpkαk−1=1Δ(α)∏k=1Kpkαk−11Δ(α)=Γ(∑k=1Kαk)∏k=1KΓ(αk)α=(α1,α2,...,αk)p=(p1,p2,...,pk)f(p,\alpha)=\frac{\Gamma(\sum_{k=1}^K\alpha_k)}{\prod_{k=1}^{K}\Gamma(\alpha_k)}\prod_{k=1}^Kp_k^{\alpha_k-1}\\ =\frac{1}{\Delta(\alpha)}\prod_{k=1}^Kp_k^{\alpha_k-1}\\ \frac{1}{\Delta(\alpha)}=\frac{\Gamma(\sum_{k=1}^K\alpha_k)}{\prod_{k=1}^{K}\Gamma(\alpha_k)}\\ \alpha=(\alpha_1,\alpha_2, ...,\alpha_k)\\ p=(p_1,p_2,...,p_k) f(p,α)=∏k=1KΓ(αk)Γ(∑k=1Kαk)k=1∏Kpkαk−1=Δ(α)1k=1∏Kpkαk−1Δ(α)1=∏k=1KΓ(αk)Γ(∑k=1Kαk)α=(α1,α2,...,αk)p=(p1,p2,...,pk)
根据概率分布的定义:
∑k=1Kf(pk,α)=1\sum_{k=1}^Kf(p_k,\alpha)=1 k=1∑Kf(pk,α)=1
有
Δ(α)=∫∏k=1Kpkαk−1dp\Delta(\alpha)=\int \prod_{k=1}^Kp_k^{\alpha_k-1}dp Δ(α)=∫k=1∏Kpkαk−1dp
上面的式子在LDA的推导中会一直用到。
collapsed LDA推导
先约定下各个符号的含义。
M:文档数
K:主题数
V:词汇表大小
α⃗\vec\alphaα:文档的主题分布的先验分布的超参数
β⃗\vec\betaβ:主题的单词分布的先验分布的超参数
θ⃗m\vec\theta_mθm:表示p(z|d=m),文档m的主题分布,每个文档一个向量,构成矩阵Θ={θ⃗m}m=1M(M∗K)\Theta=\{\vec\theta_m\}_{m=1}^M(M*K)Θ={θm}m=1M(M∗K)
φ⃗k\vec\varphi_kφk表示p(t|z=k),主题k的单词分布,每个主题一个,构成矩阵Φ={φ⃗k}k=1K(k∗V)\Phi=\{\vec\varphi_k\}_{k=1}^K(k*V)Φ={φk}k=1K(k∗V)
在LDA中隐含变量是每个单词的主题zm,nz_{m,n}zm,n
collapsed的意思是把某些参数通过积分的形式给去掉。在LDA中就是把Θ\ThetaΘ和Φ\PhiΦ 给积掉。
我们推断的目标是p(z∣w)p(z|w)p(z∣w),即主题关于单词的后验分布。
p(z∣w)=p(z,w)p(w)=∏i=1Wp(zi,wi)∏i=1W∑k=1Kp(zi=k,wi)p(z|w)=\frac{p(z,w)}{p(w)}=\frac{\prod_{i=1}^Wp(z_i,w_i)}{{\prod_{i=1}^W\sum_{k=1}^Kp(z_i=k,w_i)}} p(z∣w)=p(w)p(z,w)=∏i=1W∑k=1Kp(zi=k,wi)∏i=1Wp(zi,wi)
WWW表示词汇表的大小
由于分母难以计算,我们使用gibbs抽样,通过计算full conditional p(zi∣z⃗¬i,w⃗)p(z_i|\vec{z}_{\neg i},\vec{w})p(zi∣z¬i,w)来模拟p(z∣w)p(z|w)p(z∣w),而full conditional可以通过下式计算
p(zi∣z⃗¬i,w⃗)=p(z⃗,w⃗)p(z⃗¬i,w⃗)=p(z⃗,w⃗)∫Zp(z⃗,x⃗)dzip(z_i|\vec{z}_{\neg i},\vec{w})=\frac{ p(\vec{z},\vec{w} ) } { p(\vec{z}_{\neg i},\vec{w}) } \\ =\frac{p(\vec{z},\vec{w} )}{\int_Zp(\vec{z},\vec{x})dz_i} p(zi∣z¬i,w)=p(z¬i,w)p(z,w)=∫Zp(z,x)dzip(z,w)
我们先求分子的联合分布。
p(w⃗,z⃗∣α⃗,β⃗)=p(w⃗∣z⃗,β⃗)p(z⃗∣α⃗)p(\vec{w},\vec{z}|\vec{\alpha},\vec{\beta})=p(\vec{w}|\vec{z},\vec{\beta})p(\vec{z}|\vec{\alpha}) p(w,z∣α,β)=p(w∣z,β)p(z∣α)
下面我们对两个概率分布分开处理
p(w⃗∣z⃗,β⃗)=∫p(w⃗,∣z⃗,Φ)p(Φ∣β⃗)dΦp(\vec{w}|\vec{z},\vec{\beta})=\int p(\vec{w},|\vec{z},\Phi)p(\Phi|\vec{\beta})d\Phi p(w∣z,β)=∫p(w,∣z,Φ)p(Φ∣β)dΦ
p(w⃗∣z⃗,Φ)=∏i=1Wp(wi∣zi)=∏i=1Wφzi,wi=∏k=1K∏i:zi=kp(wi=t∣zi=k)=∏k=1K∏t=1Vφk,tnk(t)p(\vec{w}|\vec{z},\Phi) \\ =\prod_{i=1}^Wp(w_i|z_i) \\ =\prod_{i=1}^W\varphi_{z_i,w_i} \\ =\prod_{k=1}^K\prod_{i:z_i=k}p(w_i=t|z_i=k) \\ =\prod^K_{k=1}\prod^V_{t=1} \varphi_{k,t}^{n_k^{(t)}} p(w∣z,Φ)=i=1∏Wp(wi∣zi)=i=1∏Wφzi,wi=k=1∏Ki:zi=k∏p(wi=t∣zi=k)=k=1∏Kt=1∏Vφk,tnk(t)
nk(t)n_k^{(t)}nk(t)表示单词t在主题k中出现的次数。
p(Φ∣β⃗)=∏k=1Kp(φ⃗k∣β⃗)=∏k=1K1Δ(β⃗)∏t=1Vφk,tβt−1p(\Phi|\vec\beta)=\prod_{k=1}^Kp(\vec\varphi_k|\vec\beta)\\ =\prod_{k=1}^K\frac{1}{\Delta(\vec\beta)}\prod_{t=1}^V\varphi_{k,t}^{\beta_t-1} p(Φ∣β)=k=1∏Kp(φk∣β)=k=1∏KΔ(β)1t=1∏Vφk,tβt−1
β⃗\vec\betaβ是一个V维的向量。
p(w⃗∣z⃗,β⃗)=∫p(w⃗,∣z⃗,Φ)p(Φ∣β⃗)dΦ=∫∏k=1K∏t=1Vφk,tnk(t)∏k=1K1Δ(β⃗)∏t=1Vφk,tβt−1dφk⃗=∫∏k=1k1Δ(β⃗)∏t=1Vφk,tnk(t)+βt−1dφk⃗=∏k=1k1Δ(β⃗)∫∏t=1Vφk,tnk(t)+βt−1dφk⃗=∏k=1KΔ(nk⃗+β⃗)Δ(β⃗)nk⃗={nk(t)}t=1Vp(\vec{w}|\vec{z},\vec{\beta})=\int p(\vec{w},|\vec{z},\Phi)p(\Phi|\vec{\beta})d\Phi \\ =\int \prod^K_{k=1}\prod^V_{t=1} \varphi_{k,t}^{n_k^{(t)}} \prod_{k=1}^K\frac{1}{\Delta(\vec{\beta})}\prod_{t=1}^V\varphi_{k,t}^{\beta_t-1}d\vec{\varphi_k}\\ =\int\prod_{k=1}^k\frac{1}{\Delta{(\vec{\beta})}}\prod^V_{t=1} \varphi_{k,t}^{n_k^{(t)}+\beta_t-1}d\vec{\varphi_k}\\ =\prod_{k=1}^k\frac{1}{\Delta{(\vec{\beta})}}\int\prod^V_{t=1} \varphi_{k,t}^{n_k^{(t)}+\beta_t-1}d\vec{\varphi_k}\\ =\prod_{k=1}^K\frac{\Delta(\vec{n_k} +\vec{\beta} ) }{\Delta(\vec{\beta})}\\ \vec{n_k}=\{n_k^{(t)}\}_{t=1}^V p(w∣z,β)=∫p(w,∣z,Φ)p(Φ∣β)dΦ=∫k=1∏Kt=1∏Vφk,tnk(t)k=1∏KΔ(β)1t=1∏Vφk,tβt−1dφk=∫k=1∏kΔ(β)1t=1∏Vφk,tnk(t)+βt−1dφk=k=1∏kΔ(β)1∫t=1∏Vφk,tnk(t)+βt−1dφk=k=1∏KΔ(β)Δ(nk+β)nk={nk(t)}t=1V
nk(t)n_k^{(t)}nk(t)是一个K*V的矩阵,表示主题k中单词t出现的次数。符号表示不准确。
下面求p(z⃗∣α⃗)p(\vec{z}|\vec{\alpha})p(z∣α)
p(z⃗∣α⃗)=∫p(z⃗∣Θ)p(Θ∣α⃗)dΘp(\vec{z}|\vec{\alpha})=\int p(\vec{z}|\Theta)p(\Theta|\vec{\alpha})d\Theta\\ p(z∣α)=∫p(z∣Θ)p(Θ∣α)dΘ
类似地
p(z⃗∣Θ‾)=∏i=1Wp(zi∣di)=∏m=1M∏k=1Kp(zi=k∣di=m)=∏m=1M∏k=1Kθm,knm(k)p(\vec{z}|\underline{\Theta})=\prod^W_{i=1}p(z_i|d_i)=\prod^M_{m=1}\prod^K_{k=1}p(z_i=k|d_i=m)=\prod^M_{m=1}\prod^K_{k=1}\theta^{n^{(k)}_m}_{m,k} p(z∣Θ)=i=1∏Wp(zi∣di)=m=1∏Mk=1∏Kp(zi=k∣di=m)=m=1∏Mk=1∏Kθm,knm(k)
p(Θ∣α⃗)=∏m=1Mp(θ⃗m∣α⃗)=∏m=1M1Δ(α⃗)∏k=1Kθm,kαk−1p(\Theta|\vec\alpha)=\prod_{m=1}^Mp(\vec\theta_m|\vec\alpha)\\ =\prod_{m=1}^M\frac{1}{ \Delta(\vec\alpha) }\prod_{k=1}^K\theta_{m,k}^{\alpha_k-1} p(Θ∣α)=m=1∏Mp(θm∣α)=m=1∏MΔ(α)1k=1∏Kθm,kαk−1
did_idi表示单词i所属的文档。nmkn_m^knmk表示文档m中主题k出现的次数。
同样,我们把Θ\ThetaΘ给积分掉。
p(z⃗∣α⃗)=∫p(z⃗∣Θ)p(Θ∣α⃗)dΘ=∫∏m=1M∏k=1Kθm,knm(k)∏m=1M1Δ(α⃗)∏k=1Kθm,kαk−1dθm⃗=∫∏m=1M1Δ(α⃗)∏k=1Kθm,knm(k)+αk−1dθm⃗=∏m=1M1Δ(α⃗)∫∏k=1Kθm,knm(k)+αk−1dθm⃗=∏m=1MΔ(nm⃗+α⃗)Δ(α⃗)nm⃗={nmk}k=1Kp(\vec{z}|\vec{\alpha})=\int p(\vec{z}|\Theta)p(\Theta|\vec{\alpha})d\Theta\\ =\int \prod_{m=1}^M\prod^K_{k=1}\theta^{n^{(k)}_m}_{m,k}\prod_{m=1}^M\frac{1}{\Delta(\vec{\alpha})}\prod_{k=1}^K\theta_{m,k}^{\alpha_k-1}d\vec{\theta_m}\\ =\int \prod_{m=1}^M\frac{1}{\Delta(\vec{\alpha})}\prod_{k=1}^K\theta_{m,k}^{n^{(k)}_m+\alpha_k-1}d\vec{\theta_m}\\ =\prod_{m=1}^M\frac{1}{\Delta(\vec{\alpha})}\int \prod_{k=1}^K\theta_{m,k}^{n^{(k)}_m+\alpha_k-1}d\vec{\theta_m}\\ =\prod_{m=1}^M\frac{\Delta(\vec{n_m}+\vec{\alpha})}{\Delta(\vec{\alpha})}\\ \vec{n_m}=\{{n_m^{k}\}}_{k=1}^K p(z∣α)=∫p(z∣Θ)p(Θ∣α)dΘ=∫m=1∏Mk=1∏Kθm,knm(k)m=1∏MΔ(α)1k=1∏Kθm,kαk−1dθm=∫m=1∏MΔ(α)1k=1∏Kθm,knm(k)+αk−1dθm=m=1∏MΔ(α)1∫k=1∏Kθm,knm(k)+αk−1dθm=m=1∏MΔ(α)Δ(nm+α)nm={nmk}k=1K
所以:
p(z⃗,w⃗∣α⃗,β⃗)=∏k=1KΔ(nk⃗+β⃗)Δ(β⃗)⋅∏m=1MΔ(nm⃗+α⃗)Δ(α⃗)p(\vec{z},\vec{w}|\vec{\alpha},\vec{\beta})=\prod^K_{k=1}\frac{\Delta(\vec{n_k}+\vec{\beta})}{\Delta(\vec{\beta})}\cdot\prod^M_{m=1}\frac{\Delta(\vec{n_m}+\vec{\alpha})}{\Delta(\vec{\alpha})} p(z,w∣α,β)=k=1∏KΔ(β)Δ(nk+β)⋅m=1∏MΔ(α)Δ(nm+α)
有了上面的联合分布,我们可以求单词w(m,n)的full conditional
有了这个联合分布,我们就可以使用gibbs 抽样对这个分布进行采样,因为w是观测到的已知数据,只有z是隐含变量,所以我们实际上真正需要采样的分布是p(z∣w)p(z|w)p(z∣w)。
p(zi=k∣z⃗¬i,w⃗)=p(z⃗,w⃗)p(z⃗¬i,w⃗)=p(w⃗∣z⃗)p(w⃗¬i∣z⃗¬i)p(wi)p(z⃗)p(z⃗¬i)=∏k=1KΔ(nk⃗+β⃗)Δ(β⃗)⋅∏m=1MΔ(nm⃗+α⃗)Δ(α⃗)∏k=1KΔ(nk,¬i⃗+β⃗)Δ(β⃗)⋅∏m=1MΔ(nm,¬i⃗+α⃗)Δ(α⃗)≈Δ(nk⃗+β⃗)Δ(nk,¬i⃗+β⃗)Δ(nm⃗+α⃗)Δ(nm,¬i⃗+α⃗)=∏t=1VΓ(nk(t)+βt)Γ(∑t=1Vnk(t)+βt)∏t=1VΓ(nk,¬i(t)+βt)Γ(∑t=1Vnk,¬i(t)+βt)∏k=1KΓ(nm(k)+αk)Γ(∑k=1Knm(k)+αk)∏k=1KΓ(nm,¬i(k)+αk)Γ(∑k=1Knm,¬i(k)+αk)=Γ(nk(t)+βt)Γ(∑t=1Vnk,¬i(t)+βt)Γ(nk,¬i(t)+βt)Γ(∑t=1V(nk(t)+βt))Γ(nm(k)+αk)Γ(∑k=1Knm,¬i(k)+αk)Γ(nm,¬i(k)+αk)Γ(∑k=1Knm(k)+αk)=nk,¬i(i)+βt∑t=1Vnk,¬i(i)+βtnm,¬i(k)+αk[∑k=1Knm(k)+αk]−1p(z_i=k|\vec{z}_{\neg i},\vec{w})=\frac{ p(\vec{z},\vec{w} ) } { p(\vec{z}_{\neg i},\vec{w}) } \\ =\frac{p(\vec{w}|\vec{z}) }{p(\vec{w}_{\neg i} |\vec{z}_{\neg i} ) p(w_i)} \frac{ p(\vec{z}) }{p(\vec{z}_{\neg i})} \\ = \frac{ \prod^K_{k=1}\frac{\Delta(\vec{n_k}+\vec{\beta})}{\Delta(\vec{\beta})}\cdot\prod^M_{m=1}\frac{\Delta(\vec{n_m}+\vec{\alpha})}{\Delta(\vec{\alpha})} } { \prod^K_{k=1}\frac{\Delta(\vec{n_{k,\neg i}}+\vec{\beta})}{\Delta(\vec{\beta})}\cdot\prod^M_{m=1}\frac{\Delta(\vec{n_{m,\neg i}}+\vec{\alpha})}{\Delta(\vec{\alpha})} } \\ \approx \frac{ \Delta(\vec{n_k} +\vec{\beta} ) }{ \Delta(\vec{n_{k,\neg i } } +\vec{\beta} ) } \frac{ \Delta(\vec{n_m}+\vec{\alpha}) }{ \Delta(\vec{n_{m,\neg i}}+\vec{\alpha}) } \\ = \frac{ \frac{\prod_{t=1}^V \Gamma(n_k^{(t)}+\beta_t ) }{\Gamma({\sum_{t=1}^V n_k^{(t)}+\beta_t } ) } } {\frac{\prod_{t=1}^V \Gamma(n_{k,\neg i}^{(t)}+\beta_t ) }{\Gamma({\sum_{t=1}^V n_{k,\neg i}^{(t)}+\beta_t } ) } } \frac{ \frac{\prod_{k=1}^K \Gamma(n_m^{(k)}+\alpha_k ) }{\Gamma({\sum_{k=1}^K n_m^{(k)}+\alpha_k } ) } } { \frac{\prod_{k=1}^K \Gamma(n_{m,\neg i}^{(k)}+\alpha_k ) }{\Gamma({\sum_{k=1}^K n_{m,\neg i}^{(k)}+\alpha_k } ) } }\\ =\frac{ \Gamma(n_k^{(t)} +\beta_t)\Gamma(\sum_{t=1}^V n_{k,\neg i}^{(t)} +\beta_t) } { \Gamma ( n_{k,\neg i}^{(t)} +\beta_t )\Gamma(\sum_{t=1}^V ( n_k^{(t)} +\beta_t) ) } \frac{ \Gamma(n_m^{(k)}+\alpha_k ) \Gamma( \sum_{k=1}^K n_{m,\neg i}^{(k)} +\alpha_k ) } {\Gamma(n_{m,\neg i}^{(k)} +\alpha_k )\Gamma( \sum_{k=1}^K n_m^{(k)}+\alpha_k )}\\ =\frac{ n_{k,\neg i}^{(i)} +\beta_t }{ \sum_{t=1}^V n_{k,\neg i}^{(i)} +\beta_t } \frac{ n_{m,\neg i}^{(k)} +\alpha_k }{ [\sum_{k=1}^K n_m^{(k)}+\alpha_k ]-1 } p(zi=k∣z¬i,w)=p(z¬i,w)p(z,w)=p(w¬i∣z¬i)p(wi)p(w∣z)p(z¬i)p(z)=∏k=1KΔ(β)Δ(nk,¬i+β)⋅∏m=1MΔ(α)Δ(nm,¬i+α)∏k=1KΔ(β)Δ(nk+β)⋅∏m=1MΔ(α)Δ(nm+α)≈Δ(nk,¬i+β)Δ(nk+β)Δ(nm,¬i+α)Δ(nm+α)=Γ(∑t=1Vnk,¬i(t)+βt)∏t=1VΓ(nk,¬i(t)+βt)Γ(∑t=1Vnk(t)+βt)∏t=1VΓ(nk(t)+βt)Γ(∑k=1Knm,¬i(k)+αk)∏k=1KΓ(nm,¬i(k)+αk)Γ(∑k=1Knm(k)+αk)∏k=1KΓ(nm(k)+αk)=Γ(nk,¬i(t)+βt)Γ(∑t=1V(nk(t)+βt))Γ(nk(t)+βt)Γ(∑t=1Vnk,¬i(t)+βt)Γ(nm,¬i(k)+αk)Γ(∑k=1Knm(k)+αk)Γ(nm(k)+αk)Γ(∑k=1Knm,¬i(k)+αk)=∑t=1Vnk,¬i(i)+βtnk,¬i(i)+βt[∑k=1Knm(k)+αk]−1nm,¬i(k)+αk
有如下关系式。
∑t=1V(nk(t)+βt)=∑t=1V(nk,¬i(t)+βt)+1\sum_{t=1}^V ( n_k^{(t)} +\beta_t) =\sum_{t=1}^V (n_{k,\neg i}^{(t)} +\beta_t ) +1 t=1∑V(nk(t)+βt)=t=1∑V(nk,¬i(t)+βt)+1
∑k=1Knm(k)+αk=∑k=1K(nm,¬i(k)+αk)+1\sum_{k=1}^K n_m^{(k)}+\alpha_k =\sum_{k=1}^K (n_{m,\neg i}^{(k)} +\alpha_k )+1 k=1∑Knm(k)+αk=k=1∑K(nm,¬i(k)+αk)+1
nk(t)+βt=nk,¬i(t)+βt+1nm(k)+αk=nm,¬i(k)+αk+1n_k^{(t)} +\beta_t=n_{k,\neg i}^{(t)} +\beta_t+1 \\ n_m^{(k)}+\alpha_k=n_{m,\neg i}^{(k)} +\alpha_k +1 nk(t)+βt=nk,¬i(t)+βt+1nm(k)+αk=nm,¬i(k)+αk+1
而gamma函数又有如下性质:
Γ(x+1)=xΓ(x)\Gamma(x+1)=x\Gamma(x) Γ(x+1)=xΓ(x)
下面求两个参数集合
利用贝叶斯公式
p(θm⃗∣M,α⃗)=1Zθm∏n=1Nmp(zm,n∣θm⃗)p(θm⃗∣α⃗)=Dir(θm⃗∣nm⃗+α⃗)p(\vec{\theta_m}|M,\vec{\alpha})\\ =\frac{ 1}{ Z_{\theta_m}}\prod_{n=1}^{N_m} p(z_{m,n}|\vec{\theta_m} )p( \vec{\theta_m}|\vec{\alpha}) \\ =Dir(\vec{\theta_m}|\vec{n_m}+\vec{\alpha}) p(θm∣M,α)=Zθm1n=1∏Nmp(zm,n∣θm)p(θm∣α)=Dir(θm∣nm+α)
p(φk⃗∣M,β⃗)=1Zφk∏i:zi=kp(wi∣φ⃗k)p(φ⃗k∣β⃗)=Dir(φ⃗k∣n⃗k+β⃗)p(\vec{\varphi_k}|M, \vec\beta)=\\ \frac{1}{Z_{\varphi_k}}\prod_{i:z_i=k}p(w_i|\vec\varphi_k)p(\vec\varphi_k|\vec\beta)\\ =Dir(\vec\varphi_k|\vec n_k +\vec\beta) p(φk∣M,β)=Zφk1i:zi=k∏p(wi∣φk)p(φk∣β)=Dir(φk∣nk+β)
如何预测新的文档的主题分布?
在训练中得到了主题关于单词的概率分布,在预测时我们认为这个概率分布式固定的,只需要预测新文档的主题分布就可以了。
分为如下几步:
1.首先,随机初始化新文档的每个单词的主题
2.按照gibbs抽样规则,对每个词的主题进行抽样,
3.重复2,直到gibbs sampling收敛。
4.统计新文档的主题分布。
参考:
1.https://zh.wikipedia.org/wiki/%CE%93%E5%87%BD%E6%95%B0
2.https://zh.wikipedia.org/wiki/%E7%8B%84%E5%88%A9%E5%85%8B%E9%9B%B7%E5%88%86%E5%B8%83
3.https://cxwangyi.files.wordpress.com/2012/01/llt.pdf
4.LDA八卦
parameter estimation for text analysis相关推荐
- 面向消费者的自动文本分析(Automated Text Analysis for Consumer Research) 2017 JCR 论文阅读
本文作者:合肥工业大学 管理学院 钱洋 email:1563178220@qq.com 内容可能有不到之处,欢迎交流. 文章简介 Humphreys A, Jen-Hui Wang R. Automa ...
- 参数估计(Parameter Estimation)
Parameter Estimation. 参数估计(Parameter Estimation) 文章目录 参数估计(Parameter Estimation) 参数估计 1. 点估计--矩估计 2. ...
- Re18:读论文 GCI Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis
诸神缄默不语-个人CSDN博文目录 论文名称:Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis 论文 ...
- 【Elasticsearch】文本分析 Text analysis (1)
Text analysis 是什么 Text analysis 是将分结构化文本转化成结构化文本的过程. 触发时机 当索引或者搜索text类型字段,就会触发文本分析. 工作流程 1.字符过滤器 字符过 ...
- 大数据分析笔记 (6) - 文本分析 (Text Analysis)
大数据分析笔记 - 文本分析 总览 文本分析步骤 挑战 第一步:收集原始文本数据(Collecting Raw Text) 第二步:表示文本 (Representing Text) 第三步:词频-逆文 ...
- Julia与R/Python/MATLAB比较及Julia中的Text Analysis模块
http://site.douban.com/146782/widget/notes/15468638/note/356127615/ 上午等着R跑数,R是出了名的慢,特别是处理文 ...
- Perameter estimation for text analyse (下)
文章目录 5. Latent Dirichlet allocation 5.1 Mixture modelling 5.2 Generative model 5.3 Likelihood 5.4 In ...
- 【Elasticsearch】文本分析 Text analysis 查询_search中使用分析 (3)
内置的analyzer fingerprint 指纹分析器实现了一个指纹算法,OpenRefine项目使用该算法来协助聚类. 内部的流程为 转换小写 去掉扩展字符 排序 删除重复字符 删除配置的停止( ...
- kaggle案例(part1)--Text Analysis Topic Modelling with spaCy||GENSIM
学习笔记,仅供参考,有错必纠 前情提要 我的环境中没有spacy和gensim,在经过一番倒腾后,成功把代码主体跑完. 相关问题,及解决方案: 执行python -m spacy download e ...
最新文章
- OpenCV 特征点检测与图像匹配
- Jmeter笔记(5)线程组执行顺序
- 体育直播软件发展的三个阶段
- .NET高级代码审计(第三课)Fastjson反序列化漏洞
- [python]---从java到python(03)---爬虫
- python中 [ 闭包 ] 小结
- 《windows核心编程》–Windows内存体结构(一)
- select vue 获取name_在vue的组件中获取select2插件的值
- java软件安装教程_r软件安装教程
- 启动计算机键盘没反应,电脑键盘个别键没反应怎么办
- 关于USB鼠标驱动部分及问题解决
- k8s之无状态服务Deployment1
- android高仿微信表情输入与键盘输入详解-解决跳闪与表情切换问题
- deepin系统维护(系统扩容)deepin live
- 交替打印A1B2C3-Java多线程实现方式
- Gerber 格式详解
- 性能测试---搬运自Performance Testing Guidance for Web Applications,作者J.D. Meier, Carlos Farre, Prashant Ban
- 英国4g网络频段_英国需要网络会议
- javacv从入门到精通——第三章:基本使用
- poi导出带有下拉选项的Excel,解决下拉选项过多报错的问题
热门文章
- 解决 npm install 时出现的.git can‘t be found (see https://git.io/Jc3F9)的问题 run `npm fund` for details问题解决
- 【Appium】测试时遇到手机内嵌H5页面的切换问题
- 复杂事件处理引擎—Esper 处理模型
- oracle 获取第三行,Oracle 11g 第三章知识点总结——单行函数
- 重温电视剧《陆小凤之凤舞九天》
- 【Google】谷歌浏览器背景颜色变黑
- 《构建之法》第一次作业
- 网络编程 day03 (linux) UDP 协议的传输 与函数 getsockopt setsockopt sendto(经socket传送数据)recvfrom
- 服务器文件上传500报错,500 InternalServerError
- Oracle存储过程取当天为当年的第几周(自然周),以及当年总周数