文章目录

  • 系列目录(系列更新中)
  • 1.概述
  • 2.统计共现矩阵
  • 3.使用GloVe模型训练词向量
    • 3.1.模型公式
    • 3.2.模型怎么来的
    • 3.3.Glove和skip-gram、CBOW模型对比
  • 4.实战教程

系列目录(系列更新中)

  • 第二讲 cs224n系列之word2vec & 词向量

  • word2vec进阶之skim-gram和CBOW模型(Hierarchical Softmax、Negative Sampling)

  • 第三讲 cs224n系列之skip-pram优化 & Global Vector by Manning & 词向量评价

    • 理解GloVe模型(+总结)

1.概述

  • 模型目标:进行词的向量化表示,使得向量之间尽可能多地蕴含语义和语法的信息。
  • 输入:语料库
  • 输出:词向量
  • 方法概述:首先基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe模型学习词向量。
    开始 -> 统计共现矩阵 -> 训练词向量 -> 结束

2.统计共现矩阵

设共现矩阵为X,其元素为 X i , j X_{i,j} Xi,j​。
X i , j X_{i,j} Xi,j​的意义为:在整个语料库中,单词i和单词j共同出现在一个窗口中的次数。
举个栗子:
设有语料库:

i love you but you love him i am sad

这个小小的语料库只有1个句子,涉及到7个单词:i、love、you、but、him、am、sad。
如果我们采用一个窗口宽度为5(左右长度都为2)的统计窗口,那么就有以下窗口内容:

窗口标号 中心词 窗口内容
0 i i love you
1 love i love you but
2 you i love you but you
3 but love you but you love
4 you you but you love him
5 love but you love him i
6 him you love him i am
7 i love him i am sad
8 am him i am sad
9 sad i am sad

窗口0、1长度小于5是因为中心词左侧内容少于2个,同理窗口8、9长度也小于5。
以窗口5为例说明如何构造共现矩阵:
中心词为love,语境词为but、you、him、i;则执行:

X l o v e , b u t + = 1 X_{love,but}+=1 Xlove,but​+=1
X l o v e , y o u + = 1 X_{love,you}+=1 Xlove,you​+=1
X l o v e , h i m + = 1 X_{love,him}+=1 Xlove,him​+=1
X l o v e , i + = 1 X_{love,i}+=1 Xlove,i​+=1

使用窗口将整个语料库遍历一遍,即可得到共现矩阵X。

3.使用GloVe模型训练词向量

3.1.模型公式

先看模型,代价函数长这个样子:

J = ∑ i , j N f ( X i , j ) ( v i T v j + b i + b j − l o g ( X i , j ) ) 2 J=\sum_{i,j}^Nf(X_{i,j})(v_{i}^Tv_{j}+b_{i}+b_{j}-log(X_{i,j}))^2 J=i,j∑N​f(Xi,j​)(viT​vj​+bi​+bj​−log(Xi,j​))2

v i v_{i} vi​, v j v_{j} vj​是单词i和单词j的词向量, b i b_{i} bi​, b j b_{j} bj​是两个标量(作者定义的偏差项),f是权重函数(具体函数公式及功能下一节介绍),N是词汇表的大小(共现矩阵维度为N*N)。
可以看到,GloVe模型没有使用神经网络的方法。

3.2.模型怎么来的

那么作者为什么这么构造模型呢?首先定义几个符号:

X i = ∑ j = 1 N X i , j X_{i}=\sum_{j=1}^NX_{i,j} Xi​=j=1∑N​Xi,j​

其实就是矩阵单词i那一行的和;
P i , k = X i , k X i P_{i,k}=\dfrac{X_{i,k}}{X_{i}} Pi,k​=Xi​Xi,k​​

条件概率,表示单词k出现在单词i语境中的概率;
r a t i o i , j , k = P i , k P j , k ratio_{i,j,k}=\dfrac{P_{i,k}}{P_{j,k}} ratioi,j,k​=Pj,k​Pi,k​​

两个条件概率的比率。
作者的灵感是这样的:
作者发现, r a t i o i , j , k ratio_{i,j,k} ratioi,j,k​这个指标是有规律的,规律统计在下表:

r a t i o i , j , k ratio_{i,j,k} ratioi,j,k​的值 单词j,k相关 单词j,k不相关
单词i,k相关 趋近1 很大
单词i,k不相关 很小 趋近1

很简单的规律,但是有用。
思想:假设我们已经得到了词向量,如果我们用词向量 v i v_{i} vi​、 v j v_{j} vj​、 v k v_{k} vk​通过某种函数计算 r a t i o i , j , k ratio_{i,j,k} ratioi,j,k​,能够同样得到这样的规律的话,就意味着我们词向量与共现矩阵具有很好的一致性,也就说明我们的词向量中蕴含了共现矩阵中所蕴含的信息。
设用词向量 v i v_{i} vi​、 v j v_{j} vj​、 v k v_{k} vk​计算 r a t i o i , j , k ratio_{i,j,k} ratioi,j,k​的函数为 g ( v i , v j , v k ) g(v_{i},v_{j},v_{k}) g(vi​,vj​,vk​)(我们先不去管具体的函数形式),那么应该有:

P i , k P j , k = r a t i o i , j , k = g ( v i , v j , v k ) \dfrac{P_{i,k}}{P_{j,k}}=ratio_{i,j,k}=g(v_{i},v_{j},v_{k}) Pj,k​Pi,k​​=ratioi,j,k​=g(vi​,vj​,vk​)

即:
P i , k P j , k = g ( v i , v j , v k ) \dfrac{P_{i,k}}{P_{j,k}}=g(v_{i},v_{j},v_{k}) Pj,k​Pi,k​​=g(vi​,vj​,vk​)

即二者应该尽可能地接近;
很容易想到用二者的差方来作为代价函数:
J = ∑ i , j , k N ( P i , k P j , k − g ( v i , v j , v k ) ) 2 J=\sum_{i,j,k}^N(\dfrac{P_{i,k}}{P_{j,k}}-g(v_{i},v_{j},v_{k}))^2 J=i,j,k∑N​(Pj,k​Pi,k​​−g(vi​,vj​,vk​))2

但是仔细一看,模型中包含3个单词,这就意味着要在NNN的复杂度上进行计算,太复杂了,最好能再简单点。
现在我们来仔细思考 g ( v i , v j , v k ) g(v_{i},v_{j},v_{k}) g(vi​,vj​,vk​),或许它能帮上忙;
作者的脑洞是这样的:

  1. 要考虑单词i和单词j之间的关系,那 g ( v i , v j , v k ) g(v_{i},v_{j},v_{k}) g(vi​,vj​,vk​)中大概要有这么一项吧: v i − v j v_{i}-v_{j} vi​−vj​;嗯,合理,在线性空间中考察两个向量的相似性,不失线性地考察,那么 v i − v j v_{i}-v_{j} vi​−vj​大概是个合理的选择;
  2. r a t i o i , j , k ratio_{i,j,k} ratioi,j,k​是个标量,那么 g ( v i , v j , v k ) g(v_{i},v_{j},v_{k}) g(vi​,vj​,vk​)最后应该是个标量啊,虽然其输入都是向量,那內积应该是合理的选择,于是应该有这么一项吧: ( v i − v j ) T v k (v_{i}-v_{j})^Tv_{k} (vi​−vj​)Tvk​。
  3. 然后作者又往 ( v i − v j ) T v k (v_{i}-v_{j})^Tv_{k} (vi​−vj​)Tvk​的外面套了一层指数运算exp(),得到最终的 g ( v i , v j , v k ) = e x p ( ( v i − v j ) T v k ) g(v_{i},v_{j},v_{k})=exp((v_{i}-v_{j})^Tv_{k}) g(vi​,vj​,vk​)=exp((vi​−vj​)Tvk​);
    最关键的第3步,为什么套了一层exp()?
    套上之后,我们的目标是让以下公式尽可能地成立:
    P i , k P j , k = g ( v i , v j , v k ) \dfrac{P_{i,k}}{P_{j,k}}=g(v_{i},v_{j},v_{k}) Pj,k​Pi,k​​=g(vi​,vj​,vk​)

即:
P i , k P j , k = e x p ( ( v i − v j ) T v k ) \dfrac{P_{i,k}}{P_{j,k}}=exp((v_{i}-v_{j})^Tv_{k}) Pj,k​Pi,k​​=exp((vi​−vj​)Tvk​)

即:
P i , k P j , k = e x p ( v i T v k − v j T v k ) \dfrac{P_{i,k}}{P_{j,k}}=exp(v_{i}^Tv_{k}-v_{j}^Tv_{k}) Pj,k​Pi,k​​=exp(viT​vk​−vjT​vk​)

即:
P i , k P j , k = e x p ( v i T v k ) e x p ( v j T v k ) \dfrac{P_{i,k}}{P_{j,k}}=\dfrac{exp(v_{i}^Tv_{k})}{exp(v_{j}^Tv_{k})} Pj,k​Pi,k​​=exp(vjT​vk​)exp(viT​vk​)​

然后就发现找到简化方法了:只需要让上式分子对应相等,分母对应相等,即:
P i , k = e x p ( v i T v k ) {P_{i,k}}={exp(v_{i}^Tv_{k})} Pi,k​=exp(viT​vk​)并且 P j , k = e x p ( v j T v k ) {P_{j,k}}={exp(v_{j}^Tv_{k})} Pj,k​=exp(vjT​vk​)

然而分子分母形式相同,就可以把两者统一考虑了,即:
P i , j = e x p ( v i T v j ) {P_{i,j}}={exp(v_{i}^Tv_{j})} Pi,j​=exp(viT​vj​)

本来我们追求:
P i , k P j , k = g ( v i , v j , v k ) \dfrac{P_{i,k}}{P_{j,k}}=g(v_{i},v_{j},v_{k}) Pj,k​Pi,k​​=g(vi​,vj​,vk​)

现在只需要追求:
P i , j = e x p ( v i T v j ) {P_{i,j}}={exp(v_{i}^Tv_{j})} Pi,j​=exp(viT​vj​)

两边取个对数:
l o g ( P i , j ) = v i T v j log(P_{i,j})=v_{i}^Tv_{j} log(Pi,j​)=viT​vj​

那么代价函数就可以简化为:
J = ∑ i , j N ( l o g ( P i , j ) − v i T v j ) 2 J=\sum_{i,j}^N(log(P_{i,j})-v_{i}^Tv_{j})^2 J=i,j∑N​(log(Pi,j​)−viT​vj​)2

现在只需要在NN的复杂度上进行计算,而不是NN*N,现在关于为什么第3步中,外面套一层exp()就清楚了,正是因为套了一层exp(),才使得差形式变成商形式,进而等式两边分子分母对应相等,进而简化模型。
然而,出了点问题。
仔细看这两个式子:
l o g ( P i , j ) = v i T v j 和 l o g ( P j , i ) = v j T v i log(P_{i,j})=v_{i}^Tv_{j}和log(P_{j,i})=v_{j}^Tv_{i} log(Pi,j​)=viT​vj​和log(Pj,i​)=vjT​vi​

l o g ( P i , j ) log(P_{i,j}) log(Pi,j​)不等于 l o g ( P j , i ) log(P_{j,i}) log(Pj,i​)但是 v i T v j v_{i}^Tv_{j} viT​vj​等于 v j T v i v_{j}^Tv_{i} vjT​vi​;即等式左侧不具有对称性,但是右侧具有对称性。
数学上出了问题。
补救一下好了。
现将代价函数中的条件概率展开:
l o g ( P i , j ) = v i T v j log(P_{i,j})=v_{i}^Tv_{j} log(Pi,j​)=viT​vj​

即为:
l o g ( X i , j ) − l o g ( X i ) = v i T v j log(X_{i,j})-log(X_{i})=v_{i}^Tv_{j} log(Xi,j​)−log(Xi​)=viT​vj​

将其变为:
l o g ( X i , j ) = v i T v j + b i + b j log(X_{i,j})=v_{i}^Tv_{j}+b_{i}+b_{j} log(Xi,j​)=viT​vj​+bi​+bj​

即添了一个偏差项 b j b_{j} bj​,并将 l o g ( X i ) log(X_{i}) log(Xi​)吸收到偏差项 b i b_{i} bi​中。
于是代价函数就变成了:
J = ∑ i , j N ( v i T v j + b i + b j − l o g ( X i , j ) ) 2 J=\sum_{i,j}^N(v_{i}^Tv_{j}+b_{i}+b_{j}-log(X_{i,j}))^2 J=i,j∑N​(viT​vj​+bi​+bj​−log(Xi,j​))2

然后基于出现频率越高的词对儿权重应该越大的原则,在代价函数中添加权重项,于是代价函数进一步完善:
J = ∑ i , j N f ( X i , j ) ( v i T v j + b i + b j − l o g ( X i , j ) ) 2 J=\sum_{i,j}^Nf(X_{i,j})(v_{i}^Tv_{j}+b_{i}+b_{j}-log(X_{i,j}))^2 J=i,j∑N​f(Xi,j​)(viT​vj​+bi​+bj​−log(Xi,j​))2

具体权重函数应该是怎么样的呢?
首先应该是非减的,其次当词频过高时,权重不应过分增大,作者通过实验确定权重函数为:
f ( x ) = { ( x / x m a x ) 0.75 , if  x < x m a x 1 , if  x > = x m a x f(x) = \begin{cases} (x/xmax)^{0.75}, & \text{if $x < xmax$} \\ 1, & \text{if $x >= xmax$} \end{cases} f(x)={(x/xmax)0.75,1,​if x<xmaxif x>=xmax​

到此,整个模型就介绍完了。

3.3.Glove和skip-gram、CBOW模型对比

Cbow/Skip-Gram 是一个local context window的方法,比如使用NS来训练,缺乏了整体的词和词的关系,负样本采用sample的方式会缺失词的关系信息。
另外,直接训练Skip-Gram类型的算法,很容易使得高曝光词汇得到过多的权重

Global Vector融合了矩阵分解Latent Semantic Analysis (LSA)的全局统计信息和local context window优势。融入全局的先验统计信息,可以加快模型的训练速度,又可以控制词的相对权重。

我的理解是skip-gram、CBOW每次都是用一个窗口中的信息更新出词向量,但是Glove则是用了全局的信息(共线矩阵),也就是多个窗口进行更新

4.实战教程

GloVe 教程之实战入门+python gensim 词向量

参考链接:
理解GloVe模型

理解GloVe模型(+总结)相关推荐

  1. 理解GloVe模型(Global vectors for word representation)

    理解GloVe模型 概述 模型目标:进行词的向量化表示,使得向量之间尽可能多地蕴含语义和语法的信息. 输入:语料库 输出:词向量 方法概述:首先基于语料库构建词的共现矩阵,然后基于共现矩阵和GloVe ...

  2. NLP.TM | GloVe模型及其Python实现

    在进行自然语言处理中,需要对文章的中的语义进行分析,于是迫切需要一些模型去描述词汇的含义,很多人可能都知道word2vector算法,诚然,word2vector是一个非常优秀的算法,并且被广泛运用, ...

  3. glove中文词向量_Summary系列glove模型解读

    一.Glove模型简介 语义文本向量表示可以应用在信息抽取,文档分类,问答系统,NER(Named Entity Recognition)和语义解析等领域中,大都需要计算单词或者文本之间的距离或者相似 ...

  4. python glove训练模型_NLP.TM | GloVe模型及其Python实现

    在进行自然语言处理中,需要对文章的中的语义进行分析,于是迫切需要一些模型去描述词汇的含义,很多人可能都知道word2vector算法,诚然,word2vector是一个非常优秀的算法,并且被广泛运用, ...

  5. 词向量:GloVe 模型详解

      本内容主要介绍构建词向量的 GloVe 模型. 1 前言   在 GloVe 模型被提出之前,学习词向量的模型主要有两大类: 全局矩阵分解方法,例如潜在语义分析(Latent semantic a ...

  6. 【NLP模型笔记】GloVe模型简介

    GloVe模型 glove模型的参考资料链接如下: https://nlp.stanford.edu/projects/glove/ 论文链接(pdf)如下: https://nlp.stanford ...

  7. 两个相邻盒子的边框怎么只显示一个_一篇文章带你快速理解盒子模型「经典案例」...

    今天带大家快速理解盒子模型,直接上代码: css盒子 我的css盒子测试模型 上面代码没有任何难度,只是写了一个div标签,大家已经知道,div标签是块级元素,所以会占满一行: 但是我们也注意到了图片 ...

  8. 一文理解Netty模型架构

    转载自  一文理解Netty模型架构 本文基于Netty4.1展开介绍相关理论模型,使用场景,基本组件.整体架构,知其然且知其所以然,希望给读者提供学习实践参考. 1 Netty简介 Netty是 一 ...

  9. 菜鸟笔记-DuReader阅读理解基线模型代码阅读笔记(八)—— 模型训练-训练

    系列目录: 菜鸟笔记-DuReader阅读理解基线模型代码阅读笔记(一)--数据 菜鸟笔记-DuReader阅读理解基线模型代码阅读笔记(二)-- 介绍及分词 菜鸟笔记-DuReader阅读理解基线模 ...

最新文章

  1. C语言创建二叉树的方法(全)
  2. Linux中基于snmp协议的mrtg安装及使用
  3. 定义了过多字段-Excel
  4. 热转印法手工自制单面PCB流程和技巧总结
  5. C语言实用算法系列之strtok字符串分割、strcat字符串拼接、strcpy、strcmp
  6. Web前端基础---CSS样式--盒子模型--浮动与定位
  7. java书籍_腾讯大牛每天都要花一小时读的这11本java电子书籍,你还不看?
  8. IS-IS hello 包结构及邻接关系的建立
  9. 线性反馈移位寄存器(LFSR,Linear Feedback Shift Register)
  10. 麻省理工18年春软件构造课程阅读03“测试”
  11. 表格里加横线一分为二_表格分割线如何一分为二
  12. adobenbsp;dreamweavernbsp;cs5序列号不对,…
  13. css滤镜、混合模式、hls颜色值
  14. 《谁说大象不能跳舞》值得一读
  15. 菜鸟攒机之深度学习(上)
  16. 融云集成一个聊天室页面(vue版本)
  17. 计网PPT 第八章 互联网上的音频和视频服务
  18. html img图片不变形等比例缩放,兼容ie6
  19. 17种数据可视化图表,有哪些适用场景?
  20. 天马行空,用星巴克指数分析长沙地产发展

热门文章

  1. vbs执行ctrl+空格_VBS中解决路径带空格的三种方法
  2. Sql Server REPLACE函数的使用;SQL中 patindex函数的用法
  3. 下级对上级回复已阅知_下级对上级回复已阅知_工作中回复领导,绝不能用OK!除此之外,还有四条...
  4. Java中环境变量的设置
  5. 极好的搜索引擎: Goolgle 本网站和www搜索插件
  6. 计算机网络----宽带速度kbps、KB、Mbps
  7. ubuntu16.04安装flash player
  8. C# 中 KeyPress 、KeyDown 和KeyPress的详细区别[转]
  9. ubuntu开机登录,操作技巧,嵌入式命令等
  10. bilibili_Linux网络基础5_SSH远程管理服务