R+NLP︱text2vec包——四类文本挖掘相似性指标 RWMD、cosine、Jaccard 、Euclidean (三,相似距离)
要学的东西太多,无笔记不能学~~ 欢迎关注公众号,一起分享学习笔记,记录每一颗“贝壳”~
———————————————————————————
在之前的开篇提到了text2vec,笔者将其定义为R语言文本分析"No.1",她是一个文本分析的生态系统。笔者在学习之后发现开发者简直牛!基于分享精神,将自学笔记记录出来。开篇内容参考:
重磅︱R+NLP:text2vec包——New 文本分析生态系统 No.1(一,简介)
R+NLP︱text2vec包——BOW词袋模型做监督式情感标注案例(二,情感标注)
text2vec中包括了四大类距离:
- Cosine
- Jaccard
- Relaxed Word Mover's Distance
- Euclidean
—————————————————————————————————————————————
一、文本分析常见三大距离——cosine/jaccard/Euclidean
1、Euclidean,欧氏距离是最易于理解的一种距离计算方法,源自欧氏空间中两点间的距离公式。
2、cosine,有没有搞错,又不是学几何,怎么扯到夹角余弦了?各位看官稍安勿躁。几何中夹角余弦可用来衡量两个向量方向的差异,机器学习中借用这一概念来衡量样本向量之间的差异。
3、jaccard,杰卡德相似系数,两个集合A和B的交集元素在A,B的并集中所占的比例,称为两个集合的杰卡德相似系数,用符号J(A,B)表示。
不展开描述,因为很常见,其中文本分析还有Hamming距离
详情戳我转的博客:机器学习中应用到的各种距离介绍(附上Matlab代码)
—————————————————————————————————————————————
二、文本分析相似性距离——Relaxed Word Mover's Distance(RWMD)
本节内容转载于IR实验室,《刘龙飞 From Word Embeddings To Document Distance》。
1、Earth Mover’s Distance (EMD)
Earth Mover’s Distance (EMD),和欧氏距离一样,他们都是一种距离度量的定义,可以用来测量某分布之间的距离。EMD主要应用在图像处理和语音信号处理领域。
EMD 实际上是线性规划中运输问题的最优解。首先,简要描述下运输问题。我们假设这个例子是从多个工厂运输货物到多个仓库。在上图左侧,P从在P1 到 Pm代表m座工厂,工厂Pi有重量为wPi的货物。在上图右侧,Q从Q1到Qn代表n个仓库,仓库Qj最大容量为wQj。
货物之间没有什么区别,都是同一类东西。每个仓库都希望装尽可能多的货物。如何尽可能高效把所有货物(实际上不一定是所有货物,部分也OK)从P运送到Q,就是运输问题的优化目标。在本例中,P、Q都是离散的,那么EMD可以用运输问题的Hungarian算法来计算它们之间的距离。挖个坑而已,这里不具体讨论。
2、EMD算法在自然语言处理领域的应用
通过词嵌入(Word Embedding),我们可以得到词语的分布式低维实数向量表示,我们可以计算词语之间的距离,即我们可以得到dij,因此可以将EMD引入自然语言处理领域。
Matt等人[2]将词嵌入与EMD相联系,用来度量文档距离。提出了WMD(word mover’s distance)算法,以及WCD(word centroid distance)、RWMD(relaxed word mover’s distance)两种牺牲精度降低复杂度的算法。
如何将一个文档变为分布P这种形式?
用归一化的词袋模型(nBOW, normalized bag-of-words)表示。其中P1表示词语,用计算该词的权重,其中表示词语i在文档中出现了次,P1的特征量用该词语的词向量表示。一个nBOW文档向量是比较稀疏的,因为大部分的词语不会出现在该文档中,且在生成文档向量时,去掉的停用词。用欧式距离计算词语与词语之间的距离。
假定数据集中只有两个文档,则这两个文档生成的归一化nBOW向量如下图所示。
转移量用矩阵T表示,生成的矩阵T如下图所示
表示词语i有多少转移到了词语j,
综上,Matt等人提出了WMD算法,WMD是EMD的一个特殊形式。
为了降低模型的计算复杂度,Matt等人提出了WCD和RWMD两个算法,这两个算法是WMD的两个不同下限,通过降低精度来降低计算复杂度。
Relaxed word moving distance(RWMD),通过放松限制条件,得到WMD的下限。通过去掉条件2,保留条件1。
作者:From word embeddings to document distances, Matt J. kusner et al.
链接:http://ir.dlut.edu.cn/news/detail/362
—————————————————————————————————————————————
三、R语言︱text2vec包中的四大相似性距离
text2vec环境中有这么四个求距离的函数:
sim2(x, y, method):分别计算x*y个相似性;
psim2(x, x, method):平行地求数据的相似性,x个相似性;
dist2(x, y, method):跟sim2相反,分别计算x*y个距离;
pdist2(x, x, method),平行地求数据的距离,x个距离。
注意到的是,sim2与psim2一个是生成了x*y个数值,一个是生成了x个数值,区别显而易见。
来看一个官方案例:
先准备好数据,还是之前的那个电影简述数据。
library(stringr)
library(text2vec)
data("movie_review")
# select 500 rows for faster running times
movie_review = movie_review[1:500, ]
prep_fun = function(x) {x %>% # make text lower casestr_to_lower %>% # remove non-alphanumeric symbolsstr_replace_all("[^[:alnum:]]", " ") %>% # collapse multiple spacesstr_replace_all("\\s+", " ")
}
movie_review$review_clean = prep_fun(movie_review$review)
定义两个文档:
doc_set_1 = movie_review[1:300, ]
it1 = itoken(doc_set_1$review_clean, progressbar = FALSE)# specially take different number of docs in second set
doc_set_2 = movie_review[301:500, ]
it2 = itoken(doc_set_2$review_clean, progressbar = FALSE)
1、Jaccard距离
dtm1 = create_dtm(it1, vectorizer)
dtm2 = create_dtm(it2, vectorizer)
d1_d2_jac_sim = sim2(dtm1, dtm2, method = "jaccard", norm = "none")
生成了一个300*200的相似性矩阵。
dtm1_2 = dtm1[1:200, ]
dtm2_2 = dtm2[1:200, ]
d1_d2_jac_psim = psim2(dtm1_2, dtm2_2, method = "jaccard", norm = "none")
str(d1_d2_jac_psim)
生成了一个200个数值的相似性系数。
2、cosine距离
d1_d2_cos_sim = sim2(dtm1, dtm2, method = "cosine", norm = "l2")
3、Euclidean 距离
x = dtm_tfidf_lsa[1:300, ]
y = dtm_tfidf_lsa[1:200, ]
m1 = dist2(x, y, method = "euclidean")
4、RWMD距离
data("movie_review")
tokens = movie_review$review %>%tolower %>%word_tokenizer
v = create_vocabulary(itoken(tokens)) %>%prune_vocabulary(term_count_min = 5, doc_proportion_max = 0.5)
corpus = create_corpus(itoken(tokens), vocab_vectorizer(v, skip_grams_window = 5))
dtm = get_dtm(corpus)
tcm = get_tcm(corpus)
glove_model = GloVe$new(word_vectors_size = 50, vocabulary = v, x_max = 10)
wv = glove_model$fit(tcm, n_iter = 10)
rwmd_model = RWMD(wv)
rwmd_dist = dist2(dtm[1:10, ], dtm[1:100, ], method = rwmd_model, norm = 'none')
R+NLP︱text2vec包——四类文本挖掘相似性指标 RWMD、cosine、Jaccard 、Euclidean (三,相似距离)相关推荐
- R+NLP︱text2vec包——BOW词袋模型做监督式情感标注案例(二,情感标注)
在之前的开篇提到了text2vec,笔者将其定义为R语言文本分析"No.1",她是一个文本分析的生态系统.笔者在学习之后发现开发者简直牛!基于分享精神,将自学笔记记录出来.开篇内容 ...
- 重磅︱R+NLP:text2vec包——New 文本分析生态系统 No.1(一,简介)
每每以为攀得众山小,可.每每又切实来到起点,大牛们,缓缓脚步来俺笔记葩分享一下吧,please~ --------------------------- 词向量的表示主流的有两种方式,一种当然是耳熟能 ...
- r语言 bsda包_使用R语言creditmodel包进行Vintage分析或留存率分析
1 什么是vintage分析? Vintage分析(账龄分析法)被广泛应用于信用卡及信贷行业,这个概念起源于葡萄酒,即不同年份出产的葡萄酒的品质有差异,那么不同时期开户或者放款的资产质量也有差异,其核 ...
- c语言 r语言 java,R语言rJava包安装载入及JAVA环境配置
rJava 包的安装与载入 一般文本分词的教程都会贴出: install.packages("rJava") library(rJava) 来引导我们装载rJava包,运行inst ...
- [置顶]R语言 ggplot2包
R语言 ggplot2包的学习 分析数据要做的第一件事情,就是观察它.对于每个变量,哪些值是最常见的?值域是大是小?是否有异常观测? ggplot2图形之基本语法: ggplot2的核心理念是将绘图 ...
- NLP发展的四个范式——Prompt的相关研究
本文主要基于论文<Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Lang ...
- 使用R语言creditmodel包进行Vintage分析或留存率分析
1 什么是vintage分析? Vintage分析(账龄分析法)被广泛应用于信用卡及信贷行业,这个概念起源于葡萄酒,即不同年份出产的葡萄酒的品质有差异,那么不同时期开户或者放款的资产质量也有差异,其核 ...
- python 包用法_Python 基础教程之包和类的用法
Python 基础教程之包和类的用法 这篇文章主要介绍了 Python 基础教程之包和类的用法的相关资料, 需要的朋友可以参考下 Python 是一种面向对象.解释型计算机程序设计语言,由 Guido ...
- 国家自然科学基金委公布生命科学部四类科学问题典型案例
明确基于四类科学问题属性的资助导向是自然科学基金委确立的三大改革任务之一.为使广大申请人准确理解和把握四类科学问题属性的具体内涵,根据科学基金深化改革工作要求,自然科学基金委编制了四类科学问题属性典型 ...
最新文章
- R语言基于日期范围筛选数据实战(Subset by a Date Range):日期范围之内的数据、日期范围之外的数据、日期之后的数据、日期之前的数据
- VMware 如何通过现有虚拟机克隆新的虚拟机
- POJ 2286 The Rotation Game IDA*
- OpenGL Single Point单点移动三角形的实例
- IntelliJ IDEA 单行注释调整
- 运营是一个产品价值传递的过程,互联网营销
- GaussDB NoSQL架构设计分享
- java memcached incr_Memcached incr/decr 命令
- 大数据营销平台该如何选择
- iptables/arptables实现单IP一级二级路由
- C#对dll文件的反编译
- [论文笔记]Outfit Compatibility Prediction and Diagnosis with Multi-Layered Comparison Network
- Java调用高德API接口
- CentOS7设置console口能连接
- 计算机组成原理平均cpi怎么算_计算机组成原理计算题
- python3.6安装tkinter_在SUSE SP3上安装新的python-3.6.4
- 基于MaxEnt模型的云南红豆杉潜在适宜分布预测
- 从STM32F407到AT32F407(一)
- 软件狂人精心筛选的正版破解软件下载站大全
- 非理性繁荣pdf_将申请与繁荣联系起来