python+gensim︱jieba分词、词袋doc2bow、TFIDF文本挖掘
一、jieba分词功能
来源github:https://github.com/fxsjy/jieba
1、主要模式
支持三种分词模式:
- 精确模式,试图将句子最精确地切开,适合文本分析;
- 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
- 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 支持繁体分词
支持自定义词典
.
2、算法
- 基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图 (DAG)
- 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合
- 对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法
.
3、主要功能
- jieba.cut
方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用HMM 模型
- 1
- 2
- jieba.cut_for_search
方法接受两个参数:需要分词的字符串;是否使用 HMM模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细 待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8
- 1
- 2
- 3
- jieba.Tokenizer(dictionary=DEFAULT_DICT)
新建自定义分词器,可用于同时使用不同词典。jieba.dt 为默认分词器,所有全局分词相关函数都是该分词器的映射。
- 1
- 载入词典
用法: jieba.load_userdict(file_name) # file_name 为文件类对象或自定义词典的路径词典格式和 dict.txt一样,一个词占一行;每一行分三部分:词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒。file_name若为路径或二进制方式打开的文件,则文件必须为 UTF-8 编码。 词频省略时使用自动计算的能保证分出该词的词频。
- 1
- 2
- 3
- 4
- 调整词典。
使用 add_word(word, freq=None, tag=None) 和 del_word(word)可在程序中动态修改词典。使用 suggest_freq(segment, tune=True) 可调节单个词语的词频,使其能(或不能)被分出来。注意:自动计算的词频在使用 HMM 新词发现功能时可能无效。
- 1
- 2
- 3
- 4
- 基于 TF-IDF 算法的关键词抽取
import jieba.analysejieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=())
sentence 为待提取的文本
topK 为返回几个 TF/IDF 权重最大的关键词,默认值为 20
withWeight 为是否一并返回关键词权重值,默认值为 False
allowPOS 仅包括指定词性的词,默认值为空,即不筛选
jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 实例,idf_path 为 IDF 频率文件
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 基于 TextRank 算法的关键词抽取
jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v')) 直接使用,接口相同,注意默认过滤词性。
jieba.analyse.TextRank() 新建自定义 TextRank 实例
- 1
- 2
- 词性标注
jieba.posseg.POSTokenizer(tokenizer=None) 新建自定义分词器,tokenizer 参数可指定内部使用的 jieba.Tokenizer 分词器。jieba.posseg.dt 为默认词性标注分词器。
标注句子分词后每个词的词性,采用和 ictclas 兼容的标记法。
- 1
- 2
- 并行分词
基于 python 自带的 multiprocessing 模块,目前暂不支持 Windows用法:jieba.enable_parallel(4) # 开启并行分词模式,参数为并行进程数
jieba.disable_parallel() # 关闭并行分词模式
- 1
- 2
- 3
- 4
- 5
- 6
.
应用一:自定义词典或特定词识别
自定义词典加入方式一:
import jieba
jieba.load_userdict("userdict.txt")
- 1
- 2
自定义词典的格式为词语-词频-词性
,其中词频与词性可以没有:
云计算 5
李小福 2 nr
创新办 3 i
easy_install 3 eng
好用 300
韩玉赏鉴 3 nz
八一双鹿 3 nz
台中
凱特琳 nz
Edu Trust认证 2000
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
自定义词加入方式二:
- add_word(word, freq=None, tag=None) 和 del_word(word) 可在程序中动态修改词典。
- suggest_freq(segment, tune=True) 可调节单个词语的词频,使其能(或不能)被分出来。
>>> print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))
如果/放到/post/中将/出错/。
>>> jieba.suggest_freq(('中', '将'), True)
494
>>> jieba.add_word(('中将'), freq = 500)
- 1
- 2
- 3
- 4
- 5
- 6
.
应用二:关键词提取
import jieba.analyse
text = '新媒体运营如何提升自己的写作能力'# 添加新词
word = '新媒体运营'
jieba.suggest_freq((word), True)
jieba.add_word(word, freq=100, tag='get')# 利用idf进行关键词提取
jieba.analyse.set_idf_path("/mnt/gensim/jieba-master/idf.txt.big")
print ' '.join(jieba.analyse.extract_tags(text, topK=100, withWeight=False, allowPOS=('get','n','ns','vn')))
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
jieba.analyse.set_idf_path()
可以在关键词提取时,进行IDF设置,一般来说,IDF设置大一些,露出机会就多一些。
add_word()
此时可以自定义一种词性,这样就可以达到特定领域词的提取。
此时还可以设置停用词:
jieba.analyse.set_stop_words(file_name)
- 1
格式为:
the
of
is
and
to
in
that
we
for
an
are
by
be
as
on
with
can
if
from
which
you
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
二、gensim的doc2bow实现词袋模型
词袋模型不做过多介绍,直接来个案例
from gensim import corpora, models, similarities
raw_documents = [ '0无偿居间介绍买卖毒品的行为应如何定性', '1吸毒男动态持有大量毒品的行为该如何认定', '2如何区分是非法种植毒品原植物罪还是非法制造毒品罪', '3为毒贩贩卖毒品提供帮助构成贩卖毒品罪', '4将自己吸食的毒品原价转让给朋友吸食的行为该如何认定', '5为获报酬帮人购买毒品的行为该如何认定', '6毒贩出狱后再次够买毒品途中被抓的行为认定', '7虚夸毒品功效劝人吸食毒品的行为该如何认定', '8妻子下落不明丈夫又与他人登记结婚是否为无效婚姻', '9一方未签字办理的结婚登记是否有效', '10夫妻双方1990年按农村习俗举办婚礼没有结婚证 一方可否起诉离婚', '11结婚前对方父母出资购买的住房写我们二人的名字有效吗', '12身份证被别人冒用无法登记结婚怎么办?', '13同居后又与他人登记结婚是否构成重婚罪', '14未办登记只举办结婚仪式可起诉离婚吗', '15同居多年未办理结婚登记,是否可以向法院起诉要求离婚'
]
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
载入中文数据以及对应的包,corpora是构造词典的, similarities求相似性可以用得到。
texts = [[word for word in jieba.cut(document, cut_all=True)] for document in raw_documents]
- 1
- 2
将词语进行分词,并进行存储。
dictionary = corpora.Dictionary(texts)
- 1
寻找整篇语料的词典、所有词,corpora.Dictionary。
corpus = [dictionary.doc2bow(text) for text in texts]
- 1
建立语料之后,分支一:BOW词袋模型;分支二:建立TFIDF。
.
分之一:BOW词袋模型
由doc2bow变为词袋,输出的格式为:
[[(0, 1), (1, 1), (2, 1), (3, 1), (4, 1), (5, 1), (6, 1)], [(0, 1), (4, 1), (5, 1), (7, 1), (8, 1), (9, 2), (10, 1)], [(0, 1), (3, 1), (4, 1), (5, 1), (6, 1), (7, 1), (10, 1)]]
- 1
例如(9,2)这个元素代表第二篇文档中id为9的单词“silver”出现了2次。
.
分支二:建立TFIDF
tfidf = models.TfidfModel(corpus)
- 1
使用tf-idf 模型得出该评论集的tf-idf 模型
corpus_tfidf = tfidf[corpus]
- 1
此处已经计算得出所有评论的tf-idf 值
在TFIDF的基础上,进行相似性检索。
similarity = similarities.Similarity('Similarity-tfidf-index', corpus_tfidf, num_features=600)
- 1
然后进行similarity检索。
print(similarity[test_corpus_tfidf_1]) # 返回最相似的样本材料,(index_of_document, similarity) tuples
- 1
当然其中的test_corpus_tfidf_1需要进行预先处理。先变为dow2bow,然后tfidf
.
情况一:新的句子
new_sensence = "16通过下面一句得到语料中每一篇文档对应的稀疏向量"
test_corpus_1 = dictionary.doc2bow(jieba.cut(raw_documents[1], cut_all=True))
vec_tfidf = tfidf[test_corpus_1]
- 1
- 2
- 3
利用doc2bow对其进行分割,然后求tfidf模型。输出的结果即为:
vec_tfidf
Out[82]:
[(1, 0.09586155438319434),(5, 0.1356476941913782),(6, 0.09586155438319434),(8, 0.1356476941913782),(11, 0.19172310876638868),(12, 0.38344621753277736),(13, 0.38344621753277736),(14, 0.38344621753277736),(15, 0.16086258119086566),(16, 0.38344621753277736),(17, 0.38344621753277736),(18, 0.38344621753277736)]
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
.
情况二:tfidf模型的保存与内容查看
for item in corpus_tfidf: print(item)
tfidf.save("data.tfidf")
tfidf = models.TfidfModel.load("data.tfidf")
print(tfidf_model.dfs)
- 1
- 2
- 3
- 4
- 5
案例一:
test_corpus是语料,通过bow2vec函数向量格式更改为:[0.1,0.2,0,0,0,0,…,0.9]
import jieba
from gensim import corpora, models, similarities
import numpy as np
from tqdm import tqdmtexts = [[word for word in jieba.cut(document, cut_all=True)] for document in test_corpus]
dictionary = corpora.Dictionary(texts)
corpus = [dictionary.doc2bow(text) for text in texts]
tfidf = models.TfidfModel(corpus)
corpus_tfidf =tfidf[corpus] def bow2vec(corpus_tfidf,dictionary):vec = []length = max(dictionary) + 1for content in tqdm(corpus_tfidf):sentense_vectors = np.zeros(length)for co in content:sentense_vectors[co[0]]=co[1]vec.append(sentense_vectors)return vecsvec = bow2vec(corpus_tfidf,dictionary)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
python+gensim︱jieba分词、词袋doc2bow、TFIDF文本挖掘相关推荐
- 12星座都是什么性格?(python爬虫+jieba分词+词云)
12星座都是什么性格,大数据告诉你! 下面是利用python爬取12星座性格相关的微博,产生的12星座性格特征词云!白羊座为例,其他的在最后. 上代码(以白羊座为例): 1.微博数据爬取(需要sele ...
- 特征缩放的效果:从词袋到 TF-IDF
特征缩放的效果:从词袋到 TF-IDF 转载:github 译者:@gin 校对者:@HeYun 字袋易于生成,但远非完美.假设我们平等的统计所有单词,有些不需要的词也会被强调.在第三章提过一个例子, ...
- 自然语言处理系列十七》中文分词》分词工具实战》Python的Jieba分词
注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书<分布式机器学习实战>(人工智能科学与技术丛书)[陈敬雷编著][清华大学出版社] 文章目录 自然语言处理系列十七 分词工 ...
- 自然语言处理之中文文本分析(jieba分词、词袋doc2bow、TFIDF文本挖掘)
中文分词常用的分词工具有jieba等,本文以jieba分词为例,讲解中文文本分析. 一.jieba分词 来源github:https://github.com/fxsjy/jieba 1.主要模式 支 ...
- sklearn+gensim︱jieba分词、词袋doc2bow、TfidfVectorizer
分词这块之前一直用R在做,R中由两个jiebaR+Rwordseg来进行分词,来看看python里面的jieba. 之前相关的文章: R语言︱文本挖掘之中文分词包--Rwordseg包(原理.功能.详 ...
- python怎么安装jieba库-python环境jieba分词的安装
我的python环境是Anaconda3安装的,由于项目需要用到分词,使用jieba分词库,在此总结一下安装方法. 安装说明 ======= 代码对 Python 2/3 均兼容 * 全自动安装:`e ...
- python环境jieba分词的安装
我的python环境是Anaconda3安装的,由于项目需要用到分词,使用jieba分词库,在此总结一下安装方法. 安装说明 ======= 代码对 Python 2/3 均兼容 * 全自动安装:`e ...
- 基于python的jieba分词
一.jieba分词基本用法 1.一般都采用精确分词模式,直接jieba.cut(str1), 2.识别新词默认开启. 3.词性标注jieba.posseg,需要才用 全分词 精确分词 paddle模式 ...
- 手把手教会你使用Python进行jieba分词
点击上方"Python爬虫与数据挖掘",进行关注 回复"书籍"即可获赠Python从入门到进阶共10本电子书 今 日 鸡 汤 疏影横斜水清浅,暗香浮动月黄昏. ...
- python中jieba分词,并输出词云(基础版)
环境与文件准备 环境anaconda+pycharm,已经安装结巴库,wordcloud库,将0001-text.txt,stop_words.txt,dict.txt与新建py文件放到同一文件夹下. ...
最新文章
- 不是都需要ARM吗?
- 抓住青春的尾巴再愤青一把
- mxnet 衰减学习率
- linux内核网络协议栈--数据包的数据收发简略流程图(二十八)
- 程序的加载和执行(一)——《x86汇编语言:从实模式到保护模式》读书笔记21
- 什么是protobuf
- error: src refspec master does not match any. 错误处理办法
- WebGL(三)——学习Canvas及简单图形绘制
- 人民邮电出版社图灵公司的两本SQL Server 2005图书诚征译者
- java求平均值Scanner_Scanner的一些问题
- windows下最好的C++ IDE
- Python机器学习:SVM002最大化margin
- Linux 下Shell脚本中的加减乘除运算
- 张钹院士:探索第三代人工智能,需要勇闯无人区的人才!
- 华为鸿蒙系统电脑有那些,华为鸿蒙系统上线,仅2家国产品牌支持,爆冷?
- 用python做股票因子分析_关于SPSS因子分析的几点总结
- Unity3D音效问题
- 3d Max 2014设置背景没有锁定选项的解决方法
- 计算机游戏玩法,123木头人游戏规则与玩法
- talib.AROON指标详解