python字频统计软件_python结巴分词以及词频统计实例
python结巴分词以及词频统计实例
发布时间:2018-03-20 14:52,
浏览次数:773
, 标签:
python
# coding=utf-8
'''
Created on 2018年3月19日
@author: chenkai
结巴分词
支持三种分词模式:
精确模式: 试图将句子最精确地切开,适合文本分析;
全模式: 把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
搜索引擎模式: 在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
'''
import jieba
import jieba.analyse
seg_list = jieba.cut("我来到北京清华大学找妹子,我很开心",cut_all=True)
print "全模式: ", "/".join(seg_list)
seg_list2 = jieba.cut("我来到北京清华大学找妹子,我很开心",cut_all=False)
print "精确模式: ", "/".join(seg_list2)
#jieba.cut() 默认是精确模式
seg_list3 = jieba.cut_for_search("我来到北京清华大学找妹子,我很开心") # 搜索引擎模式
print "搜索引擎模式: ", "#".join(seg_list3)
list2="/".join(seg_list3)
'''
关键词提取
基于 TF-IDF 算法的关键词抽取
jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=())
sentence 为待提取的文本
topK 为返回几个 TF/IDF 权重最大的关键词,默认值为 20
withWeight 为是否一并返回关键词权重值,默认值为 False
allowPOS 仅包括指定词性的词,默认值为空,即不筛选
jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 实例,idf_path 为 IDF 频率文件
'''
sentence="我来到北京清华大学找妹子,我很开心"
listGJC=jieba.analyse.extract_tags(sentence, topK=20, withWeight=False,
allowPOS=())
print "关键词提取:",",".join(listGJC)
---------------------词频统计
# coding=utf-8
'''
Created on 2018年3月19日
@author: chenkai
结巴分词
支持三种分词模式:
精确模式: 试图将句子最精确地切开,适合文本分析;
全模式: 把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;
搜索引擎模式: 在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
'''
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
import jieba
import jieba.analyse
import re,collections
def getNum(text,path):
word = []
counter = {}
seg_list3 = jieba.cut(text,cut_all=True)
listStr="#".join(seg_list3)
#print "全模式: ",listStr
list3 = listStr.decode("utf-8").split('#')
for w in list3:
if not w in word:
word.append(w)
if not w in counter:
counter[w] = 1
else:
counter[w] += 1
counter_list = sorted(counter.items(), key=lambda x: x[1], reverse=True)
#print counter_list
f = open(path,"w")
for j in counter_list:
text= "\""+j[0].encode("gb18030").decode("gb18030")+"\","+str(j[1])
print text
f.write(text+"\n")
print "the result write in "+path+"..."
print "finish..."
f.close()
getNum(sys.argv[1],sys.argv[2])
python字频统计软件_python结巴分词以及词频统计实例相关推荐
- python统计词频_Python中文分词及词频统计
中文分词 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组.英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文 ...
- python 小说词频统计_Python中文分词及词频统计
中文分词 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组.英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是同个含义,因此,中文分词相比英文 ...
- python词频统计完整步骤_Python中文文本分词、词频统计、词云绘制
本文主要从中文文本分词.词频统计.词云绘制方面介绍Python中文文本分词的使用.会使用到的中文文本处理包包括:wordcloud,jieba,re(正则表达式),collections. 1 准备工 ...
- python软件和rost软件哪个更好_ROST-CM软件分词和词频统计用法体验
ROST作为一款优秀的内容挖掘工具,在自然语言处理上提供一系列能够快速上手使用的功能,其中"分词"功能也是广为使用的.我们在对文本进行分词处理的过程中,由于词库是固定的,所以不管是 ...
- Python中文分词及词频统计
Python中文分词及词频统计 中文分词 中文分词(Chinese Word Segmentation),将中文语句切割成单独的词组.英文使用空格来分开每个单词的,而中文单独一个汉字跟词有时候完全不是 ...
- python分词和词频统计
Python大数据:jieba分词,词频统计 黑冰中国 关注 0.1 2018.03.21 11:39* 字数 1717 阅读 7553评论 6喜欢 45赞赏 1 实验目的 学习如何读取一个文件 学 ...
- python结巴分词代码_python结巴分词SEO的应用详解
本帖最后由 为人生而奋斗 于 2019-10-15 16:19 编辑 结巴分词在SEO中可以应用于分析/提取文章关键词.关键词归类.标题重写.文章伪原创等等方面,用处非常多. 具体结巴分词项目:htt ...
- python 英语词频统计软件_Python数据挖掘——文本分析
作者 | zhouyue65 来源 | 君泉计量 文本挖掘:从大量文本数据中抽取出有价值的知识,并且利用这些知识重新组织信息的过程. 一.语料库(Corpus) 语料库是我们要分析的所有文档的集合. ...
- python结巴分词实例_python 结巴分词(jieba)详解
"结巴"中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese ...
最新文章
- .Net 转战 Android 4.4 日常笔记(7)--apk的打包与反编译
- Vijos P1848 记数问题【进制】
- Linux 内存机制
- anaconda base环境_如何在最新版的Anaconda下安装Tensorflow 1.9
- Swiftfox:极速的冲浪体验
- VM虚拟机中 localhost login_UTM 2.0 虚拟机来了,解决上网和无声音问题
- sap权限激活_SA*P 自定义权限对象
- JS进阶 你真的掌握变量和类型了吗?
- 学习数据结构 AVL树
- [hadoop读书笔记] 第五章 MapReduce工作机制
- UI自动化,你值得拥有
- java输出日志_Java日志打印方法
- F12解决网页不能复制
- Word2010如何从正文开始设置页码
- 【搜索排序】预训练综述Pre-training Methods in Information Retrieval
- 2022年北京首店补贴及首店首发项目征集申报情况介绍,补贴200万
- ef mysql 约定_EF 数据库连接约定(Connection String Conventions in Code First)
- 全国CSM敏捷教练认证将于2023年3月25-26开班,报名从速!
- 聚类算法初探(六)OPTICS
- STM32开发 --- 1.8寸显示屏ST7735_输出英文、汉字、图片