前叙

利用下面的代码你将可以将任意中文文本生成词云,其分词部分由jieba,NLPIR2016两个部分组成,生成词语由worldcloud负责,默认会自动发现文本中的20个新词并添加到词库中,当然你也可以手动添加或者通过txt添加用户词库.code中已经有十分详细的设置说明与代码解释,如果你想进一步学习其详细内容,你可以参考我在第二部分提供的博客列表

想要进一步学习使用的参考博客列表

Python词云 wordcloud 十五分钟入门与进阶:http://blog.csdn.net/fontthrone/article/details/72775865

Python中文分词 jieba 十五分钟入门与进阶:http://blog.csdn.net/fontthrone/article/details/72782499

Python 中文分词 NLPIR 快速搭建:http://blog.csdn.net/fontthrone/article/details/72872413

Python NLPIR(中科院汉语分词系统)的使用 十五分钟快速入门与完全掌握:http://blog.csdn.net/fontthrone/article/details/72885372

Python NLPIR2016 与 wordcloud 结合生成中文词云:http://blog.csdn.net/fontthrone/article/details/72987154

相关代码下载:http://blog.csdn.net/fontthrone/article/details/72885329

source code

# - * - coding: utf - 8 -*-
#
# 作者:田丰(FontTian)
# 创建时间:'2017/5/23'
# 邮箱:fonttian@163.com
# CSDN:http://blog.csdn.net/fontthrone
from os import path
from scipy.misc import imread
import matplotlib.pyplot as plt
import jieba
from nlpir import *
from ctypes import *
# jieba.load_userdict("txt\userdict.txt")
# 添加用户词库为主词典,原词典变为非主词典
# ImportUserDict('userdic.txt')
# 为NLPIR2016 添加用户词典
from wordcloud import WordCloud, ImageColorGenerator
import sysreload(sys)
sys.setdefaultencoding('utf-8')# 获取当前文件路径
# __file__ 为当前文件, 在ide中运行此行会报错,可改为
# d = path.dirname('.')
d = path.dirname(__file__)stopwords = {}
isCN = 1  # 默认启用中文分词
isJieba = 0  # 默认使用NLPIR2016进行分词
isGetNewWords = 1  # 默认使用NLPIR获取新词
number = 20  # 在使用NLPIR 时候默认自动获取的新词
back_coloring_path = "img/lz1.jpg"  # 设置背景图片路径
text_path = 'txt/lztest.txt'  # 设置要分析的文本路径
font_path = 'D:\Fonts\simkai.ttf'  # 为worldcloud设置中文字体路径没
stopwords_path = 'stopwords\stopwords1893.txt'  # 停用词词表
imgname1 = "WordCloudDefautColors.png"  # 保存的图片名字1(只按照背景图片形状)
imgname2 = "WordCloudColorsByImg.png"  # 保存的图片名字2(颜色按照背景图片颜色布局生成)my_words_list = ['路明非']  # 在结巴的词库中添加新词back_coloring = imread(path.join(d, back_coloring_path))  # 设置背景图片# 设置词云属性
wc = WordCloud(font_path=font_path,  # 设置字体background_color="white",  # 背景颜色max_words=2000,  # 词云显示的最大词数mask=back_coloring,  # 设置背景图片max_font_size=100,  # 字体最大值random_state=42,width=1000, height=860, margin=2,  # 设置图片默认的大小,但是如果使用背景图片的话,那么保存的图片大小将会)# 使用NLPIR 自动发现新词
def add_word(text, number):strs1 = getNewWordsByNLPIR(text, number)if isJieba == 0:if isGetNewWords == 1:for i in strs1:AddUserWord(i)for i in my_words_list:AddUserWord(i)else:if isGetNewWords == 1:for i in strs1:jieba.add_word(i)for i in my_words_list:jieba.add_word(i)text = open(path.join(d, text_path)).read()# 使用 jieba 清理停用词
def jiebaclearText(text):mywordlist = []seg_list = jieba.cut(text, cut_all=False)liststr = "/ ".join(seg_list)f_stop = open(stopwords_path)try:f_stop_text = f_stop.read()f_stop_text = unicode(f_stop_text, 'utf-8')finally:f_stop.close()f_stop_seg_list = f_stop_text.split('\n')for myword in liststr.split('/'):if not (myword.strip() in f_stop_seg_list) and len(myword.strip()) > 1:mywordlist.append(myword)return ''.join(mywordlist)# 使用NLPIR 获取新词
def getNewWordsByNLPIR(text, number):txt1 = GetNewWords(text, c_int(number), [c_char_p, c_int, c_bool])txt2 = txt1.split('#')txt3 = []txt4 = []txt5 = []for item2 in txt2:txt3.append(item2.encode('utf-8').split('/'))if txt3 != []:txt4.append(txt3)txt3 = []for i in txt4:for j in i:if j[0] != [] and j[0] != '':txt5.append(j[0])return txt5#  使用NLPIR2016 进行分词
def useNLPIR2016(text):txt = seg(text)seg_list = []for t in txt:seg_list.append(t[0].encode('utf-8'))return seg_list# 去除停用词
def NLPIRclearText(seg_list):mywordlist = []liststr = "/ ".join(seg_list)f_stop = open(stopwords_path)try:f_stop_text = f_stop.read()f_stop_text = unicode(f_stop_text, 'utf-8')finally:f_stop.close()f_stop_seg_list = f_stop_text.split('\n')for myword in liststr.split('/'):if not (myword.strip() in f_stop_seg_list) and len(myword.strip()) > 1:mywordlist.append(myword)return ''.join(mywordlist)# 如果使用中文分词的话
if isCN == 1:add_word(text, number)if isJieba == 0:seg_list = useNLPIR2016(text)text = NLPIRclearText(seg_list)text = unicode(text, encoding='utf8')else:add_word(my_words_list)text = jiebaclearText(text)# 生成词云, 可以用generate输入全部文本(wordcloud对中文分词支持不好,建议启用中文分词),也可以我们计算好词频后使用generate_from_frequencies函数
wc.generate(text)
print text
# wc.generate_from_frequencies(txt_freq)
# txt_freq例子为[('词a', 100),('词b', 90),('词c', 80)]
# 从背景图片生成颜色值
image_colors = ImageColorGenerator(back_coloring)plt.figure()
# 以下代码显示图片
plt.imshow(wc)
plt.axis("off")
plt.show()
# 绘制词云# 保存图片
wc.to_file(path.join(d, imgname1))image_colors = ImageColorGenerator(back_coloring)plt.imshow(wc.recolor(color_func=image_colors))
plt.axis("off")
# 绘制背景图片为颜色的图片
plt.figure()
plt.imshow(back_coloring, cmap=plt.cm.gray)
plt.axis("off")
plt.show()
# 保存图片
wc.to_file(path.join(d, imgname2))

Python 任意中文文本生成词云 最终版本相关推荐

  1. Python + wordcloud + jieba 十分钟学会用任意中文文本生成词云

    前述 本文需要的两个Python类库  jieba:中文分词分词工具  wordcloud:Python下的词云生成工具 写作本篇文章用时一个小时半,阅读需要十分钟,读完该文章后你将学会如何将任意中文 ...

  2. 导出微信聊天记录,使用python进行分词,生成词云

    导出微信聊天记录,使用python进行分词,生成词云 导出微信聊天记录,使用python进行分词,生成词云 备份数据 浏览.导出数据 查看数据 操作数据库,分析生成词云 下载全部文件 导出微信聊天记录 ...

  3. python爬取数据生成词云_Python 爬取生成中文词云以爬取知乎用户属性为例

    代码如下: # -*- coding:utf-8 -*- import requests import pandas as pd import time import matplotlib.pyplo ...

  4. Python pytagcloud 中文分词 生成标签云 系列(一)

    转载地址:https://zhuanlan.zhihu.com/p/20432734 工具 Python 2.7 (前几天试了试 Scrapy 所以用的 py2 .血泪的教训告诉我们能用 py3 千万 ...

  5. Python 通过文本生成词云

    首先安装以下库 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple jieba pip install -i https://pypi.tu ...

  6. 在Python中自然语言处理生成词云WordCloud

    了解如何在Python中使用WordCloud对自然语言处理执行探索性数据分析. 最近我们被客户要求撰写关于自然语言处理的研究报告,包括一些图形和统计输出. 什么是WordCloud? 很多时候,您可 ...

  7. python做词云做文本处理_Python生成词云的制作

    现成的词云制作工具也很多: 1.Wordle是一个用于从文本生成词云图而提供的游戏工具. 2.Tagxedo可以在线制作个性化词云. 3.Tagul是一个Web服务,同样可以创建华丽的词云. 4.Ta ...

  8. python生成词云很慢吗_词云制作没那么难,Python 10 行代码就实现了!

    写在前面 想必大家有一个问题.什么是词云呢? 词云又叫名字云,是对文本数据中出现频率较高的"关键词"在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略 ...

  9. python生成词云_词云制作没那么难,Python 10 行代码就实现了!

    欢迎点击右上角关注小编,除了分享技术文章之外还有很多福利,私信"学习资料"可以领取包括不限于Python实战演练.PDF电子文档.面试集锦.学习资料等. 写在前面 想必大家有一个问 ...

最新文章

  1. 安装esp8266库_基于ESP8266,DIY低成本智能远程开关灯小装置
  2. 字节一面:如何从 100 亿 URL 中找出相同的 URL?
  3. 15.知识产权与标准化
  4. java oom dump_Java OOM 内存溢出分析
  5. 那些帮助你成为优秀前端工程师的讲座——《性能篇》
  6. resultType 和resultMap 的区别?
  7. 【Spring】Spring lazy-init:bean延迟初始化
  8. c向python注册函数_python如何调用C, 如何注册成C的回调函数(python后台程序常用方法)...
  9. 【语言处理与Python】5.7如何确定一个词的分类
  10. 什么是JavaWeb,主要框架有哪些
  11. 新网站收录及备忘录网址
  12. wps excel 插入公式 整列
  13. GD32F450以太网(1):ETH 外设接口简介
  14. NAT alg 和 ASPF
  15. Module containing this breakpoint has not yet loaded or the breakpoint address not be obtained
  16. 我国城市区块链发展水平如何?这个指数告诉你|链塔智库
  17. 谷歌浏览器输入不安全网址点高级后没有继续前往链接解决办法
  18. Cocos2d-x地图随精灵无限滚动与边缘检测----之游戏开发《赵云要格斗》(3)
  19. 北大齐教授健康讲座笔录
  20. 学生信息管理系统-教师端

热门文章

  1. PyODPS学习:使用DataFrame实现SQL的IF判断
  2. intellij idea 13amp;14 插件推荐及高速上手建议 (已更新!)
  3. 《妥协的完美主义:优秀产品经理的实践指南(卷二)》一1.2 交互设计不是横空出世...
  4. Spring Boot 把 Maven 干掉了,正式拥抱 Gradle!
  5. 面试问:Kafka 为什么速度那么快?
  6. 干货分享 | 阿里PB级Kubernetes日志平台建设实践
  7. 秒杀系统设计的 5 个要点:前端三板斧+后端两条路!
  8. Java实现搜索回溯经典题目
  9. python 期货交易_Python期货量化交易基础教程(8)
  10. java 读文件夹_java怎么读取读取文件夹下的所有文件夹和文件?