python设计jieba_python实现jieba库分词制作词云
《老人与海》是我最喜爱的一部外国名著,该作围绕一位老年古巴渔夫,与一条巨大的马林鱼在离岸很远的湾流中搏斗而展开故事的讲述。尽管海明威笔下的老人是悲剧性的,但他身上却有着尼采"超人"的品质,泰然自若地接受失败,沉着勇敢地面对死亡,这些"硬汉子"体现了海明威的人生哲学和道德理想,即人类不向命运低头,永不服输的斗士精神和积极向上的乐观人生态度。
现在我们通过python来分析第一章中出现最多的单词,通过jieba库和word cloud库将里面出现的单词的频率图像化地表现出来。
一、新建一个记事本文件,并重命名为The old man and the sea
二、把《老人与海》第一章放到刚刚建立的txt文件里边
三、工具的准备,需要安装jieba库和wordcloud库
from os import path
from wordcloud import WordCloud
import matplotlib.pyplot as plt
d=path.dirname(__file__)
text=open(path.join(d,"The old man and the sea.txt")).read()
# 步骤3-2:设置一张词云图对象
wordcloud = WordCloud(background_color="white", max_font_size=40).generate(text)
# 步骤4-1:创建一个图表画布
plt.figure()
# 步骤4-2:设置图片
plt.imshow(wordcloud, interpolation="bilinear")
# 步骤4-3:取消图表x、y轴
plt.axis("off")
# 显示图片
plt.show()
这里我出现了一点点小差错,因为我的pip版本是18.1的,我需要更新到19.0,否则无法安装wordcloud库
到这里终于完成jieba库和wordcloud库的安装!!!!!!!
三、编写代码
四、运行结果如下
我们可以看到,出现最多的是boat和old man。
python设计jieba_python实现jieba库分词制作词云相关推荐
- python爬取爱情公寓电影评论并制作词云
python爬取爱情公寓电影评论并制作词云 前言: 一直想研究研究如何生成词云,今天抽点时间给大家分享一下制作词云的过程,本文重在研究词云如何制作,由于时间仓促,至于爬取的数据量不大,大家可自 ...
- python爬取微博评论_用 python 爬取微博评论并手动分词制作词云
最近上海好像有举行个什么维吾尔族的秘密时装秀,很好看的样子,不过我还没时间看.但是微博上已经吵翻了天,原因是 好吧,这不是我们关心的,我的心里只有学习 我爱学习 Python 爬虫 本次爬取的是这条微 ...
- Python爬取《三国演义》并且制作词云
前提废话 之前关注了一个python的公众号,每天都会推送文章,每次看都会看到他有使用wordcloud这个库来生成好看的词云,于是乎,我就学习了jieba分词和wordcloud词云. 这里给win ...
- python爬取B站视频弹幕分析并制作词云
1.分析网页 视频地址: www.bilibili.com/video/BV19E- 本身博主同时也是一名up主,虽然已经断更好久了,但是不妨碍我爬取弹幕信息来分析呀. 这次我选取的是自己 唯一的爆款 ...
- python爬取b站弹幕分析_python爬取B站视频弹幕分析并制作词云
目录1.分析网页 2.爬虫+jieba分词+制作词云2.1爬虫 2.2jieba分词 2.3制作词云 3.成品展示 4.完整代码 1.分析网页 视频地址:https://www.bilibili.co ...
- python爬取胡歌相关视频弹幕,分析并制作词云
养成习惯,先赞后看!!! 目录 1.分析网页 2.爬虫+jieba分词+制作词云 2.1爬虫 2.2jieba分词 2.3制作词云 3.成品展示 4.完整代码 1.分析网页 视频地址:https:// ...
- jieba.analyse的使用:提取关键字/词频制作词云
jieba.analyse的使用:提取关键字/词频制作词云 ① jieba.analyse.extract_tags 提取关键字: print("***案例1***"*3) txt ...
- bilibili怎么设置弹幕数量_python爬取B站视频弹幕分析并制作词云
1.分析网页 视频地址: www.bilibili.com/video/BV19E- 本身博主同时也是一名up主,虽然已经断更好久了,但是不妨碍我爬取弹幕信息来分析呀. 这次我选取的是自己 唯一的爆款 ...
- python jieba库分词_Python基于jieba库进行简单分词及词云功能实现方法
本文实例讲述了Python基于jieba库进行简单分词及词云功能实现方法.分享给大家供大家参考,具体如下: 目标: 1.导入一个文本文件 2.使用jieba对文本进行分词 3.使用wordcloud包 ...
最新文章
- 过渡期间的测试:外包软件的测试标准(译)
- Java打印车票主要学习Java的比较语句
- 初中计算机word教案ppt,初中信息技术课件 用Word处理文字.ppt
- springboot 压测 50并发 线程等待_Spring Boot中三款内嵌容器的使用
- 腾讯光子《黎明觉醒》技术美术负责人:如何制作超真实的开放世界?
- git gui提交无法获知你的身份 20
- 手机壁纸图片源码自动采集美图网
- 如何理解java抽象类,我是如何理解Java抽象类和接口的
- linux boa post方式失败,移植boa出现的错误及解决方法
- java xcap_java实现发布订阅
- 【DRF+Django】微信小程序入门到实战_day04(上)
- NACOS2.1. 最新版本启动报错Caused by: java.sql.SQLSyntaxErrorException: Unknown column ‘encrypted_data_
- 设置 Linux 别名命令 alias 永久生效的方法
- revit模型怎么在手机上看_模型的查看和定位-Revit基础教程
- Outlook 2010 电子邮件数字签名和加密指南
- 基于阿里云的基础架构设施保障(四)IAAS进阶实践运用
- Pytorch+cpp_cuda extension 课程一
- 娃娃机吊到娃娃的概率
- 关于Android Camera变焦
- Kali安装谷歌输入法,网易云音乐