方式一. 简化版

  1. 安装jieba库/numpy库
  2. 编程读取《三国演义》电子书,输出出场次数最高的10个人物名字


代码注释:

import numpy
import jieba# numpy输出有省略号的问题,无法显示全部数据
numpy.set_printoptions(threshold=numpy.inf)def readFile(path):with open(path, mode='r', encoding='utf-8') as f:try:data = f.read()if data is not None or data != '':return dataexcept:print("读取文件失败!")if __name__ == "__main__":# 读取文本内容text = readFile('三国演义.txt')# 搜索引擎模式:在精确模式基础上,对长词再次切分arr = jieba.cut_for_search(text)obj = {}for name in arr:# 分词长度为2、3收录对象if len(name) == 2 or len(name) == 3:# 定义对象属性和统计当前对象出现频次obj[name] = obj.get(name, 0) + 1# 对象转化为列表items = list(obj.items())"""提供同质数组基本类型的字符串基本字符串格式由3部分组成: 描述数据字节顺序的字符(<: little-endian,>: big-endian,|: not-relevant),给出数组基本类型的字符代码,以及提供类型使用的字节数的整数。基本类型字符代码为:代码    描述t 位字段(Bit field,后面的整数表示位字段中的位数)。b    Boolean(Boolean 整数类型,其中所有值仅为True或False)。i  Integer(整数)u  无符号整数(Unsigned integer)f  浮点数(Floating point)c  复浮点数(Complex floating point)m 时间增量(Timedelta)M  日期增量(Datetime)O   对象(即内存包含指向 PyObject 的指针)S 字符串(固定长度的char序列)U Unicode(Py_UNICODE的固定长度序列)V   其他(void * - 每个项目都是固定大小的内存块"""people = numpy.dtype([('name', 'U2'), ('count', int)])# 列表转化为数组ar = numpy.array(items, dtype=people)"""axis=0 列递增kind='mergesort' 堆排序order='count' 排序字段flipud() 倒置排序"""
print(numpy.flipud(numpy.sort(ar, axis=0, kind='mergesort', order='count')))

二.方式二 词云统计–转自

Python 三国演义文本可视化(词云,人物关系图,主要人物出场次数,章回字数)



alice_mask.png


# -*- coding: utf-8 -*-
"""
Created on Wed Jun 23 11:41:01 2021@author: 陈建兵
"""# 导入networkx,matplotlib包
import networkx as nx
import matplotlib.pyplot as plt
import jieba.posseg as pseg  # 引入词性标注接口
# 导入random包
import random
import codecs
# 导入pyecharts
from pyecharts import options as opts
# pyecharts 柱状图
from pyecharts.charts import Bar
# pyecharts 词云图
from pyecharts.charts import WordCloud
# pyecharts 折线/面积图
from pyecharts.charts import Line
# 词云
import wordcloud
import imageio# 定义主要人物的个数(用于人物关系图,人物出场次数可视化图)
mainTop = 15# 读取文本
def read_txt(filepath):file = open(filepath, 'r+', encoding='utf-8')txt = file.read()file.close()return txt# 获取小说文本
txt = read_txt('三国演义.txt')# 停词文档
def stopwordslist(filepath):stopwords = [line.strip() for line in open(filepath, 'r', encoding='utf-8').readlines()]return stopwords# stopwords = stopwordslist('中文停用词库.txt')excludes = {'将军', '却说', '令人', '赶来', '徐州', '不见', '下马', '喊声', '因此', '未知', '大败', '百姓', '大事','一军', '之后', '接应', '起兵','成都', '原来', '江东', '正是', '忽然', '原来', '大叫', '上马', '天子', '一面', '太守', '不如', '忽报','后人', '背后', '先主', '此人','城中', '然后', '大军', '何不', '先生', '何故', '夫人', '不如', '先锋', '二人', '不可', '如何', '荆州','不能', '如此', '主公', '军士','商议', '引兵', '次日', '大喜', '魏兵', '军马', '于是', '东吴', '今日', '左右', '天下', '不敢', '陛下','人马', '不知', '都督', '汉中','一人', '众将', '后主', '只见', '蜀兵', '马军', '黄巾', '立功', '白发', '大吉', '红旗', '士卒', '钱粮','于汉', '郎舅', '龙凤', '古之', '白虎','古人云', '尔乃', '马飞报', '轩昂', '史官', '侍臣', '列阵', '玉玺', '车驾', '老夫', '伏兵', '都尉', '侍中','西凉', '安民', '张曰', '文武', '白旗','祖宗', '寻思'}  # 排除的词汇# 使用精确模式对文本进行分词
# words = jieba.lcut(txt)
counts = {}  # 通过键值对的形式存储词语及其出现的次数# 得到 分词和出现次数
def getWordTimes():# 分词,返回词性poss = pseg.cut(txt)for w in poss:if w.flag != 'nr' or len(w.word) < 2 or w.word in excludes:continue  # 当分词长度小于2或该词词性不为nr(人名)时认为该词不为人名elif w.word == '孔明' or w.word == '孔明曰' or w.word == '卧龙先生':real_word = '诸葛亮'elif w.word == '云长' or w.word == '关公曰' or w.word == '关公':real_word = '关羽'elif w.word == '玄德' or w.word == '玄德曰' or w.word == '玄德甚' or w.word == '玄德遂' or w.word == '玄德兵' or w.word == '玄德领' \or w.word == '玄德同' or w.word == '刘豫州' or w.word == '刘玄德':real_word = '刘备'elif w.word == '孟德' or w.word == '丞相' or w.word == '曹贼' or w.word == '阿瞒' or w.word == '曹丞相' or w.word == '曹将军':real_word = '曹操'elif w.word == '高祖':real_word = '刘邦'elif w.word == '光武':real_word = '刘秀'elif w.word == '桓帝':real_word = '刘志'elif w.word == '灵帝':real_word = '刘宏'elif w.word == '公瑾':real_word = '周瑜'elif w.word == '伯符':real_word = '孙策'elif w.word == '吕奉先' or w.word == '布乃' or w.word == '布大怒' or w.word == '吕布之':real_word = '吕布'elif w.word == '赵子龙' or w.word == '子龙':real_word = '赵云'elif w.word == '卓大喜' or w.word == '卓大怒':real_word = '董卓'  # 把相同意思的名字归为一个人else:real_word = w.wordcounts[real_word] = counts.get(real_word, 0) + 1getWordTimes()
items = list(counts.items())
# 进行降序排列 根据词语出现的次数进行从大到小排序
items.sort(key=lambda x: x[1], reverse=True)# 导出数据
# 分词生成人物词频(写入文档)
def wordFreq(filepath, topn):with codecs.open(filepath, "w", "utf-8") as f:for i in range(topn):word, count = items[i]f.write("{}:{}\n".format(word, count))# 生成词频文件
wordFreq("三国演义词频_人名.txt", 300)# 将txt文本里的数据转换为字典形式
fr = open('三国演义词频_人名.txt', 'r', encoding='utf-8')
dic = {}
keys = []  # 用来存储读取的顺序
for line in fr:# 去空白,并用split()方法返回列表v = line.strip().split(':')# print("v",v)   # v ['诸葛亮', '1373']# 拼接字典 {'诸葛亮', '1373'}dic[v[0]] = v[1]keys.append(v[0])
fr.close()
# 输出前几个的键值对
print("人物出现次数TOP", mainTop)
print(list(dic.items())[:mainTop])#  绘图
# 人名列表 (用于人物关系图,pyecharts人物出场次数图)
list_name = list(dic.keys())  # 人名
list_name_times = list(dic.values())  # 提取字典里的数据作为绘图数据# 可视化人物出场次数
def creat_people_view():bar = Bar()bar.add_xaxis(list_name[0:mainTop])bar.add_yaxis("人物出场次数", list_name_times)bar.set_global_opts(title_opts=opts.TitleOpts(title="人物出场次数可视化图", subtitle="三国人物TOP" + str(mainTop)),toolbox_opts=opts.ToolboxOpts(is_show=True),xaxis_opts=opts.AxisOpts(axislabel_opts={"rotate": 45}))bar.set_series_opts(label_opts=opts.LabelOpts(position="top"))bar.render_notebook()  # 在 notebook 中展示# make_snapshot(snapshot, bar.render(), "bar.png")# 生成 html 文件bar.render("三国演义人物出场次数可视化图.html")# 生成词云
def creat_wordcloud():bg_pic = imageio.imread(uri='alice_mask.png')wc = wordcloud.WordCloud(font_path='c:\Windows\Fonts\simhei.ttf',background_color='white',width=1000, height=800,# stopwords=excludes,# 设置停用词max_words=500,mask=bg_pic  # mask参数设置词云形状)# 从单词和频率创建词云wc.generate_from_frequencies(counts)# generate(text)  根据文本生成词云# wc.generate(txt)# 保存图片wc.to_file('三国演义词云_人名.png')#  显示词云图片plt.imshow(wc)plt.axis('off')plt.show()# 使用pyecharts 的方法生成词云
def creat_wordcloud_pyecharts():wordsAndTimes = list(dic.items())(WordCloud().add(series_name="人物次数", data_pair=wordsAndTimes,word_size_range=[20, 100], textstyle_opts=opts.TextStyleOpts(font_family="cursive"), ).set_global_opts(title_opts=opts.TitleOpts(title="三国演义词云")).render("三国演义词云_人名.html"))# 使用pyecharts 的方法生成章回字数
def chapter_word():# 进行章回切片list2 = txt.split("------------")chapter_list = [i for i in range((len(list2)))]word_list = [len(i) for i in list2](Line(init_opts=opts.InitOpts(width="1400px", height="700px")).add_xaxis(xaxis_data=chapter_list).add_yaxis(series_name="章回字数",y_axis=word_list,markpoint_opts=opts.MarkPointOpts(data=[opts.MarkPointItem(type_="max", name="最大值"),opts.MarkPointItem(type_="min", name="最小值"),]),markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average", name="平均值")]),).set_global_opts(title_opts=opts.TitleOpts(title="三国演义章回字数", subtitle=""),tooltip_opts=opts.TooltipOpts(trigger="axis"),toolbox_opts=opts.ToolboxOpts(is_show=True),xaxis_opts=opts.AxisOpts(type_="category", boundary_gap=False),).render("三国演义章回字数.html"))# 颜色生成
colorNum = len(list_name[0:mainTop])# print('颜色数',colorNum)
def randomcolor():colorArr = ['1', '2', '3', '4', '5', '6', '7', '8', '9', 'A', 'B', 'C', 'D', 'E', 'F']color = ""for i in range(6):color += colorArr[random.randint(0, 14)]return "#" + colordef color_list():colorList = []for i in range(colorNum):colorList.append(randomcolor())return colorList# 解决中文乱码
plt.rcParams['font.sans-serif'] = ['SimHei']  # 用来正常显示中文标签# 生成人物关系图
def creat_relationship():# 人物节点颜色colors = color_list()Names = list_name[0:mainTop]relations = {}# 按段落划分,假设在同一段落中出现的人物具有共现关系lst_para = (txt).split('\n')  # lst_para是每一段for text in lst_para:for name_0 in Names:if name_0 in text:for name_1 in Names:if name_1 in text and name_0 != name_1 and (name_1, name_0) not in relations:relations[(name_0, name_1)] = relations.get((name_0, name_1), 0) + 1maxRela = max([v for k, v in relations.items()])relations = {k: v / maxRela for k, v in relations.items()}# return relationsplt.figure(figsize=(15, 15))# 创建无多重边无向图G = nx.Graph()for k, v in relations.items():G.add_edge(k[0], k[1], weight=v)# 筛选权重大于0.6的边elarge = [(u, v) for (u, v, d) in G.edges(data=True) if d['weight'] > 0.6]# 筛选权重大于0.3小于0.6的边emidle = [(u, v) for (u, v, d) in G.edges(data=True) if (d['weight'] > 0.3) & (d['weight'] <= 0.6)]# 筛选权重小于0.3的边esmall = [(u, v) for (u, v, d) in G.edges(data=True) if d['weight'] <= 0.3]# 设置图形布局pos = nx.spring_layout(G)  # 用Fruchterman-Reingold算法排列节点(样子类似多中心放射状)# 设置节点样式nx.draw_networkx_nodes(G, pos, alpha=0.8, node_size=1300, node_color=colors)# 设置大于0.6的边的样式nx.draw_networkx_edges(G, pos, edgelist=elarge, width=2.5, alpha=0.9, edge_color='g')# 0.3~0.6nx.draw_networkx_edges(G, pos, edgelist=emidle, width=1.5, alpha=0.6, edge_color='y')# <0.3nx.draw_networkx_edges(G, pos, edgelist=esmall, width=1, alpha=0.4, edge_color='b', style='dashed')nx.draw_networkx_labels(G, pos, font_size=14)plt.title("《三国演义》主要人物社交关系网络图")# 关闭坐标轴plt.axis('off')# 保存图表plt.savefig('《三国演义》主要人物社交关系网络图.png', bbox_inches='tight')plt.show()def main():# 人物出场次数可视化图creat_people_view()# 词云图creat_wordcloud()creat_wordcloud_pyecharts()# 人物关系图creat_relationship()# 章回字数chapter_word()if __name__ == '__main__':main()

python统计三国演义中人物出现的频次相关推荐

  1. 用python统计文章中单词出现的频次

    用python统计<Walden>中单词出现的频次,并按频次由高到低排序. 首先在Notebook中导入文章,其次,在编辑代码时打开所导入的文件. 此时文章被读到最后一格,使用close命 ...

  2. Python统计列表中的重复项出现的次数的方法

    本文实例展示了Python统计列表中的重复项出现的次数的方法,是一个很实用的功能,适合Python初学者学习借鉴.具体方法如下: 对一个列表,比如[1,2,2,2,2,3,3,3,4,4,4,4],现 ...

  3. python统计句子中单词个数_【python统计单词数量】作文写作问答 - 归教作文网

    如何用python统计一个txt文件中某个单词出现的次数 1.首先,定义一个变量,保存要统计的英文文章. 2.接着,定义两个数组,保存文章中的单词,以及各单词的词频. 3.从文章中分割出所有的单词,保 ...

  4. [转载] 用python统计中文字符数_使用Python统计字符串中各种字符的个数

    参考链接: Python中遍历字符串的单词 Python 统计字符串中各种字符出现的次数 一.提出问题 随机输入一段字符串,包括数字,英文,空格,其他字符,统计这些字符在其中出现的次数 二.难点提示思 ...

  5. 用python统计字母个数_python统计字母个数 python 统计文本中字母个数

    python 统计文本中字母个数 作业文件等有人回答小编再发,之前发文件被屏蔽了明明转身就有一个温馨的港湾,却偏偏还要去追逐那无望的孤船. l = 0with open('file.txt', 'r' ...

  6. python统计文件中每个单词出现的次数_python统计文本中每个单词出现的次数

    .python统计文本中每个单词出现的次数: #coding=utf-8 __author__ = 'zcg' import collections import os with open('abc. ...

  7. python统计列表中元素个数_python中计算一个列表中连续相同的元素个数方法

    python中计算一个列表中连续相同的元素个数方法 最简单的例子: a = [1,1,1,1,2,2,2,3,3,1,1,1,3] # 问:计算a中最多有几个连续的1 很明显,答案是4 如果用代码实现 ...

  8. 用python统计水浒传中的高频词汇

    用python统计水浒传中的高频词汇 #词频统计.py import jieba excludes = {"两个","一个","只见",&q ...

  9. python爬取三国演义文本,统计三国演义中出场次数前30的人物,并生成词云、图表

    目录 1.目标 2.码前须知 3.操作流程 4.完整代码 5.总结 1.目标 python爬取三国演义,生成词云.图表 2.码前须知 项目目标:三国人物名称及出现次数-----数据统计分析 提出问题: ...

  10. python 统计list中各个元素出现的次数

    Python的pandas包下的value_counts方法 import pandas as pd a = [4, 2, 1, 2, 3, 1, 1, 2] result = pd.value_co ...

最新文章

  1. 现代版的大案牍术:数字孪生在城市的应用
  2. wdatepicker设置初始时间_滑动条的滑块的初始位置应该放在哪儿?
  3. [翻译]编写高性能 .NET 代码 第一章:性能测试与工具 -- 选择什么来衡量
  4. apache camel_Apache Camel的性能调整思路
  5. python代码进去docker容器内_python脚本监控docker容器
  6. ZT云流量软件官网响应式HTML模板
  7. exchange 2010 relay设定
  8. 11g cursor_sharing 参数说明
  9. IOS解惑(1)之@property(nonatomic,getter=isOn) BOOL on;中的getter解惑
  10. Sklearn环境搭建与常用包
  11. 深度学习笔记_基本概念_梯度下降及示例代码
  12. java的安装_java 安装步骤
  13. 简单的朴素贝叶斯算法实现英文文本分类(Python实现)
  14. 解读后天性学者症候群:怎么一闷棍砸出个天才?
  15. urho3d中3d音效SoundSource3D使用的注意
  16. 答读者问:钱和成长,哪个更重要?
  17. ARouter there is no route matched
  18. 阿里巴巴Java开发规范(终极版v1.3.0)--个人整理
  19. vue单文件组件导入导出
  20. IBM x3690 x5服务器安装Debian Linux

热门文章

  1. 您必须拥有这台计算机上的终端服务器用户访问权限的解决方案
  2. 狂奔五年后,拼多多需要静静
  3. 战争调度(动态规划、记忆化搜索)
  4. 【Linux】【RedHat】下载 安装 注册
  5. GSM和GPRS有什么区别
  6. iPhone开发入门(一)
  7. html短期总结(至表单)
  8. 无线网络有信号显示未连接网络连接服务器,无线上网显示未识别网络怎么办
  9. 软件考试(一)计算机技术与软件专业技术资格(水平)考试(以下简称软件水平考试)含金量最高,与职称挂钩。
  10. python第一行输入整数n、然后输入n行 每行三个字符串_B站2019秋招编程题思路解析[题目要素过多]...