python新闻情感分析_对知乎数据进行情感分析
关于编码问题:‘utf-8’ codec can’t decode byte 0xb7 in position 0: invalid start byte参见这篇博文:https://www.cnblogs.com/xiaolan-Lin/p/11653432.html
代码来自于这篇博文:https://blog.csdn.net/lom9357bye/article/details/79058946?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522158937528619724839264541%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fall.57674%2522%257D&request_id=158937528619724839264541&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2allfirst_rank_v2~rank_v25-2-79058946.nonecase&utm_term=%E5%9F%BA%E4%BA%8E%E6%83%85%E6%84%9F%E8%AF%8D%E5%85%B8
程度词要自己标注权重,可以把txt的文件复制到excel,新建一行再自动填充:
词典数据来自于这里:https://download.csdn.net/download/siyanyu/9880970
网上找代下下载的词典,需要的话可以点击网盘:链接:https://pan.baidu.com/s/1oVXtjtD9pTLP5Y277He-IQ
提取码:6h98
最后附上代码:
# -*- coding: utf-8 -*-
"""
Created on Wed May 13 21:10:58 2020
1、情感词典:BosonNLP情感词典是从微博、新闻、论坛等数据来源的上百万篇情感标注数据当中
自动构建的情感极性词典。因为标注包括微博数据,该词典囊括了很多网络用语及非正式简称,
对非规范文本也有较高的覆盖率。该情感词典可以用于构建社交媒体情感分析引擎,负面内容发现等应用。
2、停用词
3、否定词
4、程度副词
@author: 谢蕾
"""
from collections import defaultdict
import os
import re
import jieba
import codecs
import xlrd
import datetime
from xlrd import xldate_as_tuple
from openpyxl import Workbook
def handle_date(date):
tuple = xldate_as_tuple(date, 0)
# print(tuple)
# excel_datetime=datetime.datetime(*tuple)
# print(excel_datetime)
return tuple
def seg_word(sentence):
"""使用jieba对文档分词"""
seg_list = jieba.cut(sentence)
seg_result = []
for w in seg_list:
seg_result.append(w)
# 读取停用词文件
stopwords = set()
fr = codecs.open('停用词.txt', 'r', 'utf-8')
for word in fr:
stopwords.add(word.strip())
fr.close()
# 去除停用词
return list(filter(lambda x: x not in stopwords, seg_result))
def classify_words(word_dict):
"""词语分类,找出情感词、否定词、程度副词"""
# 读取情感字典文件
sen_file = open('情感词1.0.txt', 'r+', encoding='utf-8')
# 获取字典文件内容
sen_list = sen_file.readlines()
# 创建情感字典
sen_dict = defaultdict()
# 读取字典文件每一行内容,将其转换为字典对象,key为情感词,value为对应的分值
for s in sen_list:
# 每一行内容根据空格分割,索引0是情感词,索引1是情感分值
sen_dict[s.split(' ')[0]] = s.split(' ')[1]
# 读取否定词文件
not_word_file = open('否定词.txt', 'r+', encoding='unicode_escape')
# 由于否定词只有词,没有分值,使用list即可
not_word_list = not_word_file.readlines()
# 读取程度副词文件
degree_file = open('程度词.txt', 'r+', encoding='utf-8')
degree_list = degree_file.readlines()
degree_dic = defaultdict()
# 程度副词与情感词处理方式一样,转为程度副词字典对象,key为程度副词,value为对应的程度值
for d in degree_list:
degree_dic[d.split(',')[0]] = d.split(',')[1]
# 分类结果,词语的index作为key,词语的分值作为value,否定词分值设为-1
sen_word = dict()
not_word = dict()
degree_word = dict()
# 分类
for word in word_dict.keys():
if word in sen_dict.keys() and word not in not_word_list and word not in degree_dic.keys():
# 找出分词结果中在情感字典中的词
sen_word[word_dict[word]] = sen_dict[word]
elif word in not_word_list and word not in degree_dic.keys():
# 分词结果中在否定词列表中的词
not_word[word_dict[word]] = -1
elif word in degree_dic.keys():
# 分词结果中在程度副词中的词
degree_word[word_dict[word]] = degree_dic[word]
sen_file.close()
degree_file.close()
not_word_file.close()
# 将分类结果返回
return sen_word, not_word, degree_word
def list_to_dict(word_list):
"""将分词后的列表转为字典,key为单词,value为单词在列表中的索引,索引相当于词语在文档中出现的位置"""
data = {}
for x in range(0, len(word_list)):
data[word_list[x]] = x
return data
def get_init_weight(sen_word, not_word, degree_word):
# 权重初始化为1
W = 1
# 将情感字典的key转为list
sen_word_index_list = list(sen_word.keys())
if len(sen_word_index_list) == 0:
return W
# 获取第一个情感词的下标,遍历从0到此位置之间的所有词,找出程度词和否定词
for i in range(0, sen_word_index_list[0]):
if i in not_word.keys():
W *= -1
elif i in degree_word.keys():
# 更新权重,如果有程度副词,分值乘以程度副词的程度分值
W *= float(degree_word[i])
return W
def socre_sentiment(sen_word, not_word, degree_word, seg_result):
"""计算得分"""
# 权重初始化为1
W = 1
score = 0
# 情感词下标初始化
sentiment_index = -1
# 情感词的位置下标集合
sentiment_index_list = list(sen_word.keys())
# 遍历分词结果(遍历分词结果是为了定位两个情感词之间的程度副词和否定词)
for i in range(0, len(seg_result)):
# 若是程度副词
if i in degree_word.keys():
W*=degree_word[i]
# 若是否定词
elif i in not_word.keys():
# print(i)
W*=-1
elif i in sen_word.keys():
score+=float(W)*float(sen_word[i])
W=1
# 定位到下一个情感词
if sentiment_index < len(sentiment_index_list) - 1:
i = sentiment_index_list[sentiment_index + 1]
return score
# 计算得分
def setiment_score(sententce):
# 1.对文档分词
seg_list = seg_word(sententce)
# 2.将分词结果列表转为dic,然后找出情感词、否定词、程度副词
sen_word, not_word, degree_word = classify_words(list_to_dict(seg_list))
# 3.计算得分
score = socre_sentiment(sen_word, not_word, degree_word, seg_list)
return score
# # 测试
# print(setiment_score("我今天心情很糟糕也不开心"))
workbook = Workbook()
result_sheet = workbook.active
result_sheet.title = "随便"
sheets = xlrd.open_workbook(r'D:\answer.xls').sheets()
#先用第一个sheet试试水
for i in range(1):
sheet = sheets[i]
for j in range(1,sheet.nrows):
a = []
# print(sheet.cell_value(i,3))
create_time = datetime.datetime(*(handle_date(sheet.cell_value(j,3))[:3]))#精确到天
answer = sheet.cell_value(i,4)
a.append(create_time)
a.append(setiment_score(answer))
result_sheet.append(a)
workbook.save("情感数据.xlsx")
原文链接:https://blog.csdn.net/weixin_46660582/article/details/106108514
python新闻情感分析_对知乎数据进行情感分析相关推荐
- Python爬取南京地铁微博发布客流数据并进行分析
Python爬取南京地铁微博发布客流数据并进行分析 之前在网上看到了分析北京地铁客流数据的开源项目,就想试着分析一下南京地铁的客流数据,可是找了很久没有找到可以获得南京地铁客流数据的接口,就去南京地铁 ...
- python细粒度情感分析_用SenticNet库做细粒度情感分析
细粒度情感分析 说细粒度情感分析,先说传统的情感分析(即粗粒度分析). 粗粒度情感分析只是简单的积极或消极情感的划分,并计算出情感的强度.但是情绪更细的维度层次,应该还可以对正负情绪进行划分.比如,积 ...
- python基因差异分析_玉米RNA-seq测序数据差异基因分析
原标题:玉米RNA-seq测序数据差异基因分析 huanying今天给大家分享一个非常棒的玉米转录组的流程分析.原文作者是cxge,首发于omicshare论坛,阅读原文可跳转至本文的帖子哦~ 软件及 ...
- edger多组差异性分析_使用edgeR进行无重复差异表达分析
写这篇文章一部分原因是填2年前的一个坑 转录组入门(7):差异表达分析. 另一部分原因是GQ最近又在搞一波无重复的差异表达分析, 所以专门去学了edgeR 我个人是不太推荐没有重复的差异表达分析,毕竟 ...
- 怎么用spss做冗余分析_用SPSS进行医学统计信度分析——【杏花开医学统计】
杏花开生物医药统计 一号在手,统计无忧! 关 注 用SPSS进行医学统计信度分析 关键词:SPSS.信度分析 导 读 上期,我们介绍了量表的基本形式及其研制步骤. 点击观看:<医学研究中量表研制 ...
- r语言进行go富集分析_好用的在线GO富集分析工具
点击上方蓝字关注生信宝典,换个角度学生信. GeneOntology富集分析是高通量数据分析的标配,不管是转录组.甲基化.ChIP-seq还是重测序,都会用到对一个或多个集合的基因进行功能富集分析.分 ...
- 大豆技术面分析_技术贴 | GIS三维视域分析—面要素
GIS 视域分析 理论 01 部分 之前写了一篇技术贴:GIS三维视域分析里面讲了视域分析的相关理论及应用案例,以及具体点.线的视域分析,面要素比较概况,应某位小可爱的要求,今天详细分析面要素的视域分 ...
- 数据库和python有关系吗_想问一下,数据跟代码种类有关系么? 比如我用MySQL数据库,必须要用python或者JAVA之类的要求...
你可以访问python数据库接口及api查看详细的支持数据库列表.不同的数据库你需要下载不同的db api模块,例如你需要访问oracle数据库和mysql数据,你需要下载oracle和mysql数据 ...
- python 密度聚类 使用_使用wgd进行全基因组复制分析
因为全基因组复制(Whole genome duplications, WGD)是生物进化的重要因素之一, 所以WGD分析也是基因组分析经常用到的一种分析方法.举个例子,我们之所以能在多条染色体之间发 ...
最新文章
- Scrum Master的职业发展路线
- 在哪里能收到python实例代码-python实例代码
- 绑定变量窥测(Bind Variable Peeking)
- C++中的vector使用范例-
- 苹果数据线不能充电_外媒痛批苹果!iPhone 12不送充电器绝非为环保,理由太真实!|充电器|数据线|手机|iphone...
- php显示控制器不存在,phpcms控制器不存在解决方法
- sqlserver安装目录_Jira试用报告(安装及数据迁移篇)
- php pdo 显示二进制,php – 在MySQL PDO中显示警告
- 20210612:力扣第244周周赛题解(上)
- HttpClient之Java爬虫工具
- java报错stderr_struts2 文件上传路径错误 ERROR [STDERR] java.io.FileNotFoundException:
- php与jpython-在python中复数怎么表示
- 排列组合数学的相邻问题(插空法-捆绑法-隔板法)
- 水果食用大全 -- 果品食疗 - 其他
- phpspider框架的使用
- 解决liquibase.exception.LockException: Could not acquire change log lock. Currently locked by XXXX
- 【MagNet】《Progressive Semantic Segmentation》
- python爬取链家新房_Python爬虫项目--爬取链家热门城市新房
- 工人级无人机,现在和未来可能都不会有垄断者出现
- prism 搭建prism项目
热门文章
- 基于KNN算法——手写海伦约会(学习)
- 深入理解Redis--fork操作
- 易百纳rv1126 a201开发板跑rknn yolov5
- 监控宝篇之一(快速入门)
- bugfree安装中mysql未安装_记第一次安装bugfree过程,几经曲折,倒在了BUGfree 环境检查的MySQL未安装的地方,求助...
- 安装bugfree进行环境检查时,提示mysql未安装
- 基于ROS多波束前视声呐仿真模块的一些应用
- Towards High-Fidelity 3D Face Reconstruction from In-the-Wild Images Using GCN
- 实习的那些岁月杂谈(一)
- Logback 日志过滤器的使用-日志分类归档方案