如何利用情感词典做中文文本的情感分析?

这是本学期在大数据哲学与社会科学实验室做的第四次分享了。

第一次分享的是:如何利用“wordcloud+jieba”制作中文词云?

第二次分享的是:如何爬取知乎中问题的回答以及评论的数据?

第三次分享的是:如何做中文文本的情感分析?

本次给大家分享的是利用情感词典进行中文文本分类的方法,这种方法是对人的记忆和判断思维的最简单的模拟,如图所示。

我们首先通过学习来记忆一些基本词汇,如否定词语有“不”,积极词语有“喜欢”、“爱”,消极词语有“讨厌”、“恨”等,从而在大脑中形成一个基本的语料库。

然后,我们再对输入的句子进行最直接的拆分,看看我们所记忆的词汇表中是否存在相应的词语。

接着,根据这个词语的类别来判断情感,比如“我喜欢数学”,“喜欢”这个词在我们所记忆的积极词汇表中,所以我们判断它具有积极的情感。

基于上述思路,我们可以通过以下几个步骤实现基于情感词典的中文文本情感分类:

  • Step01:准备各类词典(积极情感词典、消极情感词典、否定词词典、程度副词词典)
  • Step02:对句子进行分词
  • Step03:进行情感判断

整个过程如下图所示。

1. 准备各类词典

一般来说,词典是文本感情分类最核心的地方。情感词典通常分为四个部分:积极情感词典、消极情感词典、否定词典以及程度副词词典。

目前最常用的词典(微信后台回复“资料下载”可获取这些词典和代码)如下:

  • 清华大学李军中文褒贬义词典
  • Hownet知网情感词典
  • 台湾大学NTUSD
  • 大连理工大学中文情感词汇本体库

本文用到的词典如下:

2. 句子分词

Python中比较常用的分词库是“jieba”,俗称“结巴分词”。

安装“jieba”的过程也比较简单,支持Python的pip安装,命令如下:

pip install jieba

“jieba”常用的函数非常少,通常只有一个cut()函数。

cut(sentence, cut_all=False, HMM=True):将包含中文的整个句子分割成单独的词。

  • sentence:要进行分词的句子。
  • cut_all:模型类型,True表示完整模式,False表示准确模式。
  • HMM:是否使用隐马尔可夫模型。

下面通过简单的例子来讲述如何使用结巴分词。

【例子】利用准确模式分词。

import jiebatext = "中华民族创造了悠久灿烂的中华文明,为人类作出了卓越贡献。"
words = list(jieba.cut(text, cut_all=False))
print(words)
# ['中华民族', '创造', '了', '悠久', '灿烂', '的', '中华文明', ',', '为', '人类', '作出', '了', '卓越贡献', '。']

【例子】利用完整模式分词。

import jiebatext = "中华民族创造了悠久灿烂的中华文明,为人类作出了卓越贡献。"
words = list(jieba.cut(text, cut_all=True))
print(words)
# ['中华', '中华民族', '民族', '创造', '了', '悠久', '灿烂', '的', '中华', '中华文明', '华文', '文明', '', '', '为', '人类', '作出', '了', '卓越', '卓越贡献', '贡献', '', '']

3. 情感判断

基于情感词典的文本情感分类规则比较机械化。

简单起见,我们将每个积极情感词语赋予权重“1”,将每个消极情感词语赋予权重“-1”,并且假设情感值满足线性叠加原理。如果句子分词后的词语向量包含相应的词语,就加上向前的权值,其中,否定词和程度副词会有特殊的判别规则,否定词会导致权值反号,而程度副词则根据修饰的程度加上相应的数值,在本文档中将权重分为1~6,6个档次(感叹号为第2档)。最后,根据总权值的正负性来判断句子的情感。

以下代码用于加载词典:

def loadDict(fileName, score):wordDict = {}with open(fileName) as fin:for line in fin:word = line.strip()wordDict[word] = scorereturn wordDictdef appendDict(wordDict, fileName, score):with open(fileName) as fin:for line in fin:word = line.strip()wordDict[word] = scoredef loadExtentDict(fileName, level):extentDict = {}for i in range(level):with open(fileName + str(i + 1) + ".txt") as fin:for line in fin:word = line.strip()extentDict[word] = i + 1return extentDict

以下代码用于给词汇赋权值:

postDict = loadDict(u"sentimentDict/积极情感词语.txt", 1)  # 积极情感词典
negDict = loadDict(u"sentimentDict/消极情感词语.txt", -1)  # 消极情感词典
inverseDict = loadDict(u"sentimentDict/否定词语.txt", -1)  # 否定词词典
extentDict = loadExtentDict(u"sentimentDict/程度级别词语", 6)
punc = loadDict(u"sentimentDict/标点符号.txt", 1)
exclamation = {"!": 2, "!": 2}

以下代码是具体的规则:

totalScore = 0  # 记录最终情感得分
lastWordPos = 0  # 记录情感词的位置
lastPuncPos = 0  # 记录标点符号的位置
i = 0  # 记录扫描到的词的位置for word in wordList:if word in punc:lastPuncPos = iif word in postDict: # 积极情感词语处理的规则if lastWordPos > lastPuncPos:start = lastWordPoselse:start = lastPuncPosscore = 1for word_before in wordList[start:i]: # 前面是否有否定词和副词if word_before in extentDict:score = score * extentDict[word_before]if word_before in inverseDict:score = score * -1for word_after in wordList[i + 1:]: # 后面是否带感叹号if word_after in punc:if word_after in exclamation:score = score + 2else:breaklastWordPos = itotalScore += scoreelif word in negDict: # 消极情感词语处理的规则if lastWordPos > lastPuncPos:start = lastWordPoselse:start = lastPuncPosscore = -1for word_before in wordList[start:i]: # 前面是否有否定词和副词if word_before in extentDict:score = score * extentDict[word_before]if word_before in inverseDict:score = score * -1for word_after in wordList[i + 1:]:  # 后面是否带感叹号if word_after in punc:if word_after in exclamation:score = score - 2else:breaklastWordPos = itotalScore += scorei = i + 1

4. 补充说明

在如今的网络信息时代,新词的出现如雨后春笋,其中包括“新构造网络词语”以及“将已有词语赋予新的含义”;另一方面,我们整理的情感词典中,也不可能完全包含已有的情感词语。因此,自动扩充情感词典是保证情感分类模型时效性的必要条件。

目前,通过网络爬虫等手段,我们可以从微博、社区中收集到大量的评论数据,为了从这大批量的数据中找到新的具有情感倾向的词语,可以用无监督学习式的词频统计。

我们的目标是“自动扩充”,因此我们要达到的目的是基于现有的初步模型来进行无监督学习,完成词典扩充,从而增强模型自身的性能,然后再以同样的方式进行迭代,这是一个正反馈的调节过程。虽然我们可以从网络中大量抓取评论数据,但是这些数据是无标注的,我们要通过已有的模型对评论数据进行情感分类,然后在同一类情感(积极或消极)的评论集合中统计各个词语的出现频率,最后将积极、消极评论集的各个词语的词频进行对比。某个词语在积极评论集中的词频相当低,在消极评论集中的词频相当高,那么我们就有把握将该词语添加到消极情感词典中,或者说,赋予该词语负的权值。

举例来说,假设我们的消极情感词典中并没有“黑心”这个词语,但是“可恶”、“讨厌”、“反感”、“喜欢”等基本的情感词语在情感词典中已经存在,那么我们就会能够将下述句子正确地进行情感分类:

句子 权值
这个黑心老板太可恶了 -2
我很反感这黑心企业的做法 -2
很讨厌这家黑心店铺 -2
这家店铺真黑心! 0

其中,由于消极情感词典中没有“黑心”这个词语,所以“这家店铺真黑心!”就只会被判断为中性(即权值为0)。分类完成后,对所有词频为正和为负的分别统计各个词频,我们发现,新词语“黑心”在负面评论中出现很多次,但是在正面评论中几乎没有出现,那么我们就将黑心这个词语添加到我们的消极情感词典中,然后更新我们的分类结果:

句子 权值
这个黑心老板太可恶了 -3
我很反感这黑心企业的做法 -3
很讨厌这家黑心店铺 -3
这家店铺真黑心! -2

于是我们就通过无监督式的学习扩充了词典,同时提高了准确率,增强了模型的性能。这是一个反复迭代的过程,前一步的结果可以帮助后一步的进行。

5. 总结

基于情感词典的文本情感分类是容易实现的,其核心之处在于对情感词典的积累。

最后,把完整的代码和测试放在这里,方便大家使用。

import jiebadef loadDict(fileName, score):wordDict = {}with open(fileName) as fin:for line in fin:word = line.strip()wordDict[word] = scorereturn wordDictdef appendDict(wordDict, fileName, score):with open(fileName) as fin:for line in fin:word = line.strip()wordDict[word] = scoredef loadExtentDict(fileName, level):extentDict = {}for i in range(level):with open(fileName + str(i + 1) + ".txt") as fin:for line in fin:word = line.strip()extentDict[word] = i + 1return extentDictdef getScore(content):postDict = loadDict(u"sentimentDict/积极情感词语.txt", 1)  # 积极情感词典negDict = loadDict(u"sentimentDict/消极情感词语.txt", -1)  # 消极情感词典inverseDict = loadDict(u"sentimentDict/否定词语.txt", -1)  # 否定词词典extentDict = loadExtentDict(u"sentimentDict/程度级别词语", 6)punc = loadDict(u"sentimentDict/标点符号.txt", 1)exclamation = {"!": 2, "!": 2}words = jieba.cut(content)wordList = list(words)print(wordList)totalScore = 0  # 记录最终情感得分lastWordPos = 0  # 记录情感词的位置lastPuncPos = 0  # 记录标点符号的位置i = 0  # 记录扫描到的词的位置for word in wordList:if word in punc:lastPuncPos = iif word in postDict:if lastWordPos > lastPuncPos:start = lastWordPoselse:start = lastPuncPosscore = 1for word_before in wordList[start:i]:if word_before in extentDict:score = score * extentDict[word_before]if word_before in inverseDict:score = score * -1for word_after in wordList[i + 1:]:if word_after in punc:if word_after in exclamation:score = score + 2else:breaklastWordPos = itotalScore += scoreelif word in negDict:if lastWordPos > lastPuncPos:start = lastWordPoselse:start = lastPuncPosscore = -1for word_before in wordList[start:i]:if word_before in extentDict:score = score * extentDict[word_before]if word_before in inverseDict:score = score * -1for word_after in wordList[i + 1:]:if word_after in punc:if word_after in exclamation:score = score - 2else:breaklastWordPos = itotalScore += scorei = i + 1return totalScore

测试情感分类的代码如下:

content = u"你真的是一个非常好的人!"
print(getScore(content))  # 11
content = u"这种行为非常的丑陋,无耻!"
print(getScore(content))  # -6

参考文献:

  • https://kexue.fm/archives/3360
  • https://blog.csdn.net/maxMikexu/article/details/106050067

如何利用情感词典做中文文本的情感分析?相关推荐

  1. 如何做中文文本的情感分析?

    如何做中文文本的情感分析? 这是本学期在大数据哲学与社会科学实验室做的第三次分享了. 第一次分享的是:如何利用"wordcloud+jieba"制作中文词云? 第二次分享的是:如何 ...

  2. 基于BERT做中文文本分类(情感分析)

    Bert: BERT是一种预训练语言表示的方法,这意味着我们在大型文本语料库(例如Wikipedia)上训练通用的"语言理解"模型,然后将该模型用于我们关心的下游NLP任务,BER ...

  3. 如何用Python和BERT做中文文本二元分类?| 程序员硬核评测

    点击上方↑↑↑蓝字关注我们~ 「2019 Python开发者日」全日程揭晓,请扫码咨询 ↑↑↑ 作者 | 王树义 来源 | 王树芝兰(ID:nkwangshuyi) 兴奋 去年, Google 的 B ...

  4. 使用BERT做中文文本相似度计算与文本分类

    转载请注明出处,原文地址: https://terrifyzhao.github.io/2018/11/29/使用BERT做中文文本相似度计算.html 简介 最近Google推出了NLP大杀器BER ...

  5. python情感词典计算得分_基于情感词典的情感打分

    原理我就不讲了,请移步下面这篇论文,包括情感词典的构建(各位读者可以根据自己的需求稍作简化),以及打分策略(程序对原论文稍有改动). 论文在这里下载:基于情感词典的中文微博情感倾向性研究 (大家可以上 ...

  6. 如何用 Python 和循环神经网络(RNN)做中文文本分类?

    本文为你展示,如何使用 fasttext 词嵌入预训练模型和循环神经网络(RNN), 在 Keras 深度学习框架上对中文评论信息进行情感分类. 疑问 回顾一下,之前咱们讲了很多关于中文文本分类的内容 ...

  7. BERT微调做中文文本分类

    BERT模型在NLP各项任务中大杀四方,那么我们如何使用这一利器来为我们日常的NLP任务来服务呢?我们首先介绍使用BERT做文本分类任务. 重写读取数据的类 需要根据文件格式重写读取数据的类,只要能够 ...

  8. TCP传输:利用socket服务做一个文本转换器

    转载请注明出处,谢谢:http://blog.csdn.net/harryweasley/article/details/45665291 最近看了一个教学视频,学习socket编程,里面有一个例子感 ...

  9. BlackBerry 10使用Google TTS做中文文本朗读,开发语言C++ Qt Cascade

    首先,我们测试一下Google TTS英文文本朗读 命令行测试: wget -q -U Mozilla -O "helloworld.mp3" "http://trans ...

  10. 结合语言知识和深度学习的中文文本情感分析方法

    结合语言知识和深度学习的中文文本情感分析方法 徐康庭, 宋威 北方工业大学信息学院 摘要:在目前的中文文本情感分析研究中,基于语义规则和情感词典的方法通常需要人工设置情感阈值:而基于深度学习的方法由于 ...

最新文章

  1. 树莓派(raspberry)启用root账户
  2. 导入已有工程相关问题解决实录
  3. 本周测试服务器角色转移系统仅开放转入,5月24日维护公告 角色转移系统全服放出...
  4. mybatis清除一级缓存的几种方法
  5. 个人计算机技术分享,一个计算机类本科毕业设计分享
  6. Android--使用VideoView播放视频
  7. 世界大百科全书!耶鲁大学教授再出神作!用1000幅图片,讲明白45亿年历史......
  8. mysql udb_MySQL InnoDB的一些参数说明
  9. 通过代理上网 固定ip_浅析局部代理IP与全局代理IP的使用说明
  10. Java harddisk pc cpu,java获得cpu使用率
  11. Linux之dd命令使用
  12. 科研人论文必备神器(软件、网站、插件等)
  13. unity3d 台球源码_基于Unity3d的桌球游戏的设计与实现
  14. java 获取全球国家名称,语言,简称
  15. unexpected error while obtaining UI hierarchy
  16. pandas从入门到进阶
  17. 于树莓派安装Ubuntu系统
  18. linux下hg命令
  19. spring boot控制AD域 报错解决
  20. java rectangle获取xy_Day06 Java基础学习笔记

热门文章

  1. 煤矿调度计算机使用管理制度,煤矿调度文档管理制度(参考).doc
  2. 矩阵拼接_numpy 矩阵拼接
  3. imx6 linux调试平台,iMX6Q调试篇-Linux程序开发使用gdb调试
  4. java实现Base64编码与解码
  5. Atlantis poj1151 线段树扫描线
  6. 阅读心得5:《阿里如何实现秒级百万TPS?搜索离线大数据平台架构解读》
  7. Linux crontab 命令详解
  8. 第5章 用函数封装程序功能
  9. Foursquare 8.0 :聪明人给互联网公司上的流量转化课
  10. 谁分配谁释放HEAP