#希拉里右键门,文档主题分类。LDA模型,数据读取还有点问题
#数据来源:请联系公众号:湾区人工智能
import numpy as np
import pandas as pd
import re
import codecs
#UnicodeEncodeError: 'mbcs' codec can't encode characters in position 0--1: invalid character
df = pd.read_csv("D:/自然语言处理/Lecture_3 LDA 主题模型课件与资料/Lecture_3 LDA 主题模型课件与资料/主题模型课件与资料/input/HillaryEmails.csv",encoding='utf-8')
# 原邮件数据中有很多Nan的值,直接扔了。
df = df[['Id','ExtractedBodyText']].dropna()
def clean_email_text(text):text = text.replace('\n'," ") #新行,我们是不需要的text = re.sub(r"-", " ", text) #把 "-" 的两个单词,分开。(比如:july-edu ==> july edu)text = re.sub(r"\d+/\d+/\d+", "", text) #日期,对主体模型没什么意义text = re.sub(r"[0-2]?[0-9]:[0-6][0-9]", "", text) #时间,没意义text = re.sub(r"[\w]+@[\.\w]+", "", text) #邮件地址,没意义text = re.sub(r"/[a-zA-Z]*[:\//\]*[A-Za-z0-9\-_]+\.+[A-Za-z0-9\.\/%&=\?\-_]+/i", "", text) #网址,没意义pure_text = ''# 以防还有其他特殊字符(数字)等等,我们直接把他们loop一遍,过滤掉for letter in text:# 只留下字母和空格if letter.isalpha() or letter==' ':pure_text += letter# 再把那些去除特殊字符后落单的单词,直接排除。# 我们就只剩下有意义的单词了。text = ' '.join(word for word in pure_text.split() if len(word)>1)return text#新建一个colum
docs = df['ExtractedBodyText']
docs = docs.apply(lambda s: clean_email_text(s))
#docs.head(1).values
doclist = docs.values
from gensim import corpora, models, similarities
import gensim
stoplist = ['very', 'ourselves', 'am', 'doesn', 'through', 'me', 'against', 'up', 'just', 'her', 'ours', 'couldn', 'because', 'is', 'isn', 'it', 'only', 'in', 'such', 'too', 'mustn', 'under', 'their', 'if', 'to', 'my', 'himself', 'after', 'why', 'while', 'can', 'each', 'itself', 'his', 'all', 'once', 'herself', 'more', 'our', 'they', 'hasn', 'on', 'ma', 'them', 'its', 'where', 'did', 'll', 'you', 'didn', 'nor', 'as', 'now', 'before', 'those', 'yours', 'from', 'who', 'was', 'm', 'been', 'will', 'into', 'same', 'how', 'some', 'of', 'out', 'with', 's', 'being', 't', 'mightn', 'she', 'again', 'be', 'by', 'shan', 'have', 'yourselves', 'needn', 'and', 'are', 'o', 'these', 'further', 'most', 'yourself', 'having', 'aren', 'here', 'he', 'were', 'but', 'this', 'myself', 'own', 'we', 'so', 'i', 'does', 'both', 'when', 'between', 'd', 'had', 'the', 'y', 'has', 'down', 'off', 'than', 'haven', 'whom', 'wouldn', 'should', 've', 'over', 'themselves', 'few', 'then', 'hadn', 'what', 'until', 'won', 'no', 'about', 'any', 'that', 'for', 'shouldn', 'don', 'do', 'there', 'doing', 'an', 'or', 'ain', 'hers', 'wasn', 'weren', 'above', 'a', 'at', 'your', 'theirs', 'below', 'other', 'not', 're', 'him', 'during', 'which']
texts = [[word for word in doc.lower().split() if word not in stoplist] for doc in doclist]
#用词袋的方法,把每个单词用一个数字index指代,并把我们的原文本变成一条长长的数组:
dictionary = corpora.Dictionary(texts)
corpus = [dictionary.doc2bow(text) for text in texts]
#建立模型
lda = gensim.models.ldamodel.LdaModel(corpus=corpus, id2word=dictionary, num_topics=20)
#第10号分类,其中最常出现的单词是
#lda.print_topic(10, topn=5)
#所有的主题打印出来看看
lda.print_topics(num_topics=20, num_words=5)'''
#可以把新鲜的文本/单词,分类成20个主题中的一个。文本和单词,都必须得经过同样步骤的文本预处理+词袋化,也就是说,变成数字表示每个单词的形式。
lda.get_document_topics(bow)
'''

自然语言处理项目之文档主题分类相关推荐

  1. 文档主题分类项目Python代码

    #希拉里右键门,文档主题分类.LDA模型,数据读取还有点问题 #数据来源:请联系公众号:湾区人工智能 import numpy as np import pandas as pd import re ...

  2. Confluence 6 文档主题合并问答

    在 Confluence 官方 前期发布的消息 中,文档主题在 Confluence 6.0 及其后续版本中已经不可用.我们知道你可能对这个有很多好好奇的问题,因此我们在这里设置了一个问答用于帮助你将 ...

  3. 论文阅读——基于文档主题结构的关键词抽取方法研究(理解)

    1.引言 1.1关键词自动标注的主要方式与算法 关键词自动标注主要有两种方式:关键词抽取与关键词分配. 关键词抽取,是从文档内容中寻找并推荐关键词 关键词分配,是从一个预先构造好的受控词表(contr ...

  4. LDA文档主题生成模型

    基础知识: LDA: latent dirichlet allocation ,又名潜在狄利克雷分布,是非监督机器学习技术,用于识别文档集中潜在的主题词信息. 主要思想:采用词袋方法,将每一篇文档视为 ...

  5. [python] LDA处理文档主题分布及分词、词频、tfidf计算

    这篇文章主要是讲述如何通过LDA处理文本内容TXT,并计算其文档主题分布,主要是核心代码为主.其中LDA入门知识介绍参考这篇文章,包括安装及用法:         [python] LDA处理文档主题 ...

  6. [python] LDA处理文档主题分布代码入门笔记

    以前只知道LDA是个好东西,但自己并没有真正去使用过.同时,关于它的文章也非常之多,推荐大家阅读书籍<LDA漫游指南>,最近自己在学习文档主题分布和实体对齐中也尝试使用LDA进行简单的实验 ...

  7. 主题计算机一级,Office2007文档主题的应用或自定义

    通过应用Office  2007文档主题(主题:一组统一的设计元素,使用颜色.字体和图形设置文档的外观.),您可以快速而轻松地设置整个文档的格式,赋予它专业和时尚的外观.文档主题是一组格式选项,包括一 ...

  8. LDA文档主题发现R

    1.# 加载rJava.Rwordseg.tm.lda库 library(rJava); library(Rwordseg); library("lda", lib.loc=&qu ...

  9. 《用Python进行自然语言处理》第6章 学习分类文本

    1. 我们怎样才能识别语言数据中能明显用于对其分类的特征? 2. 我们怎样才能构建语言模型,用于自动执行语言处理任务? 3. 从这些模型中我们可以学到哪些关于语言的知识? 6.1 有监督分类 性别鉴定 ...

最新文章

  1. 台大李宏毅机器学习2021
  2. 嵌入式linux入门-常用命令介绍
  3. POJ - 2230 Watchcow(欧拉图)
  4. Kubernetes:实现应用不停机更新
  5. swift 第四课 随意 设置button 图片和文字 位置
  6. 网络层核心:路由和路由生成算法
  7. Vue项目中使用Echarts(二)
  8. 【计算几何】线段相交
  9. java爬虫 京东_java爬虫webmagic 案例爬取动态(ajax+js) 网站京东售价格
  10. php可逆加密函数,简洁的PHP可逆加密函数
  11. 博客园php教程,PHP仿博客园,个人博客(1)_PHP教程
  12. 添加多个button或其他的控件
  13. appium 学习教程
  14. WinCC7.4 与扫码枪串口通讯
  15. macOS 安装 aircrack-ng 破解 wifi,hashcat ,OnlineHashCrack,在线破解握手包
  16. Python实现三维数据(x, y, z)的索引——即通过(x, y)的值索引z的值
  17. DQN相关知识总结及演员-评论员算法介绍(DataWhale组队学习笔记)
  18. Dell inspiron 7580硬件升级_更换电池加内存条移动硬盘
  19. Matlab将数据写入文件
  20. 金融风控训练营Task1学习笔记

热门文章

  1. 力扣628. 三个数的最大乘积
  2. java并发之CopyOnWirteArrayList
  3. 正则的简单学习与应用
  4. Leetcode-最长回文子串(包含动态规划以及Manacher算法)
  5. sql 连接数不释放 ,Druid异常:wait millis 40000, active 600, maxActive 600
  6. 原子操作、互斥锁、读写锁
  7. Ubuntu 17 安装Chrome浏览器
  8. Hibernate的CRUD重用性
  9. centos6 安装xhprof扩展
  10. Python学习 第3天 VS与PyCharm使用对比