情感分析:基于循环神经网络

Sentiment Analysis: Using Recurrent Neural Networks

与搜索同义词和类比词类似,文本分类也是单词嵌入的一个下游应用。在本文中,将应用预训练的词向量(glow)和具有多个隐藏层的双向递归神经网络,如图1所示。将使用该模型来判断长度不定的文本序列是包含积极情绪还是消极情绪。

图1. 本节将经过预训练的GloVe to RNN-based提供给基于RNN的体系结构,用于情感分析。

from d2l import mxnet as d2l

from mxnet import gluon, init, np, npx

from mxnet.gluon import nn, rnn

npx.set_np()

batch_size = 64

train_iter, test_iter, vocab = d2l.load_data_imdb(batch_size)

  1. Using a Recurrent Neural Network Model

在该模型中,每个词首先从嵌入层获得一个特征向量。然后,利用双向递归神经网络对特征序列进行编码,得到序列信息。最后,将编码后的序列信息通过全连通层输出。具体来说,可以将双向长短期存储器的隐藏状态连接在初始时间步和最终时间步中,并将其作为编码的特征序列信息传递给输出层分类。在下面实现的BiRNN类中,嵌入实例是嵌入层,LSTM实例是序列编码的隐藏层,密集实例是生成分类结果的输出层。

class BiRNN(nn.Block):

def __init__(self, vocab_size, embed_size, num_hiddens,num_layers, **kwargs):super(BiRNN, self).__init__(**kwargs)self.embedding = nn.Embedding(vocab_size, embed_size)# Set Bidirectional to True to get a bidirectional recurrent neural# networkself.encoder = rnn.LSTM(num_hiddens, num_layers=num_layers,bidirectional=True, input_size=embed_size)self.decoder = nn.Dense(2)def forward(self, inputs):# The shape of inputs is (batch size, number of words). Because LSTM# needs to use sequence as the first dimension, the input is# transformed and the word feature is then extracted. The output shape# is (number of words, batch size, word vector dimension).embeddings = self.embedding(inputs.T)# Since the input (embeddings) is the only argument passed into# rnn.LSTM, it only returns the hidden states of the last hidden layer# at different timestep (outputs). The shape of outputs is# (number of words, batch size, 2 * number of hidden units).outputs = self.encoder(embeddings)# Concatenate the hidden states of the initial timestep and final# timestep to use as the input of the fully connected layer. Its# shape is (batch size, 4 * number of hidden units)encoding = np.concatenate((outputs[0], outputs[-1]), axis=1)outs = self.decoder(encoding)return outs

创建一个具有两个隐藏层的双向递归神经网络。

embed_size, num_hiddens, num_layers, ctx = 100, 100, 2, d2l.try_all_gpus()

net = BiRNN(len(vocab), embed_size, num_hiddens, num_layers)

net.initialize(init.Xavier(), ctx=ctx)

1.1. Loading Pre-trained Word Vectors

由于用于情感分类的训练数据集不是很大,为了处理过拟合,将直接使用在较大语料库上预先训练的词向量作为所有词的特征向量。这里,为字典vocab中的每个单词加载一个100维的GloVe词向量。

glove_embedding = d2l.TokenEmbedding(‘glove.6b.100d’)

查询词汇表中的单词向量。

embeds = glove_embedding[vocab.idx_to_token]

embeds.shape

(49339, 100)

然后,将这些词向量作为评论中每个词的特征向量。请注意,预先训练的词向量的维数需要与创建的模型中的嵌入层输出大小embed_size一致。此外,不再在训练期间更新这些词向量。

net.embedding.weight.set_data(embeds)

net.embedding.collect_params().setattr(‘grad_req’, ‘null’)

  1. Training and Evaluating the Model

现在,可以开始训练了。

lr, num_epochs = 0.01, 5

trainer = gluon.Trainer(net.collect_params(), ‘adam’, {‘learning_rate’: lr})

loss = gluon.loss.SoftmaxCrossEntropyLoss()

d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, ctx)

loss 0.299, train acc 0.872, test acc 0.842

626.7 examples/sec on [gpu(0), gpu(1)]

最后,定义了预测函数。

#@save

def predict_sentiment(net, vocab, sentence):

sentence = np.array(vocab[sentence.split()], ctx=d2l.try_gpu())label = np.argmax(net(sentence.reshape(1, -1)), axis=1)

return ‘positive’ if label == 1 else ‘negative’

然后,利用训练好的模型对两个简单句子的情感进行分类。

predict_sentiment(net, vocab, ‘this movie is so great’)

‘positive’

predict_sentiment(net, vocab, ‘this movie is so bad’)

‘negative’

  1. Summary

· Text classification transforms a sequence of text of indefinite length into a category of text. This is a downstream application of word embedding.

· We can apply pre-trained word vectors and recurrent neural networks to classify the emotions in a text.

情感分析:基于循环神经网络相关推荐

  1. 双向循环神经网络_情感分析:基于循环神经网络

    情感分析:基于循环神经网络 Sentiment Analysis: Using Recurrent Neural Networks 与搜索同义词和类比词类似,文本分类也是单词嵌入的一个下游应用.在本文 ...

  2. 【自然语言处理(NLP)】基于循环神经网络实现情感分类

    [自然语言处理(NLP)]基于循环神经网络实现情感分类 活动地址:[CSDN21天学习挑战赛](https://marketing.csdn.net/p/bdabfb52c5d56532133df2a ...

  3. python输出一首诗_基于循环神经网络(RNN)的古诗生成器

    基于循环神经网络(RNN)的古诗生成器,具体内容如下 之前在手机百度上看到有个"为你写诗"功能,能够随机生成古诗,当时感觉很酷炫= = 在学习了深度学习后,了解了一下原理,打算自己 ...

  4. TensorFlow练手项目二:基于循环神经网络(RNN)的古诗生成器

    基于循环神经网络(RNN)的古诗生成器 2019.01.02更新: 代码比较老了,当时的开发环境为Python 2.7 + TensorFlow 1.4,现在可能无法直接运行了.如果有兴趣,可以移步我 ...

  5. 基于循环神经网络的格兰杰因果网络重构

    复杂网络建模的反问题是网络重构,获得节点之间的关系对于分析网络特性有着至关重要的作用.常用的网络重构方法有:1 相关性分析,2 压缩感知,3 动力学方程,4 因果分析,5 深度学习,6 概率图模型,7 ...

  6. 论文学习——基于循环神经网络的电信行业容量数据预测方法

    文章目录 0 封面 1 标题 title 2 摘要 abstract 3 关键字 keywords 4 总结 conclusion 5 引言 introduction 6 介绍 LSTM 6.1 LS ...

  7. Chemistry.AI | 基于循环神经网络(RNN)预测分子性质

    Chemistry.AI | 基于卷积神经网络(CNN)预测分子特性 环境准备 Python版本:Python 3.6.8 PyTorch版本:PyTorch1.1.0 RDKit版本:RDKit 2 ...

  8. 商品评论情感分析——基于商品评论建立的产品综合评价模型(1)

    商品评论情感分析--基于用户评论建立的产品综合评价模型(1) 1.背景 1.1问题分析 2.数据预处理 2.1删除无关数据 2.2文本去重 3.情感分析 4.LDA主题模型 4.1评论文本分词 4.2 ...

  9. 基于循环神经网络的主题模型

    摘  要:      原有的主题模型是基于词袋模型的假设,很大程度上忽略单词的前后顺序或其主题连贯性.本文提出一个基于神经网络的话题生成模型,假定每个词的生成取决于句子中的历史单词,通过使用基于递归神 ...

最新文章

  1. linux的内核是指的什么,[科普] Linux 的内核与 Linux 系统之间的关系
  2. Career Service, what skills do you need for career domain?
  3. Spring FactoryBean的开发1
  4. three.js加载3d模型_基于WebGL的3D技术在网页中的运用 ThingJS 前端开发
  5. c语言cgi函数库,cgic: 为C语言编写CGI的C函数库
  6. Python XML解析
  7. FPGA资源评估方法
  8. 多核编程中伪共享问题(false sharing)
  9. PDE2 three fundamental examples
  10. vscode php 不进断点,php – Docker和XDebug没有读取断点VSCode
  11. debian修改密码
  12. Kubernetes初识
  13. HTML5开发能不能取代原生开发?
  14. python自动化输入文本_快速掌握Python Selenium Web自动化:)四、使用Selenium在网页上进行操作...
  15. PCB板上的白色残留物怎么来的呢?
  16. k8s create pod失败,cannot be handled as a Deployment: [pos 481]: json: expect char '' but got char '1
  17. 求助!PIP安装出问题
  18. 数据是如何在内存中存储的?
  19. C语言学习—给学习C语言初学者的建议
  20. DDOS攻击及其黑色产业链

热门文章

  1. 2022-2028年中国加密货币交易所市场研究及前瞻分析报告
  2. 2022-2028年中国科学仪器行业研究及前瞻分析报告
  3. 错误提示没了_ESC错误排查-系统启动篇
  4. 2022-2028年中国电子陶瓷行业深度调研及投资前景预测报告
  5. 2022-2028年中国丁晴橡胶行业市场深度分析及投资规划分析报告
  6. GCC 同时编译多个 C/C++ 文件
  7. Git 常用操作(4)- 更改提交
  8. 深度学习学习指南-工具篇
  9. 卷积核输出特征图大小的计算 深度学习
  10. 虚拟机为cenots配置网络