循环神经网络实现文本情感分类之Pytorch中LSTM和GRU模块使用

1. Pytorch中LSTM和GRU模块使用

1.1 LSTM介绍

LSTM和GRU都是由torch.nn提供

通过观察文档,可知LSTM的参数,

torch.nn.LSTM(input_size,hidden_size,num_layers,batch_first,dropout,bidirectional)

  1. input_size:输入数据的形状,即embedding_dim

  2. hidden_size:隐藏层神经元的数量,即每一层有多少个LSTM单元  【自己设置的】

  3. num_layer :即RNN中的LSTM单元的层数

  4. batch_first:默认值为False,输入的数据需要[seq_len,batch,feature],如果为True,则为[batch,seq_len,feature]

  5. dropout:dropout的比例,默认值为0。dropout是一种训练过程中让部分参数随机失活的一种方式,能够提高训练速度,同时能够解决过拟合的问题。这里是在LSTM的最后一层,对每个输出进行dropout  【失活即参数不会更新】

  6. bidirectional:是否使用双向LSTM,默认是False

【例:torch.nn.LSTM(input_size=emebedding_dim, hidden_size=lstm单元的个数,num_layers=层数,batch_first=数据中batch_size是否在第一个维度)】

实例化LSTM对象之后,不仅需要传入数据,还需要前一次的h_0(前一次的隐藏状态)和c_0(前一次memory)

即:lstm(input,(h_0,c_0))

LSTM的默认输出为output, (h_n, c_n)  h_{0}h_{n}的形状一样,c_{0}c_{n}的形状也是一样的】

  1. output(seq_len, batch, num_directions * hidden_size)--->batch_first=False

  2. h_n:(num_layers * num_directions, batch, hidden_size)

  3. c_n: (num_layers * num_directions, batch, hidden_size)  【nun_directions为1或2,单向为1,双向为2】

【output:把每个实时间步上的结果在seq_len这一维度进行了拼接;h_{n}:把不同层的隐藏状态在第0个维度上进行了拼接】

1.2 LSTM使用示例

假设数据输入为 input ,形状是[10,20],假设embedding的形状是[100,30]

则LSTM使用示例如下:

import torchbatch_size = 10  # 句子的数量
seq_len = 20  # 每个句子的长度
embedding_dim = 30  # 用长度为30的向量表示一个词语
word_vocab = 100  # 词典的数量
hidden_size = 18  # 隐藏层中lstm的个数
num_layer = 2  # 多少个隐藏层#  准备输入数据,构造一个batch的数据
in_put = torch.randint(low=0, high=100, size=(batch_size, seq_len))#  准备embedding
embedding = torch.nn.Embedding(word_vocab, embedding_dim)  # 把embedding之后的数据传入lstm
lstm = torch.nn.LSTM(embedding_dim, hidden_size, num_layer)#  进行mebed操作
embed = embedding(in_put)  # [10, 20, 30]
# print(embed)#  转化数据为batch_first=False
embed = embed.permute(1, 0, 2)  # [20, 10, 30]
print(embed)#  初始化状态,如果不初始化,torch默认初始值为全0
h_0 = torch.rand(num_layer, batch_size, hidden_size)
c_0 = torch.rand(num_layer, batch_size, hidden_size)
out_put, (h_1, c_1) = lstm(embed, (h_0, c_0))print(out_put.size())
print(h_1.size())
print(c_1.size())#  获取最后一个时间步上的输出
last_output = out_put[-1, :, :]
print(last_output.size())#  获取最后一次的hidden_state
last_hidden_state = h_1[-1, :, :]
print(last_hidden_state.size())
print(last_hidden_state)#  通过前面的学习,我们知道,最后一次的h_1应该和output的最后一个time step的输出是一样的
# 通过下面的代码,我们来验证一下:
print(last_output == last_hidden_state)

运行结果:

1.3 GRU的使用示例

GRU模块torch.nn.GRU,和LSTM的参数相同,含义相同,具体可参考文档

但是输入只剩下gru(input,h_0),输出为output, h_n

其形状为:

  1. output:(seq_len, batch, num_directions * hidden_size)

  2. h_n:(num_layers * num_directions, batch, hidden_size)

大家可以使用上述代码,观察GRU的输出形式

【gru=torch.nn.GRU(embedding_dim,hidden_size,num_layer)          gru_output,gru_h_1=gru(embed,h_0)】

1.4 双向LSTM

如果需要使用双向LSTM,则在实例化LSTM的过程中,需要把LSTM中的bidriectional设置为True,同时h_0和c_0使用num_layer*2

观察效果,输出为

import torchbatch_size = 10  # 句子的数量
seq_len = 20  # 每个句子的长度
embedding_dim = 30  # 用长度为30的向量表示一个词语
word_vocab = 100  # 词典的数量
hidden_size = 18  # 隐藏层中lstm的个数
num_layer = 2  # 多少个隐藏层#  准备输入数据,构造一个batch的数据
in_put = torch.randint(low=0, high=100, size=(batch_size, seq_len))#  准备embedding
embedding = torch.nn.Embedding(word_vocab, embedding_dim)  # 把embedding之后的数据传入lstm
lstm = torch.nn.LSTM(embedding_dim, hidden_size, num_layer, bidirectional=True)#  进行mebed操作
embed = embedding(in_put)  # [10, 20, 30]
# print(embed)#  转化数据为batch_first=False
embed = embed.permute(1, 0, 2)  # [20, 10, 30]
print(embed)#  初始化状态,如果不初始化,torch默认初始值为全0
h_0 = torch.rand(num_layer * 2, batch_size, hidden_size)
c_0 = torch.rand(num_layer * 2, batch_size, hidden_size)
out_put, (h_1, c_1) = lstm(embed, (h_0, c_0))print(out_put.size())
print(h_1.size())
print(c_1.size())#  获取最后一个时间步上的输出
last_output = out_put[-1, :, :]
print(last_output.size())#  获取最后一次的hidden_state
last_hidden_state = h_1[-1, :, :]
print(last_hidden_state.size())
print(last_hidden_state)

运行结果:

在单向LSTM中,最后一个time step的输出的前hidden_size个和最后一层隐藏状态h_1的输出相同,那么双向LSTM呢?

双向LSTM中:

output:按照正反计算的结果顺序在第2个维度进行拼接,正向第一个拼接反向的最后一个输出

hidden state:按照得到的结果在第0个维度进行拼接,正向第一个之后接着是反向第一个

  1. 前向的LSTM中,最后一个time step的输出的前hidden_size个和最后一层向前传播h_1的输出相同

    • 示例:

      #  正向
      # -1是前向LSTM的最后一个,前18是前hidden_size个
      #  获取双向LSTM中正向的最后一个时间步的output
      a = out_put[-1, :, :18]  # 前项LSTM中最后一个time step的output
      print(a.size())
      #  获取双向LSTM中正向的最后一个hidden_state
      b = h_1[-2, :, :]  # 倒数第二个为前向
      print(b.size())
      print(a == b)

      运行结果:

2.后向LSTM中,最后一个time step的输出的后hidden_size个和最后一层后向传播的h_1的输出相同

  • 示例:

  • #  反向
    # 0 是反向LSTM的最后一个,后18是后hidden_size个
    c = out_put[0, :, 18:]  # 后向LSTM中的最后一个输出
    print(c.size())
    d = h_1[-1, :, :]  # 后向LSTM中的最后一个隐藏层状态
    print(d.size())
    print(c == d)

    运行结果:

1.4 LSTM和GRU的使用注意点

  1. 第一次调用之前,需要初始化隐藏状态,如果不初始化,默认创建全为0的隐藏状态

  2. 往往会使用LSTM or GRU 的输出的最后一维的结果,来代表LSTM、GRU对文本处理的结果,其形状为[batch, num_directions*hidden_size]【因为最后一维已经包含之前的结果啦】

    1. 并不是所有模型都会使用最后一维的结果

    2. 如果实例化LSTM的过程中,batch_first=False,则output[-1] or output[-1,:,:]可以获取最后一维

    3. 如果实例化LSTM的过程中,batch_first=True,则output[:,-1,:]可以获取最后一维

  3. 如果结果是(seq_len, batch_size, num_directions * hidden_size),需要把它转化为(batch_size,seq_len, num_directions * hidden_size)的形状,不能够不是view等变形的方法,需要使用output.permute(1,0,2),即交换0和1轴,实现上述效果  【使用轴交换】

  4. 使用双向LSTM的时候,往往会分别使用每个方向最后一次的output,作为当前数据经过双向LSTM的结果

    • 即:torch.cat([h_1[-2,:,:],h_1[-1,:,:]],dim=-1)

    • 最后的表示的size是[batch_size,hidden_size*2]

  5. 上述内容在GRU中同理

循环神经网络实现文本情感分类之Pytorch中LSTM和GRU模块使用相关推荐

  1. 循环神经网络实现文本情感分类之使用LSTM完成文本情感分类

    循环神经网络实现文本情感分类之使用LSTM完成文本情感分类 1. 使用LSTM完成文本情感分类 在前面,使用了word embedding去实现了toy级别的文本情感分类,那么现在在这个模型中添加上L ...

  2. NLP学习笔记-循环神经网络RNN、情感分类、LSTM(二)

    循环神经网络和自然语言处理介绍 1. 文本的tokenization 1.1 概念和工具的介绍 tokenization就是通常所说的分词,分出的每一个词语我们把它称为token. 常见的分词工具很多 ...

  3. 复盘:基于attention的多任务多模态情绪情感识别,基于BERT实现文本情感分类(pytorch实战)

    复盘:基于attention机制的多任务多模态情绪情感识别(pytorch实战),基于BERT实现文本情感分类 提示:系列被面试官问的问题,我自己当时不会,所以下来自己复盘一下,认真学习和总结,以应对 ...

  4. 使用语言学特征进行文本情感分类《Linguistically Regularized LSTM for Sentiment Classification》

    原文链接 本文发表于自然语言处理领域顶级会议 ACL 2017 代码链接 摘要 本文主要是做句子情感分类任务的研究,前人做的工作大多都依赖于短语级别的标注,这样费时费力,而一旦仅使用句子级别的标注的话 ...

  5. 中山大学人工智能神经网络学习文本情感分类训练

    初次学习,可能会有一些小问题 一. 实验题目 机器学习(人工神经网络与梯度下降) 二. 实验内容 1.算法原理 假设网络的参数为

  6. Pytorch:循环神经网络与文本预处理

    Pytorch: 循环神经网络与文本数据预处理 Copyright: Jingmin Wei, Pattern Recognition and Intelligent System, School o ...

  7. 基于pytorch的Bi-LSTM中文文本情感分类

    基于pytorch的Bi-LSTM中文文本情感分类 目录 基于pytorch的Bi-LSTM中文文本情感分类 一.前言 二.数据集的准备与处理 2.1 数据集介绍 2.2 文本向量化 2.3 数据集处 ...

  8. 我的实践:pytorch框架下基于BERT实现文本情感分类

    当前,在BERT等预训练模型的基础上进行微调已经成了NLP任务的一个定式了.为了了解BERT怎么用,在这次实践中,我实现了一个最简单的NLP任务,即文本情感分类. 文章目录 1.基于BERT进行情感分 ...

  9. 疫情微博文本情感分类 (简化版SMP2020赛题)

    编者按 代码仅供参考,欢迎交流:请勿用于任何形式的课程作业.如有任何错误,敬请批评指正~ Pytorch系列文章: Pytorch实验一:从零实现Logistic回归和Softmax回归 Pytorc ...

最新文章

  1. Adobe Flash Professional cc2015中文版
  2. HTML学习02之基础;元素;属性
  3. java猜数字游戏应用程序_猜数字游戏的Java小程序
  4. python——类和对象之__dict__属性的使用
  5. UNITY崩溃的日志
  6. java切面不需要接口了吗_使用java语言,如何对一个类中的静态方法做切面编程?...
  7. skimage直方图如何保存_LightGBM的参数详解以及如何调优
  8. error C2248: “CObject::CObject”: 无法访问 private 成员(在“CObject”类中声明) [问题点数
  9. 电脑出现无法访问您试图使用的功能所在的网络位置怎么办?(清除软件卸载残留)
  10. Raffle for Weibo Followers
  11. 关于Echarts南丁格尔玫瑰图的部分解释
  12. Win8或Win8.1下输入法小技巧,个人习惯,可参考
  13. IDC许可证是什么证?IDC办理条件及材料
  14. 用老版的python和pycharm好,还是新版的python和pycharm好?
  15. java获取时间下周几的时间
  16. Win10_word如何批量修改表格样式(WPS Office 2019 PC版)?
  17. java登录锁定_java做帐户登录失败锁定
  18. 蜂窝小区干扰matlab仿真,蜂窝小区同频干扰的Matlab仿真
  19. 读写csv文件时出现‘gbk‘问题
  20. C语言DNA序列还原

热门文章

  1. 打造专属BGM,​Python 深度学习教你
  2. 开放源码,华为鸿蒙HarmonyOS 2.0来了
  3. 腾讯第100个开源项目:微信开源推理加速工具TurboTransformers
  4. 机器学习新闻综述:2019年AI领域不得不看的6篇文章
  5. IEEE分享 | 机器学习在领英的规模化应用
  6. 大规模1.4亿中文知识图谱数据,我把它开源了
  7. 实战:手把手教你实现用语音智能控制电脑 | 附完整代码
  8. 分析Booking的150种机器学习模型,我总结了六条成功经验
  9. 用这个Python库,训练你的模型成为下一个街头霸王!
  10. 12岁AI开发者现身DuerOS发布会:得开发者得天下