在这篇文章中将介绍的是RNN的一个“升级”模型,LSTM。LSTM可以说是复杂版本的RNN,相较于simple-RNN,LSTM可以有效地避免了梯度消失的问题,并且在RNN的基础上可以有更长的记忆。

1.LSTM的模型结构

LSTM与simple-RNN的区别更多的在于,LSTM引入了门的一个机制的设定,从而导致了LSTM有4个学习参数(simple-RNN只有一个)。

上图所展示的便是LSTM和simple-RNN的大致模型图。

在LSTM中,一共有3个门,忘记门(forget gate),输入门(input gate),以及输出门(output gate)。而这些门的主要作用便是有选择的让上一次的数据通过。

1.1 门

在LSTM中,我们讲到共有3个门,分别是忘记门,输入门,和输出门。

上图所展示的是LSTM中三个门对应的公式及其模型图。

我们设I_t,F_t,O_t分别对应输入门,忘记门以及输出门在t时刻的输出。我们可以看到三个门输入的参数都是input X_t以及上一层的Hidden state H_(t-1)。并且我们对每一个门,每一个X_t和H_(t-1)都设定了相应的权重W。(实际中,我们会对X_t和H_(t-1)进行结合变成一个矩阵,那么对应到的每一个门的参数权重W就只有一个,因此三个门有三个W)。

上图所展示的是忘记门的F_t运算图。

讲完忘记门的具体模型图,我们这边要就用数据实际的来讲解一下,忘记门是如何进行有选择的忘记的(以忘记门为例,其他两个门都一样)。过程也很简单,因为我们F_t是经过sigmoid函数得到的,因此对应的矩阵的值便在0-1之间,所以当矩阵中某一个值为0时,那么做数组元素依次相乘时,最后的结果便是0(不通过)。同理,当值为1时,那么做数组元素依次相乘时,最后的结果便是1(通过)。

上图所展示的是忘记门的一个数据选择。

1.2候选记忆单元

在LSTM中我们还加入了候选记忆单元这么一个部分,主要作用便是将X_t和H_(t-1)进行结合,产生C_t波浪(数学符号打不出来),这里我们也设定了一组W矩阵作为学习的参数。

上图所展示的是C_t波浪的数学公式。

1.3记忆单元

记忆单元产生结果便是LSTM的一个输出C_t。在1.1和1.2中,我们分别介绍了忘记门,输入门,已经候选记忆单元这三个部分,所以记忆单元便是由这三个所组成。

上图所展示的是LSTM中记忆单元对应的公式及其模型图。

我们可以看到加号的前一部分是忘记门和C_(t-1)做elementwise multiplication(数组元素依次相乘),这个作用便是对上一个的输出C_(t-1)的数据进行选择性的保留,加号的前一部分是输入门和C_t波浪做elementwise multiplication(数组元素依次相乘),这个作用便是对C_t波浪的数据进行选择性的保留。随后两个数据进行相加得到最后的C_t。

1.4隐状态

LSTM的隐状态和simple-RNN的隐变量相识,都是利用上一层的隐藏状态和这一层的输入进行结合,生成下一层的隐藏状态。

   上图所展示的是LSTM中隐状态对应的公式及其模型图。

相较于simple-RNN,这里H_t的产生并不相同。我们可以看到它是将已经生成的C_t,先做激活运算,再与输出门 O_t做elementwise multiplication(数组元素依次相乘),得到最后的H_t。

1.5总结

Long Short-Term Memory(长短期记忆网络)相关推荐

  1. LSTM(long short term memory)长短期记忆网络

    bags of word(WOE) 它的基本思想是假定对于一个文本,忽略其词序和语法.句法,仅仅将其看做是一些词汇的集合,而文本中的每个词汇都是独立的 循环神经网络(recurrent neural ...

  2. LSTM(长短期记忆网络)原理介绍

    相关学习资料: Pytorch:RNN.LSTM.GRU.Bi-GRU.Bi-LSTM.梯度消失.爆炸 难以置信!LSTM和GRU的解析从未如此清晰 RNN_了不起的赵队-CSDN博客_rnn 如何从 ...

  3. LSTM -长短期记忆网络(RNN循环神经网络)

    文章目录 基本概念及其公式 输入门.输出门.遗忘门 候选记忆元 记忆元 隐状态 从零开始实现 LSTM 初始化模型参数 定义模型 训练和预测 简洁实现 小结 基本概念及其公式 LSTM,即(long ...

  4. 详细讲解RNN+LSTM+Tree_LSTM(Tree-Long Short Term Memory)基于树状长短期记忆网络

    14天阅读挑战赛 详细讲解RNN+LSTM+Tree_LSTM(Tree-Long Short Term Memory)基于树状长短期记忆网络 一.RNN 要讲解Tree_LSTM,这必须得从RNN开 ...

  5. 有哪些LSTM(Long Short Term Memory)和RNN(Recurrent)网络的教程?

    知乎用户,阿里巴巴数据应用部门长期招聘「算法,分- 500 人赞同 刚好毕设相关,论文写完顺手就答了 先给出一个最快的了解+上手的教程: 直接看theano官网的LSTM教程+代码:LSTM Netw ...

  6. 长短期记忆网络(Long Short-Term Memory,LSTM)及其变体双向LSTM和GRU

    LSTM(Long Short-Term Memory)长短期记忆网络,是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件.LSTM是解决循环神经网络RNN结构中存在的&q ...

  7. 利用LSTM(长短期记忆网络)来处理脑电数据

    目录 LSTM 原理介绍 LSTM的核心思想 一步一步理解LSTM 代码案例 本分享为脑机学习者Rose整理发表于公众号:脑机接口社区 .QQ交流群:903290195 Rose小哥今天介绍一下用LS ...

  8. 递归神经网络变形之 (Long Short Term Memory,LSTM)

    1.长短期记忆网络LSTM简介 在RNN 计算中,讲到对于传统RNN水平方向进行长时刻序列依赖时可能会出现梯度消失或者梯度爆炸的问题.LSTM 特别适合解决这种需要长时间依赖的问题. LSTM(Lon ...

  9. LSTM(长短期记忆网络)原理与在脑电数据上的应用

    LSTMs(Long Short Term Memory networks,长短期记忆网络)简称LSTMs,很多地方用LSTM来指代它.本文也使用LSTM来表示长短期记忆网络.LSTM是一种特殊的RN ...

  10. 双向长短期记忆网络(BiLSTM)详解

    双向长短期记忆网络(BiLSTM)详解 一.前言 在学习BiLSTM之前,首先需要对RNN和LSTM有一定的了解,可以参考本人的博客:详细讲解RNN+LSTM+Tree_LSTM(Tree-Long ...

最新文章

  1. Flutter开发之《头条 Flutter iOS 混合工程实践》笔记(54)
  2. 2021中国新物业服务发展白皮书
  3. 前端:HTML/06/表单,表单元素(单行文本域,单行密码域,单选按钮,复选框,下拉列表,文本区域,上传文件域,各种按钮,隐藏域,lt;caption表格标题)
  4. JavaScript重难点解析6(Promise)
  5. win10如何打开摄像头_win10系统如何打开自带游戏?
  6. opencv 仿射变换与透视变换详解
  7. 狂神说 es笔记_【开源推荐】专门为程序员朋友量身打造的笔记软件—— Boostnote...
  8. md5加盐(MySQL,PHP)
  9. amesim子模型_为什么amesim模型建立后有的元件没有可用的子模型
  10. pp什么意思_在网络用语中PP是什么意思?
  11. Fiddler出现“The system proxy was changed. Click to reenable capturing.”,代理排查
  12. 谈一谈,自身对技术经理这个职位的理解吧
  13. 已解决ImportError: Pandas requires version ‘2.0.1‘ or newer of ‘xlrd‘ (version ‘1.2.0‘ currently instal
  14. 2021-09-16收集一些可以发外链的网站
  15. Spring Boot 微信-网页授权获取用户信息
  16. 修改注册表来解决Microsoft Office中word和excel表格打开新文件时前面最小化的文件重新弹出显示的问题
  17. 银行贷款,求每月等额还款金额
  18. 精致纯CSS打造绿色漂亮导航栏
  19. NPDP日常记忆知识点一
  20. word2010 标尺游标的微调

热门文章

  1. matlab中的数据导入.mat
  2. 概率论基础 —— 1. 基本事件类型、运算规则,及古典概型与几何型概型
  3. nmon下载及使用方法
  4. 学习笔记,C,n+nn+nnn+nnnn+nnnnn
  5. 安卓开发--运行你的APP
  6. 金额按千分位划分、数字按千分位划分
  7. PLSQL创建Oracle定时任务,定时执行存储过程
  8. 云存储:在Drobpox,Drive,S3和其他之间进行选择
  9. inductive bias:归纳偏置
  10. 怪物猎人GU-武器派生整理之双刀篇