上一节我们详细讲解了RNN的其中一个学习算法即BPTT,这个算法是基于BP的,只是和BP不同的是在反向传播时,BPTT的需要追溯上一个时间的权值更新,如下图,当前时刻是s(t),但是反向传播时,他需要追溯到上一个时间状态即s(t-1),s(t-2),....直到刚开始的那个时间,但是根据BP我们知道存在一个梯度消失的问题,因此追溯的层数越深,梯度消失的越厉害,基本上追溯到5个时间段时梯度就为0了,另外这里需要再次强调的是每一次追溯上一个时间状态权值更新时是更新所有的u和v的即联动的,因此这里的u和v 的更新是累加的,原因就体现在这里,他每追溯上一层权值更新,其他的层的更新也会跟着变化,简单来说,就是每追溯一层权值就会叠加更新即上一层的叠加。这里需要大家理解,也就是说,虽然RNN实际就三层,但是随着RNN的时序展开机会变得很深,也因此会出现梯度消失的现象,一旦出现梯度消失带来的问题是什么的呢?

我们都知道RNN的强项是针对时间序列的进行处理,在自然语言处理中我们判断一句话往往需要上下文件信息进行判断,如果上下文间隔很长,因为RNN存在梯度消失的情况,因此可能很远的上下文就无法起到用处了,怎么办呢?具体如下图:

从上图我们可以看到,随着追溯的时间越长,其梯度消失 的越厉害,直到完全消失,如何解决呢?LSTM可以很好的解决这个问题,下面我们看看到底怎么解决的:

我们知道了BPTT的缺点是梯度消失,他是由什么引起的呢?下面我们详细看看:我们知道引起梯度消失是因为误差反向传播,下面简单的把BPTT的公式拿过来:

其中                 

上面是标准的BP的反向传播误差,最后一个公式是隐层的权值更新,即当前时刻需要下一时刻的误差(这里和上面的表达可能有点冲突,不过道理是一样的,大家需要适应),这样才叫误差反向传播,这里我们看一次的传播:

通过上式我们发现误差信号即梯度取决于三个量即,那么梯度的 消失直接由这三个参数决定,消失的原因是每次乘积小于1,从这个公式中如何解决问题呢?

Naive Approach

这里我们知道其中是后面的时间序列传过来的数,这里无法改变,那么我们能不能让做恒等映射的天真想法呢?即如下:

很天真的想法,这样做当然可以了,怎么实现呢?这里是隐层的延迟叠加的参数即追溯时间的参数,这里大家别晕了,如何实现呢?我们可以使=1,而为恒等映射和我们前面的深度残差网络类似的映射,这样才能保证乘积为1,因此这样可行即:

带进去上面的式子得到:

使 会带来什么问题呢?问题很严重,主要表现在两方面即输入权值冲突和输出权值冲突:

1.输入权值冲突:

加入上式就是RNN的输入和隐层,就是输入到隐层的权值,就是隐层延迟一个单元反馈给隐层的权值,这里给恒值为1,同时激活函数为恒等映射即,这样做会带来什么问题呢?加入我们输入的是句子,那么当前时刻t的词受到前面的某一个t-a时刻的状态影响,其他时刻的状态和当前时刻没影响,现在我们想要的效果是t-a的那个状态对当前时刻的影响大一点即尽量大一点,其他状态的权值尽量的小,这样才能体现之前的时刻影响当前时刻的要求,但是按照我们上的设置,很明显是有冲突的,因为他是恒等映射而且=1,也就是说无论前面的哪一个时刻的状态我都让他影响当前时刻输入的状态,这样明显不是我们想要的,因此矛盾就出现了。出现矛盾的原因是我们把权值设置为1了,但是我们设置权值为1的目的是为了解决梯度消失问题,因此第一矛盾就是这样形成的。

2.输出权值冲突:

输出和输入是类似的,这里我们需要通过调整来调整输出的大小,这样才能筛选输出的大小,然而输出的权值取决于隐层的输出的大小进行调节的,这里我们就需要隐层的大小可大可小,这样调整调整的目的就是我们希望相邻时间序列对当前的神影响大一些,很长时间的对其影响小一点,但是想达到这样的效果需要就需要隐层权值可变化调整,但是我们设置的是为1,激活函数为恒等映射所有无论什么时间的他都会影响输出的权值,这不是我们想要的,这也是冲突的根源的了。

因此因为上面的两个缺点才导致RNN没有什么具体的使用价值,但是后面出现了LSTM才很好的解决了这个问题,也因此RNN得到了大范围的使用,尤其在时间序列的场合如自然语言处理更是发挥巨大的作用,下面我们就详细的看看LSTM是如何解决这个问题的。

LSTM(LONG SHORT-TERM MEMORY)

原始LSTM:

这里我们根据原始论文的图进行讲解,虽然现在的LSTM和原先的有所不同,但是它还是在原始的LSTM的基础上进行演变,大家只要深入理解这个原始的LSTM 的原理,在学习新的LSTM就会觉得很简单,上面我们讨论了为了解决RNN的梯度消失问题,我们引入了天真的方法即Naive Approach,但是带来了更多的问题,即无法解决我们想要达到的效果,为了解决这个问题,研究者们又引入了新的解决方法即原始的LSTM,下面我们就来看看到底是如何解决的:

这里大家千万别被图吓到了,其实很简单的,这里我会相信的介绍的,上图被正方形覆盖的就是“隐层”了,我们现在从左向又看,首先输入乘上代表的输入权值(表示第j个记忆细胞,就是说上面的方块内是一个记忆细胞),然后输入到激活函数 ,然后输出,此时通过黑点(相乘)即,这里的g大家知道是输入值,而是一个开关即门函数,他输出一个0到1的数,然后和g相乘,作用等会解释。相乘以后就进入了核心区即红线画的地方,这里其实就是我们上面说的天真方法即恒等映射和权值为1(从这一步我们可以看出原始的LSTM还是希望解决梯度消失的问题),经过天真处理后,开始通过隐层的激活函数h然后继续向后传,此时会到达一个黑点(相乘)即,同样的这里的也是一个门函数,稍后解释。通过门函数以后就乘上权值输出了,整体是这样工作的,从上面的工作方式我们可以看到,LSTM是在天真的方法的基础上进行改进的,即还是希望解决梯度消失问题,但是这样做会引入我们上面讨论的两个冲突,为了解决这两个冲突,又引入了们函数即,这两个函数有什么用呢?这两个函数主要是决定是否允许数据通过的作用,这里以为例讲解,我们输入的有没有效果取决于的大小,如果=0,则输入完全被断开了即不允许输入进来,如果=1,则输入完全通过,如果取值在0,1之间说明允许部分通过,同理输出也是这样的功能,引入这两个门有什么好处呢?其实大家可以想想,若果RNN的隐层反向传播,此时当前时刻的输入和前一时刻的输入一起进来,通过这里的门就可以控制上一时刻进入的量,这样就解决了我们最初的想法即我希望前某一时刻对当前影响大就让其通过,影响小使其不通过,同时梯度不会消失,很巧妙的解决了难题,同时达到我们想要的效果,这里大家需要好好理解一下,那大家会不会困惑就怎么设置他什么时候打开什么时候关闭呢?这个只需要通过数据训练即可,使其自动调整好,只有怎么训练就是我们下面需要详细说的,这里大家需要先整体理解他的工作原理。

到这里我们找到了解决方面即设置两个门,控制这两个门的大小就可以完美解决问题,现在的问题是如何设置这两个门?门和什么有关?如何训练呢?

下面先给出上图的数学描述:

先给出两个门的表达式:

这里大家应该都能看懂的,门函数也是需要激活函数的,上图没标明,下面继续:

上式的求和是什么意思呢?就是说门函数的输入可能来源输入单元、门单元、记忆细胞、还有可能是‘隐层’单元。下面我们具体来看一下他们的输入到底来源哪些:

这就是基于LSTM的神经网络,上面我们说了他们是一个整体即一个记忆细胞,如上图,这里也有输入门和输出门,这里我以in1为例进行讲解他的输入来源哪里(看不清的下面我出论文,大家看原始论文),in1的输入来源输入和in1的输出、out1的输出、以及cell1的输出和cell2的输出,如上面的红线标注。这里大家还有继续看LSTM的图,需要继续讨论:

我们看到:

这个是什么意思呢?这个就是追溯上一时刻的写法,其实就是累加(上一节讨论了),上一时刻的累加取决于门函数,因此起到控制作用,下面给出详细的公式:

这个大家应该能看懂了,就不详细解释了,好,上面就是最初的LSTM,我们看看现代版的LSTM:

现代LSTM

我们发现和我们上面的很像,不同的是这里多了一个忘记门,这个门是直接对细胞操作的,他有什么作用呢?他是模拟人脑提出的,即短时间的我们记住他,时间太长的我们选择忘记他,应该是根据这个思想吧(我猜的),反正这是后面添加上去的,那我们看看这三个门的输入是那些?我就不详细说了,大家看看就可以了:

上面的输入很类似,不同的是作用的地点不同,至于他们什么时候开什么时候关,就是通过训练他们的权值进行确定了,下面再给出一个训练好的图:

下面把学习算法说一下,大家看下面的公式时需要时刻看上面的那个输入输出忘记门是来源哪几个,这里我急不详细介绍了,直接把原始论文的公式搬来了,大家也可以看看原始论文,学习算法是基于梯度的即:

前项传播

输入门:

忘记门:

细胞:

输出门:

细胞输出:

反向传播:

细胞输出:

输出门:

states(状态) :

细胞:

忘记门:

输入门:

参考论文有:

BackPropagation Through Time、Learning_Long-Term_Dependencies_with_Gradient_Descent_is_Difficult

LONG SHORT-TERM MEMORY、Supervised-Sequence-Labelling-with-Recurrent-Neural-Networks

写吐了,本节结束,深度学习也结束了,下面写写这段时间的总结,然后开始自然语言处理的总结。

深度学习---循环神经网络RNN详解(LSTM)相关推荐

  1. 深度学习 --- 循环神经网络RNN详解(BPTT)

    今天开始深度学习的最后一个重量级的神经网络即RNN,这个网络在自然语言处理中用处很大,因此需要掌握它,同时本人打算在深度学习总结完成以后就开始自然语言处理的总结,至于强化学习呢,目前不打算总结了,因为 ...

  2. 深度学习 循环神经网络RNN

    循环神经网络简介: 循环神经网络(Recurrent Neural Networks)是一种特殊的神经网络结构, 它是根据"人的认知是基于过往的经验和记忆"这一观点提出的. 它与D ...

  3. MLK | 一文理清深度学习循环神经网络

    MLK,即Machine Learning Knowledge,本专栏在于对机器学习的重点知识做一次梳理,便于日后温习,内容主要来自于<百面机器学习>一书,结合自己的经验与思考做的一些总结 ...

  4. 机器学习,深度学习基础算法原理详解(图的搜索、交叉验证、PAC框架、VC-维(持续更新))

    机器学习,深度学习基础算法原理详解(图的搜索.交叉验证.PAC框架.VC-维.支持向量机.核方法(持续更新)) 机器学习,深度学习基础算法原理详解(数据结构部分(持续更新)) 文章目录 1. 图的搜索 ...

  5. 深度学习网络模型——RepVGG网络详解、RepVGG网络训练花分类数据集整体项目实现

    深度学习网络模型--RepVGG网络详解.RepVGG网络训练花分类数据集整体项目实现 0 前言 1 RepVGG Block详解 2 结构重参数化 2.1 融合Conv2d和BN 2.2 Conv2 ...

  6. 深度学习网络模型——Vision Transformer详解 VIT详解

    深度学习网络模型--Vision Transformer详解 VIT详解 通用深度学习网络效果改进调参训练公司自己的数据集,训练步骤记录: 代码实现version-Transformer网络各个流程, ...

  7. CS224N笔记(四) Lecture 7:循环神经网络RNN的进阶——LSTM与GRU

    本文将介绍两种比RNN更好地应对梯度消失问题的模型结构--LSTM和GRU,文章以CS224N的课件和材料为基础,重点分析他们的结构特点和梯度计算,在梯度消失的解决策略上进行了深入探究,并进一步分析它 ...

  8. 【深度学习】一文详解RNN及股票预测实战(Python)!

    循环神经网络(RNN)是基于序列数据(如语言.语音.时间序列)的递归性质而设计的,是一种反馈类型的神经网络,其结构包含环和自重复,因此被称为"循环".它专门用于处理序列数据,如逐字 ...

  9. 打开深度学习的黑盒,详解神经网络可解释性

    深度学习的可解释性研究在近年来顶会的录取文献词云上频频上榜,越来越多的研究工作表明,打开深度学习的黑盒并不是那么遥不可及.这些工作令人们更加信赖深度学习算法生成的结果,也通过分析模型工作的机理,让新的 ...

最新文章

  1. Java项目:干活管理系统(java+SSM+Jsp+Mysql)
  2. 土壤学报:张福锁院士等提出根际生命共同体新概念
  3. 微信开放JS-SDK,助力网页开发[转自微信官方]
  4. 列表,集合,元组,字典
  5. 贝叶斯多元Logistics回归理论基础
  6. LaTeX Test
  7. matlab kill
  8. 音视频技术开发周刊(第130期)
  9. P4123-[CQOI2016]不同的最小割【网络流,分治】
  10. 齐次(Homogeneous)、单项式、多项式
  11. IndiaHacks 2016 - Online Edition (Div. 1 + Div. 2) C. Bear and Up-Down 暴力
  12. libsvm python_LibSVM for Python 使用
  13. centos 7 /etc/rc.local 开机不执行的问题
  14. 搜索系统中所有以.repo结尾的文件并删除(find命令详解及xargs命令详解)
  15. Windows Server 2012 NIC Teaming
  16. 中国人民公安大学(PPSUC) 网络对抗技术作业一
  17. 全国所有省份、城市的JSON
  18. Linux下调用wps的Tables接口,WPS二次开发简单示例
  19. 1. ARMv9-A Overview
  20. 电脑W ndoWs未能启动怎么办,Win7系统电脑开机显示“Windows未能启动”的解决方法...

热门文章

  1. 100个WordPress常用插件精选
  2. 量子计算机退相干问题怎么办,量子退相干
  3. 大数据存在的安全隐患该如何防患
  4. 物联网卡对企业设备的重要性
  5. SQL语句新手练习(一)
  6. python函数递归求和详解_Python递归函数详细分析
  7. java 53个关键字_java的保留(53个)关键字v11.docx
  8. L2-015 互评成绩(排序)
  9. AcWing 1270. 数列区间最大值(RMQ问题)
  10. mysql 多表并列查询_Mysql多表查询(两张独立表,一张关系表)