前言:前面介绍了LSTM,下面介绍LSTM的几种变种

双向RNN

Bidirectional RNN(双向RNN)假设当前t的输出不仅仅和之前的序列有关,并且 还与之后的序列有关,例如:预测一个语句中缺失的词语那么需要根据上下文进 行预测;Bidirectional RNN是一个相对简单的RNNs,由两个RNNs上下叠加在 一起组成。输出由这两个RNNs的隐藏层的状态决定。

如下图:

网络构建的代码如下:

# 开始网络构建# 1. 输入的数据格式转换# X格式:[batch_size, time_steps, input_size]X = tf.reshape(_X, shape=[-1, timestep_size, input_size])
<span class="hljs-comment"># 单层LSTM RNN</span>
<span class="hljs-comment"># 2. 定义Cell</span>
lstm_cell_fw = tf.nn.rnn_cell.LSTMCell(num_units=hidden_size, reuse=tf.get_variable_scope().reuse)
gru_cell_bw = tf.nn.rnn_cell.GRUCell(num_units=hidden_size, reuse=tf.get_variable_scope().reuse)<span class="hljs-comment"># 3. 单层的RNN网络应用</span>
init_state_fw = lstm_cell_fw.zero_state(batch_size, dtype=tf.float32)
init_state_bw = gru_cell_bw.zero_state(batch_size, dtype=tf.float32)<span class="hljs-comment"># 3. 动态构建双向的RNN网络</span>
<span class="hljs-string">"""
bidirectional_dynamic_rnn(cell_fw: 前向的rnn cell, cell_bw:反向的rnn cell, inputs:输入的序列, sequence_length=None, initial_state_fw=None:前向rnn_cell的初始状态, initial_state_bw=None:反向rnn_cell的初始状态, dtype=None, parallel_iterations=None, swap_memory=False, time_major=False, scope=None)
API返回值:(outputs, output_states) =&gt; outputs存储网络的输出信息,output_states存储网络的细胞状态信息
outputs: 是一个二元组, (output_fw, output_bw)构成,output_fw对应前向的rnn_cell的执行结果,结构为:[batch_size, time_steps, output_size];output_bw对应反向的rnn_cell的执行结果,结果和output_bw一样
output_states:是一个二元组,(output_state_fw, output_state_bw) 构成,output_state_fw和output_state_bw是dynamic_rnn API输出的状态值信息
"""</span>
outputs, states = tf.nn.bidirectional_dynamic_rnn(cell_fw=lstm_cell_fw, cell_bw=gru_cell_bw, inputs=X,initial_state_fw=init_state_fw, initial_state_bw=init_state_bw)
output_fw = outputs[<span class="hljs-number">0</span>][:, <span class="hljs-number">-1</span>, :]
output_bw = outputs[<span class="hljs-number">1</span>][:, <span class="hljs-number">-1</span>, :]
output = tf.concat([output_fw, output_bw], <span class="hljs-number">1</span>)

深度RNN

Deep Bidirectional RNN(深度双向RNN)类似Bidirectional RNN,区别在于每 个每一步的输入有多层网络,这样的话该网络便具有更加强大的表达能力和学习 能力,但是复杂性也提高了,同时需要训练更多的数据。

深度RNN网络构建的代码如下:

#多层def lstm_call():cell = tf.nn.rnn_cell.LSTMCell(num_units=hidden_size,reuse=tf.get_variable_scope().reuse)return tf.nn.rnn_cell.DropoutWrapper(cell,output_keep_prob=keep_prob)mlstm_cell = tf.nn.rnn_cell.MultiRNNCell(cells=[lstm_call() for i in range(layer_num)])inint_state = mlstm_cell.zero_state(batch_size,tf.float32)output,state = tf.nn.dynamic_rnn(mlstm_cell,inputs=X,initial_state=inint_state)output = output[:,-1,:]

几种变种

  1. 增加“peephole connections”层
    让门层也接受细胞状态的输入

  2. 通过耦合忘记门和更新输入门(第一个和第二个门);也就是不再单独的考虑忘记什么、增 加什么信息,而是一起进行考虑。
  3. Gated Recurrent Unit(GRU),2014年提出
    将忘记门和输入门合并成为一个单一的更新门
    同时合并了数据单元状态和隐藏状态
    结构比LSTM的结构更加简单

可以参考论文:http://arxiv.org/pdf/1402.1128v1.pdf

tf.nn.rnn_cell.DropoutWrapper用法细节案例1相关推荐

  1. tf.nn.rnn_cell.DropoutWrapper用法细节案例2

    -- coding: utf-8 -- import tensorflow as tf from tensorflow.contrib import rnn 导入 MINST 数据集 from ten ...

  2. deep_learning 03. tf.nn.rnn_cell.MultiRNNCell()

    开始的话: 从基础做起,不断学习,坚持不懈,加油. 一位爱生活爱技术来自火星的程序汪 前面两节讲了两个基础的BasicRNNCell和BasicLSTMCell,今天就来看下怎么把这些简单的cell给 ...

  3. 成功解决没有tf.nn.rnn_cell属性

    成功解决没有tf.nn.rnn_cell属性 目录 解决问题 解决思路 解决方法 解决问题 没有tf.nn.rnn_cell属性 解决思路 由于不同的TensorFlow版本之间某些函数的用法引起的错 ...

  4. 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法

    [TensorFlow]tf.nn.softmax_cross_entropy_with_logits的用法 from:https://blog.csdn.net/mao_xiao_feng/arti ...

  5. python中tf.abs_python – Tensorflow:替换tf.nn.rnn_cell._linear(输入,大小,0,范围)

    我试图从 https://arxiv.org/pdf/1609.05473.pdf开始运行SequenceGAN( https://github.com/LantaoYu/SeqGAN). 修复明显的 ...

  6. tf.nn.embedding_lookup()的用法

    函数: tf.nn.embedding_lookup( params, ids, partition_strategy='mod', name=None, validate_indices=True, ...

  7. tf.nn.in_top_k的用法

    http://blog.csdn.net/uestc_c2_403/article/details/73187915 tf.nn.in_top_k组要是用于计算预测的结果和实际结果的是否相等,返回一个 ...

  8. with tf.Session() as sess、 和tf.nn.tanh的用法以及作用

    tf.nn.tanh 双曲正切曲线一个Session可能会拥有一些资源,例如Variable或者Queue.当我们不再需要该session的时候,需要将这些资源进行释放.有两种方式, 调用sessio ...

  9. tf.nn.moments( ) 的用法

    def moments(x,axes,shift=None, # pylint: disable=unused-argumentname=None,keep_dims=False) x: 形如:[ba ...

最新文章

  1. channelinboundhandler中都包含了哪一类的方法_数据仓库、数据集市、数据湖、数据中台到底有什么区别?都得做吗?...
  2. 知识图谱和图分析与可视化
  3. Ubuntu服务器版硬件认证详情
  4. 商汤组了「最强大脑」局,正儿八经解释为啥搞起电竞AI
  5. Eclipse下搭建Hadoop开发环境,并运行第一个实例
  6. lamp架构之升级php版本
  7. Paket:一个面向.NET的包管理器
  8. 伍迷随想冷饭集 之 瞻前顾后之随想
  9. Flask 离线脚本
  10. Express与传统Web应用(服务端渲染、art-template模板引擎、配置静态资源托管)
  11. mfc指示灯报警显示_奔驰车辆常用指示灯功能讲解
  12. linux7重装linux6,CentOS6远程重装7过程
  13. 两台电脑怎么共享_怎么在电脑上创建共享文件(必须是在同一个网段)
  14. SSH三大框架的概述
  15. python脚本字符串拼接_Python脚本分割和连接字符串
  16. 分布式存储系统学习笔记(一)—什么是分布式系统(4)—容错机制
  17. 阿里云windows 2012服务器部署java web程序教程
  18. struts2框架之拦截器(参考第二天学习笔记)
  19. 基于友善的superboot 移植linux内核到tiny210(s5pv210)上
  20. 小学初中数据常用定理公式总结-------复习一下

热门文章

  1. 听飞狐聊JavaScript设计模式系列07
  2. Android中Parcelable与Serializable接口用法
  3. 在 Arch Linux 玩百度 Flash 战曲游戏乱码
  4. org manual翻译--3.6 Org-Plot
  5. 设计一台模型计算机 实现下列指令系统,基本模型机的设计与实现1
  6. C语言实现行列式和代数余子式
  7. 为热门项目 若依(ruoyi) 添加请求日志输出
  8. docker启动tomcat容器并添置项目首页
  9. docker安装mysql以及设置navicat远程访问
  10. 无法通过ip地址连接其它电脑的数据库,但是又可以ping通,错的不是配置,而是差了一个步骤