TensorFlow实践(16)——tf.enable_eager_execution方法
TensorFlow实践(16)——tf.enable_eager_execution方法
- (一)前 言
- (二)代码示例
- (三)总 结
(一)前 言
在即将到来的TensorFlow2.0中将对部分机制做出重大调整,其中之一就是将原有的静态图机制(使用静态图的TensorFlow工作流程如下图所示)调整为动态图机制,这将使得TensorFlow更加灵活和易用,在2.0版本到来之前,我们可以通过 tf.enable_eager_execution() 方法来启用动态图机制。
(二)代码示例
import tensorflow as tf
import matplotlib.pyplot as plt
import numpy as np# 启用动态图机制
tf.enable_eager_execution()# 设定学习率
learning_rate = 0.01
# 训练迭代次数
train_steps = 1000
# 构造训练数据
train_X = np.array([[3.3],[4.4],[5.5],[6.71],[6.93],[4.168],[9.799],[6.182],[7.59],[2.167],[7.042],[10.791],[5.313],[7.997],[5.654],[9.27],[3.1]],dtype = np.float32)
train_Y = np.array([[1.7],[2.76],[2.09],[3.19],[1.694],[1.573],[3.366],[2.596],[2.53],[1.221],[2.827],[3.465],[1.65],[2.904],[2.42],[2.94],[1.3]],dtype = np.float32)
# 输入数据
def network(data_x, data_y):X = data_xY_ = data_y# 定义模型参数w = tf.Variable(tf.random_normal([1, 1]),name = "weight")b = tf.Variable(tf.zeros([1]), name = "bias")# 构建模型Y = weight*X + biasY = tf.add(tf.matmul(X, w), b)# 定义损失函数loss = tf.reduce_sum(tf.pow((Y-Y_), 2))/17print(loss)return lossoptimizer = tf.train.AdadeltaOptimizer(learning_rate= 0.01)# 训练1000次
for i in range(0, 1000):# 在动态图机制下,minimize要求接收一个函数optimizer.minimize((lambda: network(train_X, train_Y)))# 输 出:
···
tf.Tensor(54.92399, shape=(), dtype=float32)
tf.Tensor(6.5630927, shape=(), dtype=float32)
tf.Tensor(4.874648, shape=(), dtype=float32)
tf.Tensor(23.35061, shape=(), dtype=float32)
tf.Tensor(27.08449, shape=(), dtype=float32)
tf.Tensor(55.983494, shape=(), dtype=float32)
tf.Tensor(18.76203, shape=(), dtype=float32)
···
(三)总 结
在这一节中我们对tf.enable_eager_execution() 方法进行了讲解,有任何的问题可以在评论区留言,我会尽快回复,谢谢支持!
TensorFlow实践(16)——tf.enable_eager_execution方法相关推荐
- TensorFlow实践(15)——使用tf.device方法指定节点执行设备
TensorFlow实践(15)--使用tf.device方法指定节点执行设备 (一)前 言 (二)tf.device方法指定节点执行设备 (三)总 结 (一)前 言 当我们调用sess.run()方 ...
- 对比tensorflow查看打印输出张量Tensor的两种方法(急切执行tf.enable_eager_execution()和tf.Session.run())
第一种:tf.enable_eager_execution() # -*- coding: utf-8 -*- """ @File : 111.py @Time : 20 ...
- tensorflow tf.enable_eager_execution()(立即执行操作,不添加到稍后在“ tf.Session”中执行的图)
@tf_export("enable_eager_execution") def enable_eager_execution(config=None,device_policy= ...
- 【神经网络与深度学习-TensorFlow实践】-中国大学MOOC课程(八)(TensorFlow基础))
[神经网络与深度学习-TensorFlow实践]-中国大学MOOC课程(八)(TensorFlow基础)) 8 TensorFlow基础 8.1 TensorFlow2.0特性 8.1.1 Tenso ...
- TensorFlow模型保存和加载方法
TensorFlow模型保存和加载方法 模型保存 import tensorflow as tfw1 = tf.Variable(tf.constant(2.0, shape=[1]), name=& ...
- 用TensorFlow可视化卷积层的方法
深度学习中对于卷积层的可视化可以帮助理解卷积层的工作原理与训练状态,然而卷积层可视化的方法不只一种.最简单的方法即直接输出卷积核和卷积后的filter通道,成为图片.然而也有一些方法试图通过反卷积(转 ...
- 【神经网络与深度学习-TensorFlow实践】-中国大学MOOC课程(四)(Python语言基础(2))
[神经网络与深度学习-TensorFlow实践]-中国大学MOOC课程(四)(Python语言基础(2)) 第4讲 Python语言基础(2) 4.1 内置数据结构 4.1.1 序列数据结构(sequ ...
- 【神经网络与深度学习-TensorFlow实践】-中国大学MOOC课程(十二)(人工神经网络(1)))
[神经网络与深度学习-TensorFlow实践]-中国大学MOOC课程(十二)(人工神经网络(1))) 12 人工神经网络(1) 12.1 神经元与感知机 12.1.1 感知机 12.1.2 Delt ...
- 【神经网络与深度学习-TensorFlow实践】-中国大学MOOC课程(十四)(卷积神经网络))
[神经网络与深度学习-TensorFlow实践]-中国大学MOOC课程(十四)(卷积神经网络)) 14 卷积神经网络 14.1 深度学习基础 14.1.1 深度学习的基本思想 14.1.2 深度学习三 ...
最新文章
- 虚拟化--图解交互式方式安装ESXi_5.0的过程
- dockerfile各种命令解析
- 使用Git制作和管理Patch
- linux中的查找文件夹
- jasp报错_JSP报错!成功解决问题200+追加分数!
- 在pycharm安装MySQLdb库和pymysql库的区别
- 2019 秦皇岛 I - Invoker Gym - 102361I dp
- java 为文件及文件夹添加权限
- [No0000D6]端口-进程查询.bat
- 《计算机网络基础与应用》笔记
- html幻灯片气泡,jQuery炫酷气泡缩略图幻灯片画廊插件
- 2021最新微信漫画小程序全开源商业版:带漫画资源,带搭建教程,流量变现利器。附安装说明和源码。
- 速记计算机键盘,键盘字母排列的速记公式
- 程序员的两个主线和四个象限
- SAP中“管理/寄售移动被无值记账”提示问题分析处理实例
- 述职报告不会写?看这篇!
- Piles-with-stones
- KeeFarce工具抓取Keepass密码攻击复现及其行为监测
- 佰锐科技AnyChat荣获平安银行2018年度优质服务供应商称号
- 谈谈我眼中的量化投资