为什么80%的码农都做不了架构师?>>>   

  • TensorFlow核心教程

    • 导入TensorFlow
    • 计算图
  • tf.train API
    • 完成程序
  • tf.contrib.learn
    • 基本用法
    • 自定义模型
  • 下一步

原文链接 : https://www.tensorflow.org/get_started/get_started

译文链接 : http://www.apache.wiki/pages/viewpage.action?pageId=10029377

贡献者 : 片刻 ApacheCN Apache中文网

本指南可让您在TensorFlow中进行编程。使用本指南之前, 请安装TensorFlow。为了充分利用本指南,您应该了解以下内容:

  • 如何用Python编程
  • 至少有点数组。
  • 理想的是关于机器学习的东西。但是,如果您对机器学习知之甚少,那么这仍然是您应该阅读的第一个指南。

TensorFlow提供多种API。最低级API - TensorFlow Core - 为您提供完整的编程控制。我们推荐用于机器学习研究人员和需要对其模型进行良好控制的其他人的TensorFlow Core。更高级别的API构建在TensorFlow Core之上。这些更高级别的API通常比TensorFlow Core更容易学习和使用。此外,较高级别的API使重复任务在不同用户之间更容易,更一致。像tf.contrib.learn这样的高级API可以帮助您管理数据集,估计器,培训和推理。请注意,一些高级TensorFlow API(方法名称包含的那些)contrib仍在开发中。某些contrib方法可能会在随后的TensorFlow版本中发生变化或变得过时。

本指南从TensorFlow Core教程开始。稍后我们演示如何在tf.contrib.learn中实现相同的模型。了解TensorFlow核心原则将为您提供一个伟大的心理模型,以便您在使用更紧凑的更高级别的API时内部工作。

张量

TensorFlow中的中心数据单位是张量。张量由一组成形为任意数量的数组的原始值组成。张量的等级是其维数。以下是张量的一些例子:

3 # a rank 0 tensor; this is a scalar with shape []

[1. ,2.3.# a rank 1 tensor; this is a vector with shape [3]

[[1.2.3.], [4.5.6.]] # a rank 2 tensor; a matrix with shape [2, 3]

[[[1.2.3.]], [[7.8.9.]]] # a rank 3 tensor with shape [2, 1, 3]

TensorFlow核心教程

导入TensorFlow

TensorFlow程序的规范导入声明如下:

import tensorflow as tf

这使Python可以访问TensorFlow的所有类,方法和符号。大多数文档假定您已经完成了。

计算图

您可能会认为TensorFlow Core程序由两个独立部分组成:

  1. 构建计算图。
  2. 运行计算图。

计算图形是一系列排列成节点的图形TensorFlow操作。我们来构建一个简单的计算图。每个节点采用零个或多个张量作为输入,并产生张量作为输出。一种类型的节点是一个常数。像所有TensorFlow常数一样,它不需要任何输入,它输出一个内部存储的值。我们可以创建两个浮点式传感器node1 ,node2如下所示:

node1 = tf.constant(3.0, tf.float32)

node2 = tf.constant(4.0# also tf.float32 implicitly

print(node1, node2)

最终的打印声明生成

Tensor("Const:0", shape=(), dtype=float32) Tensor("Const_1:0", shape=(), dtype=float32)

请注意,打印节点不会输出值3.04.0正如您所期望的那样。相反,它们是在评估时分别产生3.0和4.0的节点。要实际评估节点,我们必须在会话中运行计算图。会话封装了TensorFlow运行时的控制和状态。

下面的代码创建一个Session对象,然后调用其run方法运行足够的计算图来评价node1node2。通过在会话中运行计算图如下:

sess = tf.Session()

print(sess.run([node1, node2]))

我们看到3.0和4.0的预期值:

[3.04.0]

我们可以通过将Tensor节点与操作相结合来构建更复杂的计算(操作也是节点)。例如,我们可以添加我们的两个常量节点并生成一个新的图,如下所示:

node3 = tf.add(node1, node2)

print("node3: ", node3)

print("sess.run(node3): ",sess.run(node3))

最后两个print语句生成

node3:  Tensor("Add_2:0", shape=(), dtype=float32)

sess.run(node3):  7.0

TensorFlow提供了一个名为TensorBoard的实用程序,可以显示计算图的图片。这是一个屏幕截图,显示TensorBoard如何可视化图形:

就这样,这个图并不是特别有趣,因为它总是产生一个恒定的结果。可以将图形参数化为接受外部输入,称为占位符。一个占位符是一个承诺后提供一个值。

= tf.placeholder(tf.float32)

= tf.placeholder(tf.float32)

adder_node = + b  # + provides a shortcut for tf.add(a, b)

前面的三行有点像一个函数或一个lambda,其中我们定义了两个输入参数(a和b),然后对它们进行一个操作。我们可以使用feed_dict参数来指定多个输入的图表来指定为这些占位符提供具体值的Tensors:

print(sess.run(adder_node, {a: 3, b:4.5}))

print(sess.run(adder_node, {a: [1,3], b: [24]}))

导致输出

7.5

3.  7.]

在TensorBoard中,图形如下所示:

我们可以通过添加另一个操作来使计算图更加复杂。例如,

add_and_triple = adder_node * 3.

print(sess.run(add_and_triple, {a: 3, b:4.5}))

产生输出

22.5

前面的计算图在TensorBoard中将如下所示:

在机器学习中,我们通常会想要一个可以接受任意输入的模型,比如上面的一个。为了使模型可训练,我们需要能够修改图形以获得具有相同输入的新输出。 变量允许我们向图中添加可训练的参数。它们的构造类型和初始值:

= tf.Variable([.3], tf.float32)

= tf.Variable([-.3], tf.float32)

= tf.placeholder(tf.float32)

linear_model = * + b

常数被调用时初始化tf.constant,其值永远不会改变。相比之下,调用时,变量不会被初始化tf.Variable。要初始化TensorFlow程序中的所有变量,必须显式调用特殊操作,如下所示:

init = tf.global_variables_initializer()

sess.run(init)

重要的是实现initTensorFlow子图的一个句柄,初始化所有的全局变量。在我们调用之前sess.run,变量未初始化。

既然x是占位符,我们可以同时评估linear_model几个值, x如下所示:

print(sess.run(linear_model, {x:[1,2,3,4]}))

产生输出

0.          0.30000001  0.60000002  0.90000004]

我们创建了一个模型,但是我们不知道它有多好。为了评估培训数据的模型,我们需要一个y占位符来提供所需的值,我们需要编写一个损失函数。

损失函数测量当前模型与提供的数据之间的距离。我们将使用线性回归的标准损失模型,其将当前模型和提供的数据之间的三角形的平方相加。linear_model - y创建一个向量,其中每个元素都是对应的示例的错误增量。我们打电话tf.square给这个错误。然后,我们求和所有平方误差,创建一个单一的标量,使用tf.reduce_sum以下方法抽象出所有示例的错误:

= tf.placeholder(tf.float32)

squared_deltas = tf.square(linear_model - y)

loss = tf.reduce_sum(squared_deltas)

print(sess.run(loss, {x:[1,2,3,4], y:[0,-1,-2,-3]}))

产生损失值

23.66

我们可以手动重新分配的值提高这Wb为-1和1变量的值,完美初始化为提供的价值 tf.Variable,但可以使用操作等来改变tf.assign。例如, W=-1并且b=1是我们的模型的最佳参数。我们可以改变W,并 b因此:

fixW = tf.assign(W, [-1.])

fixb = tf.assign(b, [1.])

sess.run([fixW, fixb])

print(sess.run(loss, {x:[1,2,3,4], y:[0,-1,-2,-3]}))

最终打印显示现在的损失为零。

0.0

我们猜测的“完美”的价值观Wb,但机器学习的整点自动找到正确的模型参数。我们将在下一节中展示如何完成此项工作。

tf.train API

机器学习的完整讨论超出了本教程的范围。然而,TensorFlow提供了优化器,缓慢地更改每个变量,以便最大程度地减少损失函数。最简单的优化器是梯度下降。它根据相对于该变量的损失导数的大小修改每个变量。通常,手动计算符号导数是乏味且容易出错的。因此,TensorFlow可以使用该函数自动生成仅给出模型描述的导数tf.gradients。为了简单起见,优化器通常为您做这个。例如,

optimizer = tf.train.GradientDescentOptimizer(0.01)

train = optimizer.minimize(loss)

sess.run(init) # reset values to incorrect defaults.

for in range(1000):

  sess.run(train, {x:[1,2,3,4], y:[0,-1,-2,-3]})

print(sess.run([W, b]))

导致最终的模型参数:

 [array([-0.9999969], dtype=float32), array([ 0.99999082], dtype=float32)]

现在我们已经完成了实际的机器学习!虽然这样做简单的线性回归并不需要太多的TensorFlow核心代码,但更复杂的模型和方法将数据输入到模型中需要更多的代码。因此,TensorFlow为常见的模式,结构和功能提供了更高级别的抽象。我们将在下一节中学习如何使用其中的一些抽象。

完成程序

完成的可训练线性回归模型如下所示:

import numpy as np

import tensorflow as tf

# Model parameters

= tf.Variable([.3], tf.float32)

= tf.Variable([-.3], tf.float32)

# Model input and output

= tf.placeholder(tf.float32)

linear_model = * + b

= tf.placeholder(tf.float32)

# loss

loss = tf.reduce_sum(tf.square(linear_model - y)) # sum of the squares

# optimizer

optimizer = tf.train.GradientDescentOptimizer(0.01)

train = optimizer.minimize(loss)

# training data

x_train = [1,2,3,4]

y_train = [0,-1,-2,-3]

# training loop

init = tf.global_variables_initializer()

sess = tf.Session()

sess.run(init) # reset values to wrong

for in range(1000):

  sess.run(train, {x:x_train, y:y_train})

# evaluate training accuracy

curr_W, curr_b, curr_loss  = sess.run([W, b, loss], {x:x_train, y:y_train})

print("W: %s b: %s loss: %s"%(curr_W, curr_b, curr_loss))

运行时,它会产生

W: [-0.9999969] b: [ 0.99999082] loss: 5.69997e-11

这个更复杂的程序仍然可以在TensorBoard中可视化 

tf.contrib.learn

tf.contrib.learn 是一个高级TensorFlow库,简化了机器学习的机制,其中包括:

  • 运行训练循环
  • 运行评估循环
  • 管理数据集
  • 管理喂养

tf.contrib.learn定义了许多常见的模型。

基本用法

注意线性回归程序变得简单得多 tf.contrib.learn

import tensorflow as tf

# NumPy is often used to load, manipulate and preprocess data.

import numpy as np

# Declare list of features. We only have one real-valued feature. There are many

# other types of columns that are more complicated and useful.

features = [tf.contrib.layers.real_valued_column("x", dimension=1)]

# An estimator is the front end to invoke training (fitting) and evaluation

# (inference). There are many predefined types like linear regression,

# logistic regression, linear classification, logistic classification, and

# many neural network classifiers and regressors. The following code

# provides an estimator that does linear regression.

estimator = tf.contrib.learn.LinearRegressor(feature_columns=features)

# TensorFlow provides many helper methods to read and set up data sets.

# Here we use `numpy_input_fn`. We have to tell the function how many batches

# of data (num_epochs) we want and how big each batch should be.

= np.array([1.2.3.4.])

= np.array([0.-1.-2.-3.])

input_fn = tf.contrib.learn.io.numpy_input_fn({"x":x}, y, batch_size=4,

                                              num_epochs=1000)

# We can invoke 1000 training steps by invoking the `fit` method and passing the

# training data set.

estimator.fit(input_fn=input_fn, steps=1000)

# Here we evaluate how well our model did. In a real example, we would want

# to use a separate validation and testing data set to avoid overfitting.

print(estimator.evaluate(input_fn=input_fn))

运行时,它会产生

{'global_step'1000'loss'1.9650059e-11}

自定义模型

tf.contrib.learn不会锁定您的预定义模型。假设我们想创建一个没有内置到TensorFlow中的自定义模型。我们仍然可以保留数据集,饲养,培训等的高层抽象 tf.contrib.learn。为了说明,我们将展示如何实现我们自己的等效模型,以LinearRegressor使用我们对较低级别TensorFlow API的了解。

要定义一个适合的自定义模型tf.contrib.learn,我们需要使用 tf.contrib.learn.Estimatortf.contrib.learn.LinearRegressor实际上是一个子类tf.contrib.learn.EstimatorEstimator我们只是提供Estimator一个功能model_fn来告诉 tf.contrib.learn它如何评估预测,训练步骤和损失,而不是分类 。代码如下:

import numpy as np

import tensorflow as tf

# Declare list of features, we only have one real-valued feature

def model(features, labels, mode):

  # Build a linear model and predict values

  = tf.get_variable("W", [1], dtype=tf.float64)

  = tf.get_variable("b", [1], dtype=tf.float64)

  = W*features['x'+ b

  # Loss sub-graph

  loss = tf.reduce_sum(tf.square(y - labels))

  # Training sub-graph

  global_step = tf.train.get_global_step()

  optimizer = tf.train.GradientDescentOptimizer(0.01)

  train = tf.group(optimizer.minimize(loss),

                   tf.assign_add(global_step, 1))

  # ModelFnOps connects subgraphs we built to the

  # appropriate functionality.

  return tf.contrib.learn.ModelFnOps(

      mode=mode, predictions=y,

      loss=loss,

      train_op=train)

estimator = tf.contrib.learn.Estimator(model_fn=model)

# define our data set

= np.array([1.2.3.4.])

= np.array([0.-1.-2.-3.])

input_fn = tf.contrib.learn.io.numpy_input_fn({"x": x}, y, 4, num_epochs=1000)

# train

estimator.fit(input_fn=input_fn, steps=1000)

# evaluate our model

print(estimator.evaluate(input_fn=input_fn, steps=10)) 

运行时,它会产生

{'loss'5.9819476e-11'global_step'1000}

请注意,自定义model()函数的内容与下一级API的手动模型训练循环非常相似。

下一步

现在您已经了解了TensorFlow的基础知识。我们还有更多的教程,您可以查看以了解更多。如果您是机器学习的初学者,请参阅MNIST的初学者,否则请查看深入MNIST的专家。

转载于:https://my.oschina.net/repine/blog/917955

TensorFlow入门相关推荐

  1. tensorflow 入门

    基本使用 使用 TensorFlow, 你必须明白 TensorFlow: 使用图 (graph) 来表示计算任务. 在被称之为 会话 (Session) 的上下文 (context) 中执行图. 使 ...

  2. Tensorflow入门——训练结果的保存与加载

    2019独角兽企业重金招聘Python工程师标准>>> 训练完成以后我们就可以直接使用训练好的模板进行预测了 但是每次在预测之前都要进行训练,不是一个常规操作,毕竟有些复杂的模型需要 ...

  3. TensorFlow入门:第一个机器学习Demo

    TensorFlow入门:第一个机器学习Demo 2017年12月13日 20:10:23 阅读数:8604 本文主要通过一个简单的 Demo 介绍 TensorFlow 初级 API 的使用方法,因 ...

  4. 从 TensorFlow 入门机器学习

    写在前面:紧跟时代步伐,开始学习机器学习,抱着争取在毕业之前多看看各个方向是什么样子的心态,发现这是一个很有潜力也很有趣的领域(keng).// 然后就开始补数学了-- 0 TensorFlow 介绍 ...

  5. Tensorflow 入门教程

    Tensorflow 入门教程  http://tensornews.cn/ 深度学习发展史 特征工程 深度学习之激活函数 损失函数 反向传播算法 [上] 反向传播算法 [下] Tensorflow ...

  6. tensorflow入门_TensorFlow法律和统计入门

    tensorflow入门 by Daniel Deutsch 由Daniel Deutsch TensorFlow法律和统计入门 (Get started with TensorFlow on law ...

  7. TensorFlow 入门 | iBooker·ApacheCN

    原文:Getting Started with TensorFlow 协议:CC BY-NC-SA 4.0 自豪地采用谷歌翻译 不要担心自己的形象,只关心如何实现目标.--<原则>,生活原 ...

  8. 比官方更简洁的Tensorflow入门教程

    声明: 参考自Python TensorFlow Tutorial – Build a Neural Network,本文简化了文字部分 文中有很多到官方文档的链接,毕竟有些官方文档是中文的,而且写的 ...

  9. 极客兔兔 TensorFlow入门教程

    TensorFlow入门(一) - mnist手写数字识别(网络搭建) TensorFlow入门(二) - mnist手写数字识别(模型保存加载) TensorFlow入门(三) - mnist手写数 ...

  10. (转)tensorflow入门教程(二十六)人脸识别(上)

    https://blog.csdn.net/rookie_wei/article/details/81676177 1.概述 查看全文 http://www.taodudu.cc/news/show- ...

最新文章

  1. python之父去面试-面试题_个人文章 - SegmentFault 思否
  2. try-catch-finally 与返回值的修改
  3. 用python玩转数据第四周答案_用Python玩转数据_章节答案
  4. fatal: unable to access ‘https://github.com/PanJiaChen/vue-element-admin.git/‘: OpenSSL SSL_read: Co
  5. INFO:InstallShield工程中如何将安装包集成的Prerequisites安装文件压缩到一个Setup.exe中...
  6. tb计算机存储单位_如何节省数TB的云存储
  7. java统计空间占用_JVM —— Java 对象占用空间大小计算
  8. 最新C#开源资源项目
  9. mysql服务器处理查询的模型_mysql02---客户端与服务器模型
  10. python AES对称加密文件、解密文件
  11. PHP正则表达式详解(三)
  12. Object.prototype.toString方法
  13. 数码大师2013破解补丁|数码大师2013白金版注册破解补丁下载(附数码大师2013白金版注册码)
  14. Google 手機程式設計
  15. 方维P2P  二次开发
  16. UConn DataMining Math5671 课程小记(2)
  17. 压敏电阻14D471K
  18. warframe怒焚者结合目标_warframe哪些地图有结合目标 | 手游网游页游攻略大全
  19. java五位随机验证码的实现。要求前四位是随机大小写的字母,最后一位是数字的组合。例如qWrY4
  20. 2019秋季PAT甲级考试总结:努力+策略+运气

热门文章

  1. nutch如何发布插件
  2. 关于android.view.WindowLeaked(窗体泄露)的解决方案
  3. Python 语法小知识
  4. jQuery--AJAX传递xml
  5. Dubbo源码解析之服务路由策略
  6. Dubbo配置文件详解
  7. 18.SSM整合_搭建开发环境
  8. Spinnaker部署
  9. Emptiness 空值语义
  10. 【Python】重载模块