tensorflow基础入门

思考一个问题:

如何刚好学习TensorFlow

  • 类比为一门开发语言,学会语法,api的调用, 原理性掌握。

语言的要素:

基础数据类型 运算符 流程 字典 数组

import tensorflow as tf# 常量,指定数据类型
data1 = tf.constant(2,dtype=tf.int32)# 变量,指定变量名
data2 = tf.Variable(10,name='var')print(data1)
print(data2)

mark

并没有打印出数值,而是描述信息。

TensorFlow中所有的操作都得在会话中被执行。

import tensorflow as tf# 常量,指定数据类型
data1 = tf.constant(2,dtype=tf.int32)# 变量,指定变量名
data2 = tf.Variable(10,name='var')print(data1)
print(data2)'''
sess = tf.Session()
print(sess.run(data1))# 这里可以正确打印出data1init = tf.global_variables_initializer()
sess.run(init)# 但是当我们仍要用这个sess打印data2时会报错
# 对于变量数值,我们要进行初始化。
print(sess.run(data2))
sess.close()
# 本质 tf = tensor + 计算图
# tensor 数据
# op
# graphs 数据操作
# session
'''
init = tf.global_variables_initializer()
sess = tf.Session()
with sess:sess.run(init)print(sess.run(data1))print(sess.run(data2))

mark

TensorFlow运算实质

mark

tensorflow 由张量和计算图两部分构成。

常量变量都是张量。张量表示的就是数据。

op是operation。 常见的四则运算。赋值,两个tensor之间的加法。

op + tensor 构成了 graphs

# 本质 tf = tensor + 计算图
# tensor 数据
# op
# graphs 数据操作
# session

所有的操作都要在session中被run

分析tf代码:

  • 先分析tensor张量有哪些。
  • 再分析session中的计算图有哪些
  • 这两个方面掌握清楚就好理解代码了

本质是数据 + 计算图

TensorFlow中所有的变量都必须1初始化之后才能进行。init操作实质仍然是一个计算图,
要使用session.tun(init)

直接使用完session 我们还需要close掉

  • 或者使用with进行关闭

view linenumber 看到行号

常量与变量的四则运算

import tensorflow as tf# 两个常量
data1 = tf.constant(6)
data2 = tf.constant(2)# 定义一个加法操作
dataAdd = tf.add(data1,data2)
# 定义一个乘法操作
dataMul = tf.multiply(data1,data2)
# 定义一个减法操作
dataSub = tf.subtract(data1,data2)
# 定义一个除法操作
dataDiv = tf.divide(data1,data2)# 使用sess创建。with不需要close
with tf.Session() as sess:print(sess.run(dataAdd))print(sess.run(dataMul))print(sess.run(dataSub))print(sess.run(dataDiv))
print('end!')

mark

import tensorflow as tf
data1 = tf.constant(6)
# data2变量
data2 = tf.Variable(2)
dataAdd = tf.add(data1,data2)# 完成当前的数据拷贝: 把当前dataAdd的结果追加到data2中
dataCopy = tf.assign(data2,dataAdd)# dataAdd ->data2dataMul = tf.multiply(data1,data2)
dataSub = tf.subtract(data1,data2)
dataDiv = tf.divide(data1,data2)
init = tf.global_variables_initializer()
with tf.Session() as sess:sess.run(init)print(sess.run(dataAdd))print(sess.run(dataMul))print(sess.run(dataSub))print(sess.run(dataDiv))# 将6和2相加的结果放到data2中print('sess.run(dataCopy)',sess.run(dataCopy))#8->data2# 除过run方法还可以使用.eval()直接输出。eval方法相当于下面这句话print('dataCopy.eval()',dataCopy.eval())#8+6->14->data2 = 14# 获取默认的session,执行run操作print('tf.get_default_session()',tf.get_default_session().run(dataCopy))
print('end!')

运行dataCopy.eval()时,其中的data2已经是8了,然后加上常量6.输出14

而再次运行时data2已经变成了14.

计算图运行的两种方法:

  • sess.run
  • op.eval()

矩阵基础

前面的数据我们都是初始化的时候就定义好了,然而有时我们用到的数据是
需要在运算时实时插入的。

placeholder

import tensorflow as tf
data1 = tf.placeholder(tf.float32)
data2 = tf.placeholder(tf.float32)
dataAdd = tf.add(data1,data2)
with tf.Session() as sess:# 使用feed_dict为placeholder回填数据print(sess.run(dataAdd,feed_dict={data1:6,data2:2}))# 1:op dataAdd 2: data (feed_dict = {参数1:6,参数2:2})
print('end!')

矩阵运算

  • 类比 数组 M行N列(二维数组)
  • 外层[] 内层嵌套[]
  • 每个内层中括号表示:[里面 列数据]
  • 每个内层[]整体作为一行 行数
# [[6,6]] 一行两列的矩阵
import tensorflow as tf
# 一行两列矩阵
data1 = tf.constant([[6,6]])
# 两行一列矩阵
data2 = tf.constant([[2],[2]])
# 一行两列
data3 = tf.constant([[3,3]])
# 三行两列
data4 = tf.constant([[1,2],[3,4],[5,6]])print(data4.shape)# 打印矩阵的维度with tf.Session() as sess:print(sess.run(data4)) # 打印整体print(sess.run(data4[0]))# 打印某一行print(sess.run(data4[:,0]))# M*N的矩阵,第一位是行,第二位是列。# 打印某一列,使用:表示所有行print(sess.run(data4[0,1]))# 1 1  下标从0开始算。但是shape是从1开始算的

矩阵运算2

一种矩阵加法,和两种矩阵乘法

矩阵在进行加法的时候,必须要保证两个矩阵的行列相等。

我们两个(2,3)的矩阵相加,相加之后仍然是一个(2,3)的矩阵

mark

mark

两个(2,2)的矩阵相加可以得到新矩阵

mark

A+E 是由第一个矩阵中第一行第一列的值,加上第二个矩阵中第一行第一列的值。

以此类推,对应元素的加法

矩阵的乘法

mark

第一个矩阵的列数,必须等于第二个矩阵的行数,矩阵才可以进行相乘。

(m,k) 与 (k,n) 相乘可以乘出一个(m,n)的

左侧矩阵的第一行的对应元素乘以右侧矩阵的第一列的对应元素,构成新矩阵中(1,1)位置的元素。

这里我们就可以看出为啥要左边的列,等于右边的行了,不然左边这第一行的元素个数(列数) 去右侧的矩阵中找不到对应的元素

代码实现

import tensorflow as tf
data1 = tf.constant([[6,6]])
data2 = tf.constant([[2],[2]])
data3 = tf.constant([[3,3]])
data4 = tf.constant([[1,2],[3,4],[5,6]])# 矩阵相乘
matMul = tf.matmul(data1,data2)# 直接使用简单乘法,对应元素相乘
matMul2 = tf.multiply(data1,data2)# 矩阵相加
matAdd = tf.add(data1,data3)with tf.Session() as sess:print(sess.run(matMul))# data1 (1,2) 乘以 data2(2,1) 得到结果(1,1)print(sess.run(matAdd))# 1行2列 加 1行2列 还是一行两列print(sess.run(matMul2))# 1x2 2x1 = 2x2 这里涉及到python的广播机制# [6,6] 和 [[2].[2]] 都会被补全成一个2x2的矩阵。然后对应元素相乘# 使用print一次打印多个内容print(sess.run([matMul,matAdd]))

特殊矩阵初始化

import tensorflow as tf# 两行三列零矩阵
mat0 = tf.constant([[0,0,0],[0,0,0]])# 两行三列零矩阵
mat1 = tf.zeros([2,3])# 三行两列一矩阵
mat2 = tf.ones([3,2])# 两行三列填充矩阵(15)
mat3 = tf.fill([2,3],15)
with tf.Session() as sess:print(sess.run(mat0))print('************')print(sess.run(mat1))print('************')print(sess.run(mat2))print('************')print(sess.run(mat3))

mark

一些更为特殊的矩阵

import tensorflow as tf
# 三行一列的矩阵
mat1 = tf.constant([[2],[3],[4]])
# 与mat1具有相同的维度,但mat2内容为0
mat2 = tf.zeros_like(mat1)# 将0-2之间数据分成相等的10份,中间有10个数据,要填11
mat3 = tf.linspace(0.0,2.0,11)# 随机数矩阵,2行三列,数字为-1到2之间的随机数
mat4 = tf.random_uniform([2,3],-1,2)with tf.Session() as sess:print(sess.run(mat2))print('************')print(sess.run(mat3))print('************')print(sess.run(mat4))

mark

tf中numpy创建矩阵

类比数据库的学习CURD增删改查

# CURD
import numpy as np# 一维数组
data1 = np.array([1,2,3,4,5])
print(data1)
print('***************')# 两行两列数组
data2 = np.array([[1,2],[3,4]])
print(data2)
print('***************')# 矩阵的维度
print(data1.shape,data2.shape)
print('***************')# 初始化特殊矩阵 zeros ones
print(np.zeros([2,3]),np.ones([2,2]))
print('***************')# 改查: 修改第二行第一列数据
data2[1,0] = 5
print(data2)
# 查询第二行第二列数据
print(data2[1,1])
print('***************')# 基本运算:加减乘除# 两行三列的全一矩阵
data3 = np.ones([2,3])# 简单乘除加法
print(data3*2) # 对应每个元素乘2
print(data3/3) # 对应元素除以3
print(data3+2) # 所有元素加2
print('***************')# 矩阵 +*# 两行三列矩阵
data4 = np.array([[1,2,3],[4,5,6]])# 矩阵对应位置元素相加
print(data3+data4)# 矩阵对应位置元素相乘
print(data3*data4)

mark

Matplotlib绘图模块

使用numpy准备数据,Matplotlib进行可视化绘图

import numpy as np
import matplotlib.pyplot as plt
# 设置在浏览器内显示
%matplotlib inline
# x轴坐标
x = np.array([1,2,3,4,5,6,7,8])
# y轴坐标
y = np.array([3,5,7,6,2,6,10,15])# 绘制折线图,第一个参数x轴坐标,第二个参数y轴坐标。第三个参数颜色
plt.plot(x,y,'r')# 折线 1 x 2 y 3 color
plt.show()
# 第四个参数: 线条宽度
plt.plot(x,y,'g',lw=10)# 4 line w
# 折线 饼状 柱状x = np.array([1,2,3,4,5,6,7,8])
y = np.array([13,25,17,36,21,16,10,15])# 柱状图: color 是颜色, alpha 透明度
# 每个柱状图的占用比例
plt.bar(x,y,0.2,alpha=1,color='b')# 5 color 4 透明度 3 0.9
plt.show()

mark

综合性demo

神经网络逼近股票收盘价格

结合TensorFlow实现一个综合性的例子

实现股票数据日线的绘制,并且用人工神经网络实现股票收盘价格的拟合

mark

其中红色表示当天的股票是上涨的

蓝色表示股票是下降的。9点半开盘,下午三点收盘。

上涨代表: 收盘大于开盘价格。下跌相反

最低价会低于收盘价或开盘价。

数据加载和图表的绘制

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline# 准备数据15组数据。(15天)
date = np.linspace(1,15,15)# 每天的收盘价格
endPrice = np.array([2511.90,2538.26,2510.68,2591.66,2732.98,2701.69,2701.29,2678.67,2726.50,2681.50,2739.17,2715.07,2823.58,2864.90,2919.08]
)# 每天的开盘价格
beginPrice = np.array([2438.71,2500.88,2534.95,2512.52,2594.04,2743.26,2697.47,2695.24,2678.23,2722.13,2674.93,2744.13,2717.46,2832.73,2877.40])# 验证日期
print(date)plt.figure()for i in range(0,15):# 绘制 一个柱状图# x是一个一维数组两个值,对应两个y收盘开盘。dateOne = np.zeros([2])dateOne[0] = i;dateOne[1] = i;# 开盘价格和收盘价格priceOne = np.zeros([2])priceOne[0] = beginPrice[i]priceOne[1] = endPrice[i]# 绘制每一根柱状图,上涨红色,下降绿色if endPrice[i]>beginPrice[i]:# 日期和开收盘价格plt.plot(dateOne,priceOne,'r',lw=8)else:plt.plot(dateOne,priceOne,'g',lw=8)plt.show()

mark

实现最简单的人工神经网络

mark

输入: 15行一列的矩阵。

隐藏层矩阵 1行10列

输出层矩阵 15行一列

mark

输入: 天数 输出: 每天股价

mark

输入层与隐藏层进行连接

mark

输入矩阵A 乘以权重矩阵w1 + 偏置矩阵 构成了B

构成了我们的中间层矩阵。

矩阵B与第三层如何连接

B*w2 + b2 = C

c就是我们的输出矩阵。

维度的变化

mark

mark

w1维度: 一行十列
b1维度: 一行十列

w2维度: 十行一列
b2维度: 十五行一列

mark

mark

加上b1, 会进行广播机制。1*10的b1会被扩展成15行10列。也就是每一行一样。
然后矩阵对应每个元素相加。

mark

神经网络内部如何进行计算和工作?

mark

给参数一些简单的初始值

计算出一个C值。而我们的真实股价2400 2511

  • 第二次循环"梯度下降法" 目的减少111

给出一个新的参数组合。

for循环的终止条件: 训练多少次之后,或者差异符合我们的要求

循环终止会输出最后的w1 w2 b1 b2

知道了 这些参数。我们就知道预测新的股价

代码实现

import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
date = np.linspace(1,15,15)
endPrice = np.array([2511.90,2538.26,2510.68,2591.66,2732.98,2701.69,2701.29,2678.67,2726.50,2681.50,2739.17,2715.07,2823.58,2864.90,2919.08]
)
beginPrice = np.array([2438.71,2500.88,2534.95,2512.52,2594.04,2743.26,2697.47,2695.24,2678.23,2722.13,2674.93,2744.13,2717.46,2832.73,2877.40])
print(date)
plt.figure()
for i in range(0,15):# 1 柱状图dateOne = np.zeros([2])dateOne[0] = i;dateOne[1] = i;priceOne = np.zeros([2])priceOne[0] = beginPrice[i]priceOne[1] = endPrice[i]if endPrice[i]>beginPrice[i]:plt.plot(dateOne,priceOne,'r',lw=8)else:plt.plot(dateOne,priceOne,'g',lw=8)
# 输入的日期
dateNormal = np.zeros([15,1])
# 输出的价格
priceNormal = np.zeros([15,1])# 进行归一化处理
for i in range(0,15):# 日期最大14dateNormal[i,0] = i/14.0;# 价格不会超出3000priceNormal[i,0] = endPrice[i]/3000.0;# 一个n行一列的占位符
x = tf.placeholder(tf.float32,[None,1])
# 一个n行一列的占位符
y = tf.placeholder(tf.float32,[None,1])# 隐藏层B
# w1是会被修改的。所以定义一个变量。
# 初值随机,一行十列,0到1之间
w1 = tf.Variable(tf.random_uniform([1,10],0,1))# 偏置矩阵一行十列
b1 = tf.Variable(tf.zeros([1,10]))# wb1也就是隐藏层的输出值是x乘以w1加上b1
wb1 = tf.matmul(x,w1)+b1
# 激励函数增加非线性元素。
layer1 = tf.nn.relu(wb1) # 激励函数# 输出层
w2 = tf.Variable(tf.random_uniform([10,1],0,1))
b2 = tf.Variable(tf.zeros([15,1]))wb2 = tf.matmul(layer1,w2)+b2
layer2 = tf.nn.relu(wb2) #完成简单映射# 损失函数(真实值-预测值)的平方。开放出来的结果再进行一个均值
loss = tf.reduce_mean(tf.square(y-layer2))#y 真实 layer2 计算# 梯度下降法,梯度下降法。参数为学习率,目标是最小化loss
train_step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)with tf.Session() as sess:# 初始化所有的全局变量sess.run(tf.global_variables_initializer())# 程序终止: for循环次数for i in range(0,10000):# x,y值填入归一化之后的x,ysess.run(train_step,feed_dict={x:dateNormal,y:priceNormal})# 进行预测验证# w1w2 b1b2  A + wb -->layer2 得到新的预测值pred = sess.run(layer2,feed_dict={x:dateNormal})predPrice = np.zeros([15,1])# 还原当前价格。(反归一化)for i in range(0,15):predPrice[i,0]=(pred*3000)[i,0]plt.plot(date,predPrice,'b',lw=1)
plt.show()

mark

3- OpenCV+TensorFlow 入门人工智能图像处理-TensorFlow入门相关推荐

  1. JC-6、OpenCV+Tensorflow入门人工智能图像处理

    目录 Beginner 1. Anaconda下载与环境搭建 2. 计算机视觉入门 hello world 2.1. OpenCV基础操作 2.1.1. 图片的读取与展示 2.1.2. OpenCV中 ...

  2. python用opencv实现图片的美白磨皮_12 - OpenCV+TensorFlow 入门人工智能图像处理-磨皮美白-多智时代...

    磨皮美白 上节课的+固定值,我们还可以变为乘以一个系数. foriinrange(0,height):forjinrange(0,width): (b,g,r)=img[i,j] bb=int(b*1 ...

  3. 8- OpenCV+TensorFlow 入门人工智能图像处理-浮雕效果油画效果

    浮雕效果 浮雕效果与边缘检测类似,也是计算梯度的一个过程 计算公式: 每一个新的像素值 newP = 相邻像素值之差 gray0-gray1 + 恒定值150 加上150是为了增强图片的浮雕灰度等级. ...

  4. Opencv教程:人工智能图像处理入门案例实战

    1.简介 opencv是一个计算机视觉领域的开源库,提供了很多图像处理算法模型和数据处理能力,使用opencv可以完成很多常见的计算机视觉领域的任务,诸如常见的人脸识别.目标检测等 然而对于很多非算法 ...

  5. [Python人工智能] 一.TensorFlow环境搭建及神经网络入门

    从本篇文章开始,作者正式开始研究Python深度学习.神经网络及人工智能相关知识.第一篇文章主要讲解神经网络基础概念,同时讲解TensorFlow2.0的安装过程及基础用法,主要结合作者之前的博客和& ...

  6. 大数据基石python学习_资源 | 177G Python/机器学习/深度学习/算法/TensorFlow等视频,涵盖入门/中级/项目各阶段!...

    原标题:资源 | 177G Python/机器学习/深度学习/算法/TensorFlow等视频,涵盖入门/中级/项目各阶段! 这是一份比较全面的视频教程,基本上包括了市面上所有关于机器学习,统计学习, ...

  7. 深度强化学习入门:用TensorFlow构建你的第一个游戏AI

    本文通过一种简单的 Catch 游戏介绍了深度强化学习的基本原理,并给出了完整的以 Keras 为前端的 TensorFlow 代码实现,是入门深度强化学习的不错选择. GitHub 链接:https ...

  8. 【2023·CANN训练营第一季】昇腾AI入门课(TensorFlow)学习总结

    最近AI可是非常火爆,ChatGPT成为互联网领域最大的风口,带来了各个行业的焦点,也产生了很多场景的AI应用,这将改变人与工具的交互方式,为我们生活提供更便捷的服务.        此次正好报名参加 ...

  9. [深度学习-实践]GAN入门例子-利用Tensorflow Keras与数据集CIFAR10生成新图片

    系列文章目录 深度学习GAN(一)之简单介绍 深度学习GAN(二)之基于CIFAR10数据集的例子; 深度学习GAN(三)之基于手写体Mnist数据集的例子; 深度学习GAN(四)之PIX2PIX G ...

最新文章

  1. 如何在golang中关闭bufio.reader_Golang 并发模型系列:1. 轻松入门流水线模型
  2. [转]SSM框架——详细整合教程(Spring+SpringMVC+MyBatis)
  3. Elasticsearch本地 docker-compose 安装
  4. C语言中控制printf的打印颜色实例及vt100的控制符
  5. 关于定点机中的比例因子
  6. IntelliJ IDEA License Server 本地搭建教程
  7. OpenCASCADE:物理STEP文件
  8. SpaceVim 语言模块 dart
  9. Vim 实用技术,第 2 部分: 常用插件(转)
  10. linux内核溢出利用,Linux内核堆缓冲区溢出漏洞
  11. C# 基础(二十五)WPF/WinForm 控件的句柄是什么意思?
  12. java有序的Map-LinkedHashMap
  13. CSS 小技巧:如何保留 hover 的状态?
  14. 移动端登录后,携带token请求其他页面接口提示token验证失败
  15. 微信公众平台测试账号的注册与申请
  16. Win10 桌面图标出现空文件夹的删除及桌面图标排列问题
  17. 网站推广优化教程100条(完整版)-
  18. 4个网页翻译工具,一键就能将网页英文翻译成中文
  19. 小彩蛋:springboot banner 在线生成
  20. 数仓4.0(三)------数据仓库系统(续)

热门文章

  1. BugkuCTF-MISC题蜜雪冰城~
  2. var lib mysql ib_MYSQL问题解决
  3. mysql表添加完整性约束_SQL语句——完整性约束
  4. golang mysql封装_自己封装的golang 操作数据库方法
  5. 服务器实际显示内存,服务器实际显示内存
  6. 抓包红色_抓包三部曲 WebSocket 协议原理抓包分析
  7. java 静态与非静态之间的访问规则简述
  8. pyqt生成 android,PyQt on Android
  9. poj3249Test for Job(记忆化搜索)
  10. poj1703Find them, Catch them(并查集以及路径压缩)