神经网络搭建八股“六步法”编写手写数字识别训练模型

  • Sequential用法
  • model.compile(optimizer=优化器,loss=损失函数,metrics=["准确率"])
  • model.fit
  • model.summery
  • 六步法搭建鸢尾花分类网络
  • class搭建具有非顺序网络结构
  • MNIST数据集
  • Fashion MNIST数据集

Tensorflow API:tf.keras搭建网络八股

六步法

1.import (import相关模块,比如import tensorflow as tf)
2.train test (喂入网络的训练集和测试集,指定训练集的输入特征x_train和训练集的标签y_train ,还可以指定测试集的输入特征x_test和测试集的标签y_test)
3.model=tf.keras.models.Sequential  (搭建网络结构,逐层描述每层网络)
4.model.compile (配置训练方法,告知训练时选择哪种优化器、损失函数、评测指标)
5.model.fit (执行训练过程,告知训练集和测试集的输入特征和标签,告知每个batch是多少、要迭代多少次数据集)
6.model.summary (打印网络的结构和参数统计)

Sequential用法

可以认为Sequential()是个容器,在这个容器中封装了一个神经网络结构

Sequential要描述从输入层到输出层每一层的网络结构

例如:

1.拉直层:tf.keras.layers.Flatten()2.全连接层:tf.keras.layers.Dense(神经元个数,activation='激活函数',kernel_regularizer=哪种正则化)activation可选:relu、softmax、sigmoid、tanh
kernel_regularizer可选:tf.keras.regularizers.l1()、tf.keras.regularizers.l2()3.卷积层:tf.keras.Conv2D(filter=卷积核个数,kernel_size=卷积核尺寸,strides=卷积步长,padding="valid" or "same")4.LSTM层:tf.keras.layers.LSTM()

model.compile(optimizer=优化器,loss=损失函数,metrics=[“准确率”])

optimizer可选:

#优化器,可以是字符串形式的名字,还可以是函数形式(函数形式可以设置学习率、动量等超参数)
"sgd" or tf.keras.optimizers.SGD(lr=学习率,momentum=动量参数)
"adagrad" or tf.keras.optimizers.Adagrad(lr=学习率)
"adadelta" or tf.keras.optimizers.Adadelta(lr=学习率)
"adam" or tf.keras.optimizers.Adam(lr=学习率,beta_1=0.9,beta_2=0.999)

loss可选:

#优损失函数,可以是字符串形式的名字,还可以是函数形式
"mse" or tf.keras.losses.MeanSquaredError()
"sparse_categorical_crossentropy" or tf.keras.SparseCategoricalCrossentropy(from_logits=False)#from_logits=False 询问是否是原始输出(指未经过softmax概率输出的,经过False,未经过True)

Metrics可选:

"accuracy":y_和y都是值
"categorical_accuracy":y与y_都是独热码
"sparse_categorical":y_是值,y是独热码

model.fit

modelfit(训练集输入特征,训练集的标签,batch_size= , epochs= ,validation_data=(测试集的输入特征,测试集的标签)vaildation_split=从训练集划分多少比例给测试集vaildation_freq=多少epoch测试一次)
#validation_data与vaildation_split二选一

model.summery

model.summery可以打印网络的结构和参数统计

以鸢尾花分类的网络为例

六步法搭建鸢尾花分类网络

import tensorflow as tf
from sklearn import datasets
import numpy as npx_train = datasets.load_iris().data
y_train = datasets.load_iris().targetnp.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
tf.random.set_seed(116)model = tf.keras.models.Sequential([tf.keras.layers.Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
])model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),metrics=['sparse_categorical_accuracy'])model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)model.summary()

class搭建具有非顺序网络结构

#想要搭建非顺序的网络结构,可以用class
1.import
2.train、test
3.class MyModel(model) model=MyModel
4.model.compile
5.model.fit
6.model.sunmmary

class类来封装一个网络结构

class MyModel(Model)

class MyModel(Model):#MyModel为神经网络的名字,继承了Tensorflow的Model类def __init__(self):super(MyModel,self).__init__()定义网络结构模块def call(self,x):调用网络结构模块,实现前向传播return ymodel=MyModel()
###
__init__() 定义所需的网络结构块
call() 写出前向传播
###

例子:

class IrisModel(Model):def __init__(self):supper(IrisModel,self).__init__()self.d1=Dens(3)def call(self,x):y=self.d1(x)return ymodel=IrisModel()

用类实网络结构实现鸢尾花分类的代码:

import tensorflow as tf
from tensorflow.keras.layers import Dense#添加的部分
from tensorflow.keras import Model#添加的部分
import numpy as np
from sklearn import datasetsx=datasets.load_iris().data
y=datasets.load_iris().targetnp.random.seed(116)
np.random.shuffle(x)
np.random.seed(116)
np.random.shuffle(y)class IrisModel(Model):def __init__(self):super().__init__()self.d1=Dense(3,activation='sigmoid',kernel_regularizer=tf.keras.regularizers.l2())def call(self,x):y=self.d1(x)return y
model=IrisModel()
# model=tf.keras.models.Sequential([tf.keras.layers.Dense(3,activation="softmax",kernel_regularizer=tf.keras.regularizers.l2())])model.compile(optimizer=tf.keras.optimizers.SGD(learning_rate=0.1),loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),metrics=['sparse_categorical_accuracy'])model.fit(x,y,batch_size=32,epochs=500,validation_split=0.2,validation_freq=20)model.summary()

结果为

Epoch 500/500
4/4 [==============================] - 0s 11ms/step
- loss: 0.4527
- sparse_categorical_accuracy: 0.8500
- val_loss: 1.0348
- val_sparse_categorical_accuracy: 0.5333Model: "iris_model"
____________________________________________________________Layer (type)                Output Shape              Param
============================================================dense (Dense)               multiple                  15        ============================================================
Total params: 15
Trainable params: 15
Non-trainable params: 0
____________________________________________________________

其中:

loss:训练集loss
val_loss:测试集loss
sparse_categorical_accuracy:训练集准确率
val_sparse_categorical_accuracy:测试集准确率

MNIST数据集

MNIST数据集
提供6w张 28*28像素的0~9手写数字图片和标签,用于训练
提供1w张 28*28像素的0~9手写数字图片和标签,用于测试导入数据集:
minist=tf.keras.datasets.mnist
(x_train,y_train),(x_test,y_test)=mnist.load_data()
作为输入特征,输入神经网络时,将数据拉伸为一维
tf.keras.layers.Flatten()
import tensorflow as tf
from matplotlib import pyplot as pltmnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data(r"这里填mnist数据集路径")#把minist数据集先下载到电脑中,再导入,直接下载容易出错# 可视化训练集输入特征的第一个元素
plt.imshow(x_train[0], cmap='gray')  # 绘制灰度图
plt.show()# 打印出训练集输入特征的第一个元素
print("x_train[0]:\n", x_train[0])
# 打印出训练集标签的第一个元素
print("y_train[0]:\n", y_train[0])# 打印出整个训练集输入特征形状
print("x_train.shape:\n", x_train.shape)
# 打印出整个训练集标签的形状
print("y_train.shape:\n", y_train.shape)
# 打印出整个测试集输入特征的形状
print("x_test.shape:\n", x_test.shape)
# 打印出整个测试集标签的形状
print("y_test.shape:\n", y_test.shape)

用mnist数据集的训练代码

import tensorflow as tfmnist=tf.keras.datasets.mnist(x_train,y_train),(x_test,y_test)=mnist.load_data(r"这里填mnist数据集路径")x_train,x_test=x_train/255.0,x_test/255.0#归一化到[0,1]model=tf.keras.models.Sequential([tf.keras.layers.Flatten(),tf.keras.layers.Dense(128,activation='relu'),tf.keras.layers.Dense(10,activation='softmax')
])model.compile(optimizer='adam',loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),metrics=["sparse_categorical_accuracy"])model.fit(x_train,y_train,batch_size=32,epochs=5,validation_data=(x_test,y_test),validation_freq=1)#执行训练过程model.summary()

用类实现手写字识别

import tensorflow as tf
from tensorflow.keras.layers import Dense,Flatten
from tensorflow.keras import Model
mnist=tf.keras.datasets.mnist(x_train,y_train),(x_test,y_test)=mnist.load_data(r"C:\Users\98306\Desktop\Tensorflow\中国大学MOOCTF笔记2.1共享给所有学习者\class3\mnist.npz")x_train,x_test=x_train/255.0,x_test/255.0 #归一化到[0,1]class MnistModel(Model):def __init__(self):super(MnistModel, self).__init__()self.flatten=Flatten()self.d1=Dense(128,activation='relu')self.d2=Dense(10,activation='softmax')def call(self,x):x=self.flatten(x)x=self.d1(x)y=self.d2(x)return ymodel=MnistModel()
# model=tf.keras.models.Sequential([
#     tf.keras.layers.Flatten(),
#     tf.keras.layers.Dense(128,activation='relu'),
#     tf.keras.layers.Dense(10,activation='softmax')
# ])model.compile(optimizer='adam',loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),metrics=["sparse_categorical_accuracy"])model.fit(x_train,y_train,batch_size=32,epochs=5,validation_data=(x_test,y_test),validation_freq=1)model.summary()

Fashion MNIST数据集

Fashion MNIST数据集
提供6w张 28*28像素的0~9手写衣服裤子等图片和标签,用于训练
提供1w张 28*28像素的0~9手写衣服裤子等图片和标签,用于测试
一共十个分类导入数据集:
minist=tf.keras.datasets.mnist
(x_train,y_train),(x_test,y_test)=mnist.load_data()
作为输入特征,输入神经网络时,将数据拉伸为一维
tf.keras.layers.Flatten()

Fashion MNIST数据集没法直接代码下载的话可以参考这篇博客

【Tensorflow学习三】神经网络搭建八股“六步法”编写手写数字识别训练模型相关推荐

  1. 【卷积神经网络CNN 实战案例 GoogleNet 实现手写数字识别 源码详解 深度学习 Pytorch笔记 B站刘二大人 (9.5/10)】

    卷积神经网络CNN 实战案例 GoogleNet 实现手写数字识别 源码详解 深度学习 Pytorch笔记 B站刘二大人 (9.5/10) 在上一章已经完成了卷积神经网络的结构分析,并通过各个模块理解 ...

  2. 深度学习 LSTM长短期记忆网络原理与Pytorch手写数字识别

    深度学习 LSTM长短期记忆网络原理与Pytorch手写数字识别 一.前言 二.网络结构 三.可解释性 四.记忆主线 五.遗忘门 六.输入门 七.输出门 八.手写数字识别实战 8.1 引入依赖库 8. ...

  3. 深度学习(32)随机梯度下降十: 手写数字识别问题(层)

    深度学习(32)随机梯度下降十: 手写数字识别问题(层) 1. 数据集 2. 网络层 3. 网络模型 4. 网络训练 本节将利用前面介绍的多层全连接网络的梯度推导结果,直接利用Python循环计算每一 ...

  4. 将tensorflow训练好的模型移植到Android (MNIST手写数字识别)

    将tensorflow训练好的模型移植到Android (MNIST手写数字识别) [尊重原创,转载请注明出处]https://blog.csdn.net/guyuealian/article/det ...

  5. 深度学习100例 | 第25天-卷积神经网络(CNN):中文手写数字识别

    大家好,我是『K同学啊』! 接着上一篇文章 深度学习100例 | 第24天-卷积神经网络(Xception):动物识别,我用Xception模型实现了对狗.猫.鸡.马等四种动物的识别,带大家了解了Xc ...

  6. 机器学习框架ML.NET学习笔记【5】多元分类之手写数字识别(续)

    一.概述 上一篇文章我们利用ML.NET的多元分类算法实现了一个手写数字识别的例子,这个例子存在一个问题,就是输入的数据是预处理过的,很不直观,这次我们要直接通过图片来进行学习和判断.思路很简单,就是 ...

  7. pytorch 预测手写体数字_深度学习之PyTorch实战(3)——实战手写数字识别

    如果需要小编其他论文翻译,请移步小编的GitHub地址 传送门:请点击我 如果点击有误:https://github.com/LeBron-Jian/DeepLearningNote 上一节,我们已经 ...

  8. TensorFlow笔记(3)——利用TensorFlow和MNIST数据集训练一个最简单的手写数字识别模型...

    前言 当我们开始学习编程的时候,第一件事往往是学习打印"Hello World".就好比编程入门有Hello World,机器学习入门有MNIST. MNIST是一个入门级的计算机 ...

  9. 神经网络初探(BP 算法、手写数字识别)

    神经网络的结构就不说了,网上一大堆-- 这次手写数字识别采用的是 sigmoid 激活函数和 MSE 损失函数. 虽然网上说这种方式比不上 softmax 激活函数和交叉熵损失函数,后者更适合用于分类 ...

最新文章

  1. java代码审查规范
  2. jmeter 自定义参数_jmeter参数化并在jenkins上执行
  3. ubuntu上训练yolov3: Caught ValueError in DataLoader worker process 0. string indices must be integers.
  4. 百度技术研发笔试题目1
  5. java与java ee_Java EE 8 MVC:全局异常处理
  6. 视讯稳定的程序在gpu 那台电脑上没有问题 在自己的电脑上一直报一个错误
  7. python编程(巧用装饰器)
  8. java调用tuxedo中间件,BEA-TUXEDO中间件介绍.ppt
  9. PSOLA基音同步叠加算法
  10. 深度学习基础(一) —— softmax 及 logsoftmax
  11. java完成crm系统ppt,客户关系管理系统答辩稿.ppt
  12. java实现 PDF 格式转 tiff 格式
  13. 如何在一周内快速摸清一个行业?
  14. 从传统外企到阿里 P9,这位 Java 工程师经历了什么?
  15. 公司企业邮箱怎么开通注册?仅需2步,教大家公司企业邮箱怎么弄
  16. 一个员工的离职成本有多高,超出想象
  17. BackTrack5 学习笔记三
  18. [JLOI2014]松鼠的新家 洛谷P3258
  19. PTA - [第四届团体程序设计天梯赛]PTA使我精神焕发
  20. 面向对象(OOP)与面向对象设计(OOD)

热门文章

  1. Privacy Principles
  2. 基于C++GUI背单词小游戏设计与实现
  3. udp 视频包网络传输花屏
  4. 武汉科技大学计算机院考研大纲,2021武汉科技大学考研大纲参考书目
  5. 最全解决 PKIX问题方案:sun.security.validator.ValidatorException: PKIX path building failed:
  6. Java word转pdf(替换变量,转图片)
  7. windows自带邮件系统 登录 163网易账号
  8. 桌面计算机的英文,电脑桌面英文怎么换中文
  9. 地图——基于python的gis开发与应用
  10. NetScaler的部署实验之七NetScaler Gateway的配置以及StoreFront集成NetScaler Gateway的配置更改...