第一章

第二章

本章目的:使用 “ 八股 ” 搭建神经网络

3.1 搭建网络八股 Sequential

用 Tensorflow API:tf.keras 搭建网络八股

六步法:

  1. import
  2. train,test                                                # 喂入网络的训练集和测试集
  3. model = tf.keras.models.Sequential        # 在 Sequential 中搭建网络结构,逐层描述每层网络,即前向传播
  4. model.compile                                         # 在 compile 中配置训练方法,告知训练时对优化器、损失函数、评测指标的选择
  5. model.fit                                                  #  执行训练过程,告知训练集和测试集的输入特征和标签、batch size 、epoch
  6. model.summary                                      # 打印网络的结构和参数统计
  • Sequential ( ) : 可以看作是一个容器,里面封装了神经网络结构,需要描述从输入层到输出层每一层的网络结构.
model = tf.keras.models.Sequential([ 网络结构 ])    # 描述各层网络
# 网络结构举例:
# 拉直层: (不含计算,只是形状转换,把输入特征拉直变为一维数组)
tf.keras.layers.Flatten()# 全连接层:()
tf.keras.layers.Dense(神经元个数, activation="激活函数", kernel_regularizer=哪种正则化)
# activation 可选 relu、softmax、sigmoid、tanh
# kernel_regularizer 可选 tf.keras.regularizers.l1(), tf.keras.regularizers.l2()# 卷积层
tf.keras.layers.Conv2D(filters=卷积核个数, kernel_size=卷积核尺寸, strides=卷积步长, padding=“valid” or "same")# LSTM 层
tf.keras.layers.LSTM()
  • compile ( ) : 配置神经网络的训练方法.
model.compile(optimizer=优化器, loss=损失函数, metrics=["准确率"])
# metrics 为评测指标 # optimizer 可选:
'sgd' or tf.keras.optimizers.SGD(lr=学习率, momentum=动量参数)
'adagrad' or tf.keras.optimizers.Adagrad(lr=学习率)
'adadelta' or tf.keras.optimizers.Adadelta(lr=学习率)
'adam' or tf.keras.optimizers.Adam(lr=学习率, beta_1=0.9, beta_2=0.999)# loss 可选:
'mse' of tf.keras.losses.MeanSquaredError()
'sparse_categorical_crossentropy' of tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False)
# from_logits 表示是否是原始输出,即有没有经过概率分布# Metrics 可选:
'accuracy': y_ 和 y 都是数值
'categorical_accuracy': y_ 和 y 都是独热编码(概率分布)
'sparse_categorical_accuracy': y_ 是数值,y 是独热编码
  • fit ( ) : 执行训练过程.
model.fit( 训练集的输入特征, 训练集的标签, batch_size= , epochs= , validation_data=(测试集的输入特征, 测试集的标签), validation_split=从训练集划分多少比例给测试集, validation_freq=多少次epoch测试一次 )
# batch_size 每次喂入神经网络的样本数
# epochs 要迭代多少次数据集
# validation_data 和 validation_split 选择一个
# 使用测试集验证结果,也可以换成验证集
  • ​​​​​​​鸢尾花分类用六步法复现:
import tensorflow as tf
from sklearn import datasets
import numpy as npx_train = datasets.load_iris().data
y_train = datasets.load_iris().target# 随机打乱数据
np.random.seed(116)
np.random.shuffle(x_train)
np.random.seed(116)
np.random.shuffle(y_train)
np.random.seed(116)# 构建神经网络结构
model = tf.keras.models.Sequential([tf.keras.layers.Dense(3, activation='softmax', kernel_regularizer=tf.keras.regularizers.l2())
])model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),metrics=['sparse_categorical_accuracy'])model.fit(x_train, y_train, batch_size=32, epochs=500, validation_split=0.2, validation_freq=20)model.summary()

3.2 搭建网络八股 class

用 Sequential 可以搭建出上层输出就是下层输入的顺序网络结构,但无法写出一些带有跳连的非顺序网络结构 ( 跳连:上层输出可能是下几层的部分输入 ). 这是,可以选择用类 class 搭建神经网络结构,使用 class 类封装一个神经网络结构.

class MyModel(Model):
# (Model) 表示继承了 Tensorflow 的 Model 类def __init__(self):super(MyModel,self).__init__()定义网络结构块def call(self, x):调用网络结构块,实现前向传播return y
model = MyModel()    # 实例化

以鸢尾花为例:

class IrisModel(Model):def __init__(self):super(IrisModel, self).__init__()self.d1 = Dense(3)    # 鸢尾花分类的单层网络是含有三个神经元的全连接def call(self, x):y = self.d1(x)return ymodel = IrisModel()

3.3 MNIST 数据集

  • MNIST 数据集:

提供 6 万张 28*28 像素点的 0~9 手写数字图片和标签,用于训练.

提供 1 万张 28*28 像素点的 0~9 手写数字图片和标签,用于测试.

  • 导入 MNIST 数据集:
mnist = tf.keras.datasets.mnist
(x_train, y_train), (x_test, y_test) = mnist.load_data()
  • 作为输入特征,输入神经网络时,将数据拉伸为一维数组:
tf.keras.layers.Flatten()
  • 数据集可视化:
# 可视化训练集输入特征的第一个元素
plt.imshow(x_train[0], cmap='gray')    # 绘制灰度图
plt.show()# 打印出训练集输入特征的第一个元素
print("x_train[0]:\n", x_train[0])
# 打印出训练集标签的第一个元素
print("y_train[0]:\n", y_train[0])# 打印出整个训练集输入特征形状
print("x_train.shape:\n", x_train.shape)
# 打印出整个训练集标签形状
print("y_train.shape:\n", y_train.shape)
# 打印出整个测试集输入特征形状
print("x_test.shape:\n", x_test.shape)
# 打印出整个测试集标签形状
print("y_test.shape:\n", y_test.shape)
  • 定义神经网络 —— Sequential 和类两种方法
# 用 Sequential 定义
model = tf.keras.models.Sequential([tf.keras.layers.Flatten(),  # 把输入特征拉直为 784 个数值的一维数组tf.keras.layers.Dense(128, activation='relu'),tf.keras.layers.Dense(10, activation='softmax')
])
# 用类定义
class MnistModel(Model):def __init__(self):super(MnistModel, self).__init__()self.flatten = Flatten()self.d1 = Dense(128, activation='relu')self.d2 = Dense(10, activation='softmax')def call(self, x):x = self.flatten(x)x = self.d1(x)y = self.d2(x)return y
model = MnistModel()

3.4 Fashion 数据集

  • Fashion 数据集:

提供 6 万张 28*28 像素点的衣裤等图片和标签,用于训练.

提供 1 万张 28*28 像素点的衣裤等图片和标签,用于测试.

一共有十个分类.

  • 导入 Fashion 数据集:

fashion = tf.keras.datasets.fashion_mnist
(x_train, y_train), (x_test, y_test) = fashion.load_data()

曹健老师 TensorFlow2.1 —— 第三章 神经网络八股相关推荐

  1. 曹健老师 TensorFlow2.1 —— 第四章 网络八股扩展

    第一章 第二章 第三章 本章目的:扩展六步法功能,并实现应用. 4.1 搭建网络八股总览 利用自制数据集,解决本领域应用 利用数据增强,解决数据量过少问题,扩展数据,提高泛化力 利用断点续训,实时保存 ...

  2. 曹健老师 TensorFlow2.1 —— 第五章 卷积神经网络

    第一章 第二章 第三章 第四章 本章目的:用图卷积神经网络实现离散数据的分类 ( 以图像分类为例 ) . 5.1 卷积计算过程 在实际项目中,输入神经网络的是具有更高分辨率的彩色图片,使得送入全连接网 ...

  3. 曹健老师 TensorFlow2.1 —— 第六章 循环神经网络

    第一章 第二章 第三章 第四章 第五章 本章目的:用 RNN 实现连续数据的预测 ( 以股票预测为例 ). 6.1 循环核 循环核:具有记忆力,通过不同时刻的参数共享,实现了对时间序列的信息提取.循环 ...

  4. 曹健老师 TensorFlow2.1 —— 第一章 神经网络计算

    看该视频前建议先看一看神经网络基础,推荐吴恩达老师课程. 吴恩达老师视频课:https://pan.baidu.com/s/18JaAUNlYxO2g2_Xh7Mgmgw  提取码:m6kv 曹健老师 ...

  5. 曹健老师 TensorFlow2.1 —— 第二章 神经网络优化

    第一章 本章目的:学会神经网络优化过程,使用正则化减少过拟合,使用优化器更新网络参数. 2.1 预备知识 tf.where(条件语句, 真返回A, 假返回B) a = tf.constant([1,2 ...

  6. Tensorflow2.0学习笔记(一)北大曹健老师教学视频1-4讲

    Tensorflow2.0学习笔记(一)北大曹健老师教学视频1-4讲 返回目录 这个笔记现在是主要根据北京大学曹健老师的视频写的,这个视频超级棒,非常推荐. 第一讲 常用函数的使用(包含了很多琐碎的函 ...

  7. Tensorflow2.0学习笔记(二)北大曹健老师教学视频第五讲

    Tensorflow2.0学习笔记(二)北大曹健老师教学视频第五讲 返回目录 理论部分主要写点以前看吴恩达视频没有的或者不太熟悉的了. 5.1卷积计算过程 实际项目中的照片多是高分辨率彩色图,但待优化 ...

  8. 【Nginx】陶辉老师100讲第三章序

    1.回顾第一章第二章 第一章第二章的内容 1.Nginx的一些基本的用法 2.Nginx的进程架构,特别是基于网络事件的进程处理 3.第三章 以请求处理流程为基础,把所有常用的http模块的指令梳理在 ...

  9. 经典卷积网络---LeNet、AlexNet、VGGNet、InceptionNet、ResNet [北京大学曹健老师人工智能学习笔记]

    LeNet-卷积神经网络的开篇之作 Yann LeCun于1998年提出,通过共享卷积核减少了网络的参数. LeNet有2个卷积层和3个全连接层 在特征提取阶段,卷积层以外的标准化.池化.激活等都看做 ...

最新文章

  1. 全球第一所人工智能大学成立:培养硕博研究生,全员全额奖学金
  2. 1.10 访问对象的属性和行为
  3. python猴子吃桃子的问题_Python基础知识初入门
  4. epoll nio区别_【总结】两种 NIO 实现:Selector 与 Epoll
  5. 【Django】(3)创建网页:学习笔记主页
  6. python做自动化界面_使用Python进行自动化测试如何切换窗口
  7. tf.one_hot()
  8. u盘如何修复 新萝卜U盘官方网站原创
  9. html字体及文本样式设置
  10. Task01:熟悉新闻推荐系统的基本流程(数据库设计)
  11. 小龙 Dev-C++ 5.16 发布了
  12. py爬虫pandas
  13. 使用UniApp 编写APP
  14. linux之cut命令的用法
  15. 线条边框简笔画图片大全_每天学一幅简笔画生活小物简笔画图片大全!
  16. 使用javaCV截取摄像头图片
  17. 计算机课题参与者的学术背景,课题参与有几种方法
  18. OpenCV4-C++读图、显示图
  19. 压缩包文件设置了加密怎么解密
  20. 我的物联网项目之下单渠道

热门文章

  1. 关于二分查找和二分搜索
  2. uoj79 一般图最大匹配 带花树学习(被虐
  3. 【天光学术】护士长竞争上岗演讲
  4. 123457123457#0#----com.ppGame.YinYu45--前拼后广--儿童yinyu-pp
  5. 论语_JavaScript版
  6. PMP认证考试练习题及参考答案(一)
  7. 09中国IC老杳榜6:大陆IC设计20强
  8. CSDN上海城市开发者社区线下活动纪实
  9. mysql服务器修改ip,mysql数据库修改服务器ip
  10. 42、传输层习题及参考答案