tensorflow2.0莺尾花iris数据集分类

超详细

直接上代码

#导入模块
import tensorflow as tf #导入tensorflow模块from sklearn import datasets #导入sklearn中的datasets模块,方便下载内置的iris数据集from matplotlib import pyplot as plt #导入matplotlib中的pyplot,待会画图import numpy as np #导入numpy模块做数学运算#导入数据
x_data = datasets.load_iris().data #导入iris数据集的特征y_data = datasets.load_iris().target #导入iris数据集的标签#随机打乱顺序,使训练更具准确性
np.random.seed(120)#调用numpy中的random方法里的seed方法,赋值120,使输入特征和标签能够一一对应np.random.shuffle(x_data) #调用numpy中的random方法里的shuffle方法,将训练集x_data里的特征值乱序np.random.seed(120)#调用numpy中的random方法里的seed方法,赋值120,使输入特征和标签能够一一对应np.random.shuffle(y_data) #调用numpy中的random方法里的shuffle方法,将测试集y_data里的标签乱序tf.random.set_seed(120)#调用tensorflow中的random方法里的set_seed方法,赋值120#划分数据集
x_train = x_data[:-30] #将iris数据集(特征,共150行,此时已打乱)前120行作为训练集x_trainy_train = y_data[:-30] #将iris数据集(标签,共150行,此时已打乱)前120行作为训练集y_trainx_test = x_data[-30:] #将iris数据集(特征,共150行,此时已打乱)最后30行作为测试集x_testy_test = y_data[-30:] #将iris数据集(标签,共150行,此时已打乱)最后30行作为测试集y_test#转换特征值的数据类型,使之与后面数据运算时数据类型一致
x_train = tf.cast(x_train, dtype = tf.float32) #调用tensorflow中的cast方法,将x_train中的特征值类型转换为float32x_test = tf.cast(x_test, dtype = tf.float32) #调用tensorflow中的cast方法,将x_test中的特征值类型转换为float32#用from_tensor_slices方法将特征值和标签值配对
train_data_batch = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)#将训练集的特征x_train和标签y_train配对,用batch方法将120个训练数据分成32个为一组的批次test_data_batch = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)#将测试集的特征x_test和标签y_test配对,用batch方法将30个训练数据分成32个为一组的批次#用truncated_normal方法构建神经网络,并用Variable方法标记可训练数据
w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev = 0.1, seed = 1))#用truncated_normal方法,构建4个输入特征,3个分类的神经网络结构,标准差为0.1的正态分布,随机种子为1b1 = tf.Variable(tf.random.truncated_normal([3], stddev = 0.1, seed = 1))#用truncated_normal方法,因为b1和w1的分类维度要一样,所以是3,标准差为0.1的正态分布,随机种子为1#设置变量
learnRate = 0.1 #学习率为0.1train_loss_results = [] #将每轮的loss记录在此列表中,为后面画loss曲线时提供数据test_accuracy = [] #将每轮的精度accuracy记录在此列表中,为后面画精度accuracy曲线提供数据epoch = 500 #循环500轮loss_all = 0 #每轮分4个step,loss_all记录4个step生成的4个loss的和#训练部分
for epoch in range(epoch): #遍历数据集,每个epoch循环一次数据集for step, (x_train, y_train) in enumerate(train_data_batch): #遍历batch,每个step循环一次batchwith tf.GradientTape() as tape: #用上下文管理器记录梯度信息y = tf.matmul(x_train, w1) + b1 #神经网络乘加运算,用tensorflow中的matmul方法将训练特征值x_train和w1参数进行矩阵相乘y = tf.nn.softmax(y) #用tensorflow中的softmax方法将神经网络乘加运算后得到的输出符合正态分布,输出和为1,可以在之后用来与独热码相减求lossy_one_hot = tf.one_hot(y_train, depth = 3) #用tensorflow中的one_hot方法将训练标签y_train转换为独热码格式,因为y输出为3,所以深度为3,方便接下来计算loss的和loss = tf.reduce_mean(tf.square(y_one_hot - y)) #用tensorflow中的reduce_mean方法求平均值,用tensorflow中的square方法求平方,这里用均方误差求损失函数lossloss_all += loss.numpy() #将每个step计算出的loss累加,后面可以用来求loss平均值,#计算loss对各个参数的梯度loss_gradient = tape.gradient(loss, [w1, b1])#用tensorflow中的GradientTape方法中的gradient方法求loss对各个参数w1,b1的梯度gradient#梯度更新w1.assign_sub(learnRate * loss_gradient[0]) #用assign_sub方法进行自减,实现参数w1的自动更新,等价于w1 = w1 - learn_Rate * loss_gradient[0]b1.assign_sub(learnRate * loss_gradient[1]) #用assign_sub方法进行自减,实现参数b1的自动更新,等价于b = b - learn_Rate * loss_gradient[1]# 每个epoch,打印loss信息print("epoch: {}, loss: {}".format(epoch,loss_all / 4))  # 每个epoch,打印loss信息,有4个step,所以总loss_all要除以4,求得每次step的平均losstrain_loss_results.append(loss_all / 4)  # 用append方法将4个step的loss求平均值记录在train_loss_results中loss_all = 0  # loss_all归零,为下一个epoch的求loss做准备# 测试部分total_correct = 0  # total_correct为预测对的样本个数,初始化为0total_test_number = 0  # total_number为测试的总样本数,初始化为0for x_test, y_test in test_data_batch:  # 遍历训练集的特征值和标签值# 用更新后的参数进行预测y = tf.matmul(x_test, w1) + b1  # 用tensorflow中的matmul方法来进行乘加运算,再加上b1得到前向传播的结果y = tf.nn.softmax(y)  # 用tensorflow中的softmax方法将神经网络乘加运算后得到的前向传播的结果符合正态分布,输出和为1,可以在之后用来与独热码相减求losspredict = tf.argmax(y, axis=1)  # 用tensorflow中的argmax方法,返回y中最大值的索引,即预测的标签分类,axis表示按列求值predict = tf.cast(predict, dtype=y_test.dtype)  # 将predict的类型转换为测试集标签y_test的数据类型correct = tf.cast(tf.equal(predict, y_test),dtype=tf.int32)  # 用tensorflow中的equal方法判断,若分类正确,则值为1,否则为0,并用tensorflow中的cast方法将bool类型转化为int32类型correct = tf.reduce_sum(correct)  # 用tensorflow中的reduce_sum方法将每个batch的correct数加起来total_correct += int(correct)  # 将所有batch中的correct数转化为int类型,并加起来total_test_number += x_test.shape[0]  # 用shape方法返回测试集特征x_test的行数,也就是测试的总样本数accuracy = total_correct / total_test_number  # 总的准确率test_accuracy.append(accuracy)  # 测试集的准确率添加到列表中来,方便记录print("test_accuracy:", accuracy)  # 打印测试集精度准确率print("-------------------------------------------------")  # 为每个epoch进行分隔,方便查看# 绘制loss曲线
plt.title('Loss Function Curve')  # 用matplotlib中的title方法标出图片标题
plt.xlabel("Epoch")  # 用matplotlib中的xlabel方法标出x轴变量名称
plt.ylabel("Loss")  # 用matplotlib中的ylabel方法标出y轴变量名称
plt.plot(train_loss_results, label="$Loss$")  # 用matplotlib中的plot方法逐点画出训练集损失值结果train_loss_results值并连线,连线的标签为Loss
plt.legend()  # 用matplotlib中的legend方法画出曲线图标
plt.show()  # 用matplotlib中的show方法画出图像# 绘制accuracy曲线
plt.title("Accuracy Curve")  # 用matplotlib中的title方法标出图片标题
plt.xlabel("Epoch")  # 用matplotlib中的xlabel方法标出x轴变量名称
plt.ylabel("Accuracy")  # 用matplotlib中的ylabel方法标出y轴变量名称
plt.plot(test_accuracy, label="$Accuracy$")  ##用matplotlib中的plot方法逐点画出测试集精准度test_accuracy值并连线,连线的标签为Accuracy
plt.legend()  # 用matplotlib中的legend方法画出曲线图标
plt.show()  # 用matplotlib中的show方法画出图像

结果为:

E:\Anaconda3\envs\TF2\python.exe C:/Users/Administrator/PycharmProjects/untitled8/iris数据集分类.py
epoch: 0, loss: 0.06313184648752213
test_accuracy: 0.36666666666666664
-------------------------------------------------
epoch: 0, loss: 0.060809701681137085
test_accuracy: 0.36666666666666664
-------------------------------------------------
epoch: 0, loss: 0.06491364538669586
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 0, loss: 0.055006254464387894
test_accuracy: 0.4666666666666667
-------------------------------------------------
epoch: 1, loss: 0.05249659717082977
test_accuracy: 0.6
-------------------------------------------------
epoch: 1, loss: 0.05205550417304039
test_accuracy: 0.6
-------------------------------------------------
epoch: 1, loss: 0.05103917792439461
test_accuracy: 0.5333333333333333
-------------------------------------------------
epoch: 1, loss: 0.05103524401783943
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 2, loss: 0.05039295554161072
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 2, loss: 0.0480034239590168
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 2, loss: 0.04670323431491852
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 2, loss: 0.04914751648902893
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 3, loss: 0.04708673432469368
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 3, loss: 0.04542688652873039
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 3, loss: 0.044235099107027054
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 3, loss: 0.0470397025346756
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 4, loss: 0.0440203957259655
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 4, loss: 0.04315203055739403
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 4, loss: 0.0421343557536602
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 4, loss: 0.04514491185545921
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 5, loss: 0.0413854755461216
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 5, loss: 0.04116469994187355
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 5, loss: 0.04034166410565376
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 5, loss: 0.04348427802324295
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 6, loss: 0.03914759308099747
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 6, loss: 0.03945424407720566
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 6, loss: 0.03882221505045891
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 6, loss: 0.042040903121232986
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 7, loss: 0.037248674780130386
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 7, loss: 0.037990082055330276
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 7, loss: 0.03753271698951721
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 7, loss: 0.04078803211450577
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 8, loss: 0.035629648715257645
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 8, loss: 0.03673495724797249
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 8, loss: 0.03643135353922844
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 8, loss: 0.03969713672995567
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 9, loss: 0.03423843905329704
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 9, loss: 0.035652872174978256
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 9, loss: 0.03548220545053482
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 9, loss: 0.038741737604141235
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 10, loss: 0.03303193673491478
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 10, loss: 0.034712422639131546
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 10, loss: 0.03465599939227104
test_accuracy: 0.6333333333333333
-------------------------------------------------
epoch: 10, loss: 0.037898823618888855
test_accuracy: 0.6333333333333333
-------------------------------------------------
等等.........................

tensorflow2.0莺尾花iris数据集分类|超详细相关推荐

  1. Dataset之IRIS:莺尾(Iris)数据集的简介、下载、使用方法之详细攻略

    Dataset之IRIS:莺尾(Iris)数据集的简介.下载.使用方法之详细攻略 目录 莺尾(Iris)数据集的简介 莺尾(Iris)数据集的下载 莺尾(Iris)数据集的使用方法 莺尾(Iris)数 ...

  2. Dataset之IRIS:莺尾(Iris)数据集的简介、安装、使用方法之详细攻略

    Dataset之IRIS:莺尾(Iris)数据集的简介.安装.使用方法之详细攻略 莺尾(Iris)数据集的简介      IRIS数据集,也称鸢尾花卉数据集,是一类多重变量分析的数据集.数据集包含15 ...

  3. 使用R语言自带的茑尾花(iris)数据集,绘制鸢尾花的萼片的长度和宽度的散点图并添加不同品种花萼长度与花萼宽度的回归直线。不同的品种用不同的颜色,x轴为花萼长度

    1使用R语言自带的茑尾花(iris)数据集,绘制鸢尾花的萼片的长度和宽度的散点图并添加不同品种花萼长度与花萼宽度的回归直线.不同的品种用不同的颜色,x轴为花萼长度(单位:cm),y轴为花萼宽度(单位: ...

  4. 【Python深度学习】基于Tensorflow2.0构建CNN模型尝试分类音乐类型(二)

    前情提要 基于上文所说 基于Tensorflow2.0构建CNN模型尝试分类音乐类型(一) 我用tf2.0和Python3.7复现了一个基于CNN做音乐分类器.用余弦相似度评估距离的一个音乐推荐模型. ...

  5. 支持向量机SVM Iris数据集 分类预测

    目录 支持向量机对iris数据集进行分类预测 1. 基础概念 2. 实验步骤与分析 2.1  数据理解 2.2  数据读入 2.3  训练集和测试集划分 2.4  支持向量机 2.5  预测 2.6  ...

  6. 笔记3:Tensorflow2.0实战之MNSIT数据集

    最近Tensorflow相继推出了alpha和beta两个版本,这两个都属于tensorflow2.0版本:早听说新版做了很大的革新,今天就来用一下看看 这里还是使用MNSIT数据集进行测试 导入必要 ...

  7. 【Python深度学习】基于Tensorflow2.0构建CNN模型尝试分类音乐类型(一)

    音乐分类 前言 复现代码 MP3转mel CNN模型 训练结果 总结 前言 我在逛github的时候,偶然发现了一个项目:基于深度学习的音乐推荐.[VikramShenoy97].作者是基于CNN做的 ...

  8. tensorflow2.0实现IMDB文本数据集学习词嵌入

    1. IMDB数据集示例如下所示 [{"rating": 5, "title": "The dark is rising!", " ...

  9. YOLO | 用YOLOv7训练自己的数据集(超详细版)

    一.环境设置 本文环境设置:Ubuntu (docker) pytorch-gpu 1.远程Ubuntu新建一个新的docker 容器 以下命令是创建一个名称为torch_yolo的gpu容器.如果没 ...

最新文章

  1. 在Nature都点赞的大会上,马斯克被「脑机接口之父」炮轰了:他说的话,我一个字都不认同...
  2. C算法编程题(四)上三角
  3. Jquery怎样返回上一页
  4. ICO取缔一锤定音,投资者、发起方、交易所如何处理后续风险,保障权益?
  5. linux 安装jeakens_Chapter 2. OpenSSL的安装和配置学习笔记
  6. java抽取pdf_java 抽取 word,pdf 的四种武器
  7. 硬盘突然提示没有初始化_新硬盘的分区
  8. 管家婆服务器支持者打不开,管家婆软件数据问题使用技巧
  9. 【推荐】Zeal 离线API文档浏览器
  10. 程序设计与算法----枚举之完美立方
  11. python datetime strptime_python datetime模块strptime/strptime format常见格式命令_施罗德_新浪博客...
  12. python 螺旋数组_奇技淫巧 - Python绘制各种简单优美曲线
  13. 大话2虚拟服务器怎么弄,大话西游2公益服风云1.0虚拟机镜像手工启动服务端+启动教程+客户端IP修改教程+数据库工具...
  14. Windows下批量修改文件名称
  15. 条件语句的if语句的5种替代方法
  16. 微信小程序消息通知简单Demo
  17. Python+Django+Mysql个性化图书推荐系统 图书在线推荐系统 基于用户、项目、内容的协同过滤推荐算法(带设计报告)
  18. rust最美建筑_美丽心灵16_ If I Rest, I Rust
  19. 虎符CTF--MISC--奇怪的组织
  20. 智能化转型战略的成功及强大的运营绩效带动联想18/19财年营业额创历史新高

热门文章

  1. python strip什么意思_python中strip什么意思
  2. c/c++ 模拟键盘按键按下
  3. mysql小计_Mysql必读用SQL实现统计报表中的小计与合计的方法详解
  4. vue使用keep-alive缓存页面 回到滚动位置
  5. [ACM]辽宁省赛2010 (HZNU 1081-1089)
  6. H5身份证上传识别功能
  7. 灵遁者句子:意识从物质诞生那一刻起,就诞生了
  8. Sim Lock —— 手机Network锁
  9. Latex--将参考文献号设为上标,并加方括号!
  10. node.js egg框架接入微信公总号