文章目录

    • @[TOC]
  • 数据准备
    • 导入需要的模块
    • 将数据转换为tensor
    • 导入训练集和测试集
  • 数据加载器
  • 数据展示
  • 创建模型
    • 定义损失函数
    • 定义优化函数
  • 定义训练和测试函数
    • 开始训练

源码已经上传:手写数字识别参考代码和数据集


数据准备

导入需要的模块

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import numpy as np
import matplotlib.pyplot as plt
import torchvision
from torchvision import datasets, transforms
%matplotlib inline

torch.nn为我们提供了更多的类和模块来实现和训练神经网络。具体函数可参考:http://www.srcmini.com/31857.html

torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。

torchvision内置了常用数据集和最常见的模型。

vision.datasets : 几个常用视觉数据集,可以下载和加载,这里主要的高级用法就是可以看源码如何自己写自己的Dataset的子类
vision.models : 流行的模型,例如 AlexNet, VGG, ResNet 和 Densenet 以及 与训练好的参数。
vision.transforms : 常用的图像操作,例如:随机切割,旋转,数据类型转换,图像到tensor ,numpy 数组到tensor , tensor 到 图像等。
vision.utils : 用于把形似 (3 x H x W) 的张量保存到硬盘中,给一个mini-batch的图像可以产生一个图像格网。

将数据转换为tensor

这是一个数据处理函数,transforms.Compose可以组合几个变换连续一起操作,这里只是将数据转换为tensor

transformation = transforms.Compose([transforms.ToTensor(),
])

导入训练集和测试集

datasets.MNIST(
root,
train=True,
transform=None,
target_transform=None,
download=False,
)
root 取数据的地址
train 设置是读取train数据集 还是test lecun的数据集有4个
transform就是对图像数据进行处理 传入dataloader的transform类型
target_transform(可调用,可选)–接受目标并对其进行转换的函数/转换。
download 设置 强调是否一定要download

这里用了上面定义的数据处理函数,对读取的minist数据进行totensor操作。

train_ds = datasets.MNIST('data/',train=True,transform=transformation,download=True
)
test_ds = datasets.MNIST('data/',train=False,transform=transformation,download=True
)

数据加载器

torch.utils.data.DataLoader数据加载器,结合了数据集和取样器,并且可以提供多个线程处理数据集。

在训练模型时使用到此函数,用来把训练数据分成多个小组,此函数每次抛出一组数据。直至把所有的数据都抛出。就是做一个数据的初始化。

如下第一个函数就是将训练集生成迭代数据,每次迭代的数据为64个,shuffle为洗牌操作,即打乱顺序。

train_dl = torch.utils.data.DataLoader(train_ds, batch_size=64, shuffle=True)
test_dl = torch.utils.data.DataLoader(test_ds, batch_size=256)

train_dl本质上是一个可迭代对象,可以使用iter()进行访问,采用iter(dataloader)返回的是一个迭代器,然后可以使用next()访问。
也可以使用enumerate(dataloader)的形式访问。

imgs, labels = next(iter(train_dl))
imgs.shape ,labels.shape(torch.Size([64, 1, 28, 28]), torch.Size([64]))

数据展示

img = imgs[0]
img.shape # torch.Size([1, 28, 28])
# 将tensor转换为numpy
img = img.numpy()
# 从数组的形状中删除单维条目,即把shape中为1的维度去掉
img = np.squeeze(img)
img.shape(28, 28)
plt.imshow(img)

创建模型

class Model(nn.Module):def __init__(self):# 继承model的所有父类super().__init__()# 第一个全连接层,输入为28*28的tensor(这个是不可以变的,大小必须为输入数据的大小),# 第一个隐藏层为120个神经元(这个可以自己更换)self.liner_1 = nn.Linear(28*28, 120)# 本层的输入必须与前一层的输出shape一样,下一层的神经元个数可以自定义self.liner_2 = nn.Linear(120, 84)# 最后是输出层,其输出必须为10,因为我们是进行0-9的10分类self.liner_3 = nn.Linear(84, 10)# 定义前向传播函数def forward(self, input):# view()函数作用是将一个多行的Tensor,拼接成一行。x = input.view(-1, 28*28)# nn.function 中封装了很多函数,比如relu这个激活函数x = F.relu(self.liner_1(x))x = F.relu(self.liner_2(x))x = self.liner_3(x)return x

这里可以看到定义的模型的网络结构

model = Model()
modelModel((liner_1): Linear(in_features=784, out_features=120, bias=True)(liner_2): Linear(in_features=120, out_features=84, bias=True)(liner_3): Linear(in_features=84, out_features=10, bias=True)
)

定义损失函数

nn.CrossEntropyLoss()函数计算交叉熵损失

loss_fn = torch.nn.CrossEntropyLoss()  # 损失函数

定义优化函数

torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,未来更多精炼的优化算法也将整合进来。

optim = torch.optim.Adam(model.parameters(), lr=0.001)

定义训练和测试函数

def fit(epoch, model, trainloader, testloader):correct = 0total = 0running_loss = 0for x, y in trainloader:# x是数值特征,y是lebel,y_pred是x的预测值y_pred = model(x)# 得到损失值loss = loss_fn(y_pred, y)# 将梯度置为0optim.zero_grad()# 反向传播loss.backward()# 优化optim.step()# torch.no_grad() 是一个上下文管理器,被该语句包起来的部分将不会追踪梯度。with torch.no_grad():# 这里是找预测值最大的那个数的位置,如果在第五个位置上,该预测值就是5y_pred = torch.argmax(y_pred, dim=1)# 一个元素张量可以用item得到元素值# 所有正确的加起来correct += (y_pred == y).sum().item()total += y.size(0)# 损失值加起来running_loss += loss.item()epoch_loss = running_loss / len(trainloader.dataset)epoch_acc = correct / totaltest_correct = 0test_total = 0test_running_loss = 0 # 测试集的操作with torch.no_grad():for x, y in testloader:y_pred = model(x)loss = loss_fn(y_pred, y)y_pred = torch.argmax(y_pred, dim=1)test_correct += (y_pred == y).sum().item()test_total += y.size(0)test_running_loss += loss.item()epoch_test_loss = test_running_loss / len(testloader.dataset)epoch_test_acc = test_correct / test_totalprint('epoch: ', epoch, 'loss: ', round(epoch_loss, 3),'accuracy:', round(epoch_acc, 3),'test_loss: ', round(epoch_test_loss, 3),'test_accuracy:', round(epoch_test_acc, 3))return epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc

开始训练

for epoch in range(epochs):epoch_loss, epoch_acc, epoch_test_loss, epoch_test_acc = fit(epoch,model,train_dl,test_dl)

pytorch实战案例-手写数字分类-全链接模型——深度AI科普团队相关推荐

  1. pytorch实战案例-手写数字分类-卷积模型——深度AI科普团队

    文章目录 数据准备 导入需要的模块 使用GPU训练 将数据转换为tensor 导入训练集和测试集 数据加载器 数据展示 创建模型 将模型复制到GPU 损失函数 定义训练和测试函数 开始训练 源码已经上 ...

  2. 独家 | 如何从头开始为MNIST手写数字分类建立卷积神经网络(附代码)

    翻译:张睿毅 校对:吴金笛 本文约9300字,建议阅读20分钟. 本文章逐步介绍了卷积神经网络的建模过程,最终实现了MNIST手写数字分类. MNIST手写数字分类问题是计算机视觉和深度学习中使用的标 ...

  3. 基于PyTorch框架的多层全连接神经网络实现MNIST手写数字分类

    多层全连接神经网络实现MNIST手写数字分类 1 简单的三层全连接神经网络 2 添加激活函数 3 添加批标准化 4 训练网络 5 结论 参考资料 先用PyTorch实现最简单的三层全连接神经网络,然后 ...

  4. PyTorch基础与简单应用:构建卷积神经网络实现MNIST手写数字分类

    文章目录 (一) 问题描述 (二) 设计简要描述 (三) 程序清单 (四) 结果分析 (五) 调试报告 (六) 实验小结 (七) 参考资料 (一) 问题描述 构建卷积神经网络实现MNIST手写数字分类 ...

  5. Keras入门实战(1):MNIST手写数字分类

    目录 1)首先我们加载Keras中的数据集 2)网络架构 3)选择编译(compile参数) 4)准备图像数据 5) 训练模型 6)测试数据 前面的博客中已经介绍了如何在Ubuntu下安装Keras深 ...

  6. 深度学习代码实战——基于RNN的手写数字分类

    文章目录 1.前言 2.导入模块.定义超参数 3.准备训练数据测试数据 4.构建模型并打印模型结构 5.损失函数和优化器 6.训练 7.测试 1.前言 循环神经网络让神经网络有了记忆, 对于序列型的数 ...

  7. 用PyTorch实现MNIST手写数字识别(非常详细)

    ​​​​​Keras版本: Keras入门级MNIST手写数字识别超级详细教程 2022/4/17 更新修复下代码.完善优化下文章结构,文末提供一个完整版代码. 可以在这里下载源码文件(免积分): 用 ...

  8. 练习利用LSTM实现手写数字分类任务

    练习利用LSTM实现手写数字分类任务 MNIST数据集中图片大小为28*28. 按照行进行展开成28维的特征向量. 考虑到这28个的向量之间存在着顺序依赖关系,我们可以将他们看成是一个长为28的输入序 ...

  9. 基于tensorflow+RNN的MNIST数据集手写数字分类

    2018年9月25日笔记 tensorflow是谷歌google的深度学习框架,tensor中文叫做张量,flow叫做流. RNN是recurrent neural network的简称,中文叫做循环 ...

最新文章

  1. Matlab中bwmorph函数的使用
  2. Python词云#疫情退去后,你最想做什么
  3. JDK源码分析:Byte.java
  4. Java如何加载类的呢?
  5. PKM(个人知识管理)类软件收集(偶尔更新列表)
  6. express使用JWT和httpOnly cookie进行安全验证
  7. Elasticsearch--入门-删除数据bulk批量操作导入样本测试数据---全文检索引擎ElasticSearch工作笔记008
  8. 怎么在Mac上重建“聚焦”索引?
  9. 适合有基础的Java实战项目——坦克大战 练手实战项目
  10. 判断json对象的属性的值是json对象还是json数组
  11. capture 部分元器件编号_Capture新建元件符号文件
  12. 采样频率和带宽的关系_等效时间采样示波器和实时示波器的差别?
  13. 【牛奶豆腐汤喝出小蛮腰】
  14. Android获取本机蓝牙地址
  15. 2048和多地址入口_王者荣耀2020周年庆返场皮肤投票入口 周年庆皮肤返场投票地址...
  16. 矩阵求和及Kadane算法
  17. 三人易行PLC编程培训怎么样?
  18. 一台虚拟机上的文件怎么复制给另一台虚拟机
  19. GitLab删除项目操作(亲测)
  20. 算法导论读书笔记(19)

热门文章

  1. java符号引用 直接引用_java虚拟机的符号引用和直接引用
  2. python兔子繁殖问题中如何输出相应月份的数列_斐波那契数列介绍及Python中五种方法斐波那契数列...
  3. linux内核体系学习路径_Linux内核分析(一)linux体系简介|内核源码简介|内核配置编译安装...
  4. 可逆矩阵的秩等于矩阵的阶数_矩阵论一些总结点
  5. ubuntu20下lnmp环境nextcloud安装
  6. 生成有时间限制的二维码_二维码竟有被用完的一天!看到截止日期后,网友:虚惊一场...
  7. python获取天气数据_python获取天气数据
  8. 同时多次调用存储规程_本体技术视点 | 神奇的Merkle树是如何实现存储层优化的?...
  9. 闭环检测python_hdl_graph_slam源码解读(七):闭环检测
  10. hive学习08天-一次hvie面试题