使用Pytorch实现手写数字识别
使用Pytorch实现手写数字识别
1. 思路和流程分析
流程:
准备数据,这些需要准备DataLoader
构建模型,这里可以使用torch构造一个深层的神经网络
模型的训练
模型的保存,保存模型,后续持续使用
模型的评估,使用测试集,观察模型的好坏
2. 准备训练集和测试集
准备数据集的方法前面已经说过,但是通过前面的内容可知,调用MNIST返回的结果中图形数据是一个Image对象,需要对其进行处理
为了进行数据的处理,接下来学习torchvision.transfroms
的方法
2.1 torchvision.transforms
的图形数据处理方法
2.1.1 torchvision.transforms.ToTensor
把一个取值范围是[0,255]
的PIL.Image
或者shape
为(H,W,C)
的numpy.ndarray
,转换成形状为[C,H,W]
其中(H,W,C)
意思为(高,宽,通道数)
,黑白图片的通道数只有1,其中每个像素点的取值为[0,255],彩色图片的通道数为(R,G,B),每个通道的每个像素点的取值为[0,255],三个通道的颜色相互叠加,形成了各种颜色
示例如下:
from torchvision import transforms
import numpy as npdata = np.random.randint(0, 255, size=12)
img = data.reshape(2, 2, 3)
print(img.shape)
img_tensor = transforms.ToTensor()(img) # 转换成tensor
print(img_tensor)
print(img_tensor.shape)
运行结果:
注意:
transforms.ToTensor
对象中有__call__
方法,所以可以对其示例能够传入数据获取结果
2.1.2 torchvision.transforms.Normalize(mean, std) 【均值和标准差的形状和通道数相同】
给定均值:mean,shape和图片的通道数相同(指的是每个通道的均值),方差:std,和图片的通道数相同(指的是每个通道的方差),将会把Tensor
规范化处理。
即:Normalized_image=(image-mean)/std
。
例如:
from torchvision import transforms
import numpy as npdata = np.random.randint(0, 255, size=12)
img = data.reshape(2, 2, 3)
print(img.shape)
img_tensor = transforms.ToTensor()(img) # 转换成tensor
print(img_tensor)
print(img_tensor.shape)
print("*" * 20)
img_tensor = img_tensor.float() # 加上这一行
norm_img = transforms.Normalize((10, 10, 10), (1, 1, 1))(img_tensor) # 进行规范化处理
print(norm_img)
运行结果:
注意:在sklearn中,默认上式中的std和mean为数据每列的std和mean,sklearn会在标准化之前算出每一列的std和mean。
但是在api:Normalize中并没有帮我们计算,所以我们需要手动计算
当mean为全部数据的均值,std为全部数据的std的时候,才是进行了标准化。
如果mean(x)不是全部数据的mean的时候,std(y)也不是的时候,Normalize后的数据分布满足下面的关系
2.1.3 torchvision.transforms.Compose(transforms) 【传入list,数据经过list中的每一个方法挨个进行处理】
将多个transform
组合起来使用。
例如:
transforms.Compose([torchvision.transforms.ToTensor(), #先转化为Tensortorchvision.transforms.Normalize(mean,std) #在进行正则化])
2.2 准备MNIST数据集的Dataset和DataLoader
准备训练集
import torch
import torchvision#准备数据集,其中0.1307,0.3081为MNIST数据的均值和标准差,这样操作能够对其进行标准化
#因为MNIST只有一个通道(黑白图片),所以元组中只有一个值
dataset = torchvision.datasets.MNIST('/data', train=True, download=True,transform=torchvision.transforms.Compose([torchvision.transforms.ToTensor(),torchvision.transforms.Normalize((0.1307,), (0.3081,)) # 这俩个数据是提前算出来的]))
#准备数据迭代器
train_dataloader = torch.utils.data.DataLoader(dataset,batch_size=64,shuffle=True)
准备测试集
import torch
import torchvision#准备数据集,其中0.1307,0.3081为MNIST数据的均值和标准差,这样操作能够对其进行标准化
#因为MNIST只有一个通道(黑白图片),所以元组中只有一个值
dataset = torchvision.datasets.MNIST('/data', train=False, download=True,transform=torchvision.transforms.Compose([torchvision.transforms.ToTensor(),torchvision.transforms.Normalize((0.1307,), (0.3081,))]))
#准备数据迭代器
train_dataloader = torch.utils.data.DataLoader(dataset,batch_size=64,shuffle=True)
3. 构建模型
补充:全连接层:当前一层的神经元和前一层的神经元相互链接,其核心操作就是,即矩阵的乘法,实现对前一层的数据的变换
模型的构建使用了一个三层的神经网络,其中包括两个全连接层和一个输出层,第一个全连接层会经过激活函数的处理,将处理后的结果交给下一个全连接层,进行变换后输出结果
那么在这个模型中有两个地方需要注意:
激活函数如何使用
每一层数据的形状
模型的损失函数
3.1 激活函数的使用
前面介绍了激活函数的作用,常用的激活函数为Relu激活函数,他的使用非常简单
Relu激活函数由import torch.nn.functional as F
提供,F.relu(x)
即可对x进行处理
例如:
import torch
import torch.nn.functional as Fx = torch.tensor([-2, -1, 0, 1, 2])
print(x)y = F.relu(x)
print(y)
运行效果:
3.2 模型中数据的形状(【添加形状变化图形】)
原始输入数据为的形状:
[batch_size,1,28,28]
进行形状的修改:
[batch_size,28*28]
,(全连接层是在进行矩阵的乘法操作)第一个全连接层的输出形状:
[batch_size,28]
,这里的28是个人设定的,你也可以设置为别的激活函数不会修改数据的形状
第二个全连接层的输出形状:
[batch_size,10]
,因为手写数字有10个类别
构建模型的代码如下:
import torch
from torch import nn
import torch.nn.functional as Fclass MnistNet(nn.Module):def __init__(self):super(MnistNet,self).__init__()self.fc1 = nn.Linear(28*28*1,28) #定义Linear的输入和输出的形状self.fc2 = nn.Linear(28,10) #定义Linear的输入和输出的形状def forward(self,x):x = x.view(-1,28*28*1) #对数据形状变形,-1表示该位置根据后面的形状自动调整 -1也可以写成x.size(0)x = self.fc1(x) #[batch_size,28] # 进行了全连接层操作x = F.relu(x) #[batch_size,28] # 进行激活函数的处理,形状并没有变化x = self.fc2(x) #[batch_size,10] # 输出层
可以发现:pytorch在构建模型的时候形状上
并不会考虑batch_size
3.3 模型的损失函数
首先,我们需要明确,当前我们手写字体识别的问题是一个多分类的问题,所谓多分类对比的是之前学习的2分类
回顾之前的知识,我们在逻辑回归中,我们使用sigmoid进行计算对数似然损失,来定义我们的2分类的损失。
在2分类中我们有正类和负类,正类的概率为,那么负类的概率为
将这个结果进行计算对数似然损失就可以得到最终的损失
那么在多分类的过程中我们应该怎么做呢?
多分类和2分类中唯一的区别是我们不能够再使用sigmoid函数来计算当前样本属于某个类别的概率,而应该使用softmax函数。
softmax和sigmoid的区别在于我们需要去计算样本属于每个类别的概率,需要计算多次,而sigmoid只需要计算一次
softmax的公式如下:
例如下图:
假如softmax之前的输出结果是2.3, 4.1, 5.6
,那么经过softmax之后的结果是多少呢?
对于这个softmax输出的结果,是在[0,1]区间,我们可以把它当做概率
和前面2分类的损失一样,多分类的损失只需要再把这个结果进行对数似然损失的计算即可
即:
【P为概率】
最后,会计算每个样本的损失,即上式的平均值
我们把softmax概率传入对数似然损失得到的损失函数称为交叉熵损失
在pytorch中有两种方法实现交叉熵损失
criterion = nn.CrossEntropyLoss()
loss = criterion(input,target)
#1. 对输出值计算softmax和取对数
output = F.log_softmax(x,dim=-1)
#2. 使用torch中带权损失
loss = F.nll_loss(output,target) # 带权损失
带权损失定义为:,其实就是把作为,把真实值Y作为权重
4. 模型的训练
训练的流程:
实例化模型,设置模型为训练模式
实例化优化器类,实例化损失函数
获取,遍历dataloader
梯度置为0
进行向前计算
计算损失
反向传播
更新参数
# 实例化优化器
mnist_net = MnistNet()
optimizer = optim.Adam(mnist_net.parameters(),lr= 0.001)
# 实现训练的过程
def train(epoch):mode = Truemnist_net.train(mode=mode) #模型设置为训练模型train_dataloader = get_dataloader(train=mode) #获取训练数据集for idx,(data,target) in enumerate(train_dataloader):optimizer.zero_grad() #梯度置为0output = mnist_net(data) #进行向前计算 # 调用模型,得到预测值loss = F.nll_loss(output,target) #带权损失loss.backward() #进行反向传播,计算梯度optimizer.step() #参数更新if idx % 10 == 0:print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(epoch, idx * len(data), len(train_dataloader.dataset),100. * idx / len(train_dataloader), loss.item()))
5. 模型的保存和加载
5.1 模型的保存
torch.save(mnist_net.state_dict(),"model/mnist_net.pt") #保存模型参数 # 后面为路径,后缀可以换成别的或者不写
torch.save(optimizer.state_dict(), 'results/mnist_optimizer.pt') #保存优化器参数 # 要保存优化器的学习率参数等
5.2 模型的加载
mnist_net.load_state_dict(torch.load("model/mnist_net.pt"))
optimizer.load_state_dict(torch.load("results/mnist_optimizer.pt"))
6. 模型的评估
评估的过程和训练的过程相似,但是:
不需要计算梯度 【with torch.no_grad():】
需要收集损失和准确率,用来计算平均损失和平均准确率 【损失和训练相同】
损失的计算和训练时候损失的计算方法相同
准确率的计算:
模型的输出为[batch_size,10]的形状
其中最大值的位置就是其预测的目标值(预测值进行过sotfmax后为概率,sotfmax中分母都是相同的,分子越大,概率越大)
最大值的位置获取的方法可以使用
torch.max
,返回最大值和最大值的位置返回最大值的位置后,和真实值(
[batch_size]
)进行对比,相同表示预测成功
def test():test_loss = 0correct = 0mnist_net.eval() #设置模型为评估模式test_dataloader = get_dataloader(train=False) #获取评估数据集with torch.no_grad(): #不计算其梯度for data, target in test_dataloader:output = mnist_net(data)test_loss += F.nll_loss(output, target, reduction='sum').item()pred = output.data.max(1, keepdim=True)[1] #获取最大值的位置,[batch_size,1]correct += pred.eq(target.data.view_as(pred)).sum() #预测准备样本数累加test_loss /= len(test_dataloader.dataset) #计算平均损失print('\nTest set: Avg. loss: {:.4f}, Accuracy: {}/{} ({:.2f}%)\n'.format(test_loss, correct, len(test_dataloader.dataset),100. * correct / len(test_dataloader.dataset)))
7. 完整的代码如下:
import os
import torch
from torch import nn
from torch import optim
import torch.nn.functional as F
import torchvisiontrain_batch_size = 64
test_batch_size = 1000
img_size = 28def get_dataloader(train=True):assert isinstance(train,bool),"train 必须是bool类型"#准备数据集,其中0.1307,0.3081为MNIST数据的均值和标准差,这样操作能够对其进行标准化#因为MNIST只有一个通道(黑白图片),所以元组中只有一个值dataset = torchvision.datasets.MNIST('/data', train=train, download=True,transform=torchvision.transforms.Compose([torchvision.transforms.ToTensor(),torchvision.transforms.Normalize((0.1307,), (0.3081,)),]))#准备数据迭代器batch_size = train_batch_size if train else test_batch_sizedataloader = torch.utils.data.DataLoader(dataset,batch_size=batch_size,shuffle=True)return dataloaderclass MnistNet(nn.Module):def __init__(self):super(MnistNet,self).__init__()self.fc1 = nn.Linear(28*28*1,28)self.fc2 = nn.Linear(28,10)def forward(self,x):x = x.view(-1,28*28*1)x = self.fc1(x) #[batch_size,28]x = F.relu(x) #[batch_size,28]x = self.fc2(x) #[batch_size,10]# return xreturn F.log_softmax(x,dim=-1)mnist_net = MnistNet()
optimizer = optim.Adam(mnist_net.parameters(),lr= 0.001)
# criterion = nn.NLLLoss()
# criterion = nn.CrossEntropyLoss()
train_loss_list = []
train_count_list = []# 加载模型
if os.path.exists("./model/mnist_met.pkl"):mnist_net.load_state_dict(torch.load('./model/mnist_met.pkl'))optimizer.load_state_dict(torch.load('./result/mnist_optimizer.pkl'))def train(epoch):mode = Truemnist_net.train(mode=mode)train_dataloader = get_dataloader(train=mode)print(len(train_dataloader.dataset))print(len(train_dataloader))for idx,(data,target) in enumerate(train_dataloader):optimizer.zero_grad()output = mnist_net(data)loss = F.nll_loss(output,target) #对数似然损失loss.backward()optimizer.step()if idx % 10 == 0:print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(epoch, idx * len(data), len(train_dataloader.dataset),100. * idx / len(train_dataloader), loss.item()))train_loss_list.append(loss.item())train_count_list.append(idx*train_batch_size+(epoch-1)*len(train_dataloader))torch.save(mnist_net.state_dict(),"model/mnist_net.pkl")torch.save(optimizer.state_dict(), 'results/mnist_optimizer.pkl')def test():test_loss = 0correct = 0mnist_net.eval()test_dataloader = get_dataloader(train=False)with torch.no_grad():for data, target in test_dataloader:output = mnist_net(data)test_loss += F.nll_loss(output, target, reduction='sum').item()pred = output.data.max(1, keepdim=True)[1] #获取最大值的位置,[batch_size,1]correct += pred.eq(target.data.view_as(pred)).sum()test_loss /= len(test_dataloader.dataset)print('\nTest set: Avg. loss: {:.4f}, Accuracy: {}/{} ({:.2f}%)\n'.format(test_loss, correct, len(test_dataloader.dataset),100. * correct / len(test_dataloader.dataset)))if __name__ == '__main__':test() for i in range(5): #模型训练5轮train(i)test()
运行结果:
使用Pytorch实现手写数字识别相关推荐
- 用PyTorch进行手写数字识别
目录 数据准备 网络模型 完整实现 数据准备 torch.utils.data.Datasets是PyTorch用来表示数据集的类,它是用PyTorch进行手写数字识别的关键. 下面是加载mnist数 ...
- pytorch MNIST 手写数字识别 + 使用自己的测试集 + 数据增强后再训练
文章目录 1. MNIST 手写数字识别 2. 聚焦数据集扩充后的模型训练 3. pytorch 手写数字识别基本实现 3.1完整代码及 MNIST 测试集测试结果 3.1.1代码 3.1.2 MNI ...
- pytorch实现手写数字识别_送源码!人工智能实现:识别图片中的手写数字,值得收藏...
作者|小林同学 关注<高手杰瑞>,每天有不一样的实用小教程发布哦! 哈喽,大家好我是杰瑞.今天我给大家带来一个用机器学习的方法来实现手写数字识别的教程,就像C语言中输出的那一行" ...
- 使用PyTorch进行手写数字识别,在20 k参数中获得99.5%的精度。
In this article we'll build a simple convolutional neural network in PyTorch and train it to recogni ...
- Pytorch CNN 手写数字识别 0-9
使用的软件是pycharm 环境是在anaconda下创的虚拟环境pytorch 整个过程大体为,在画板手写数字,用python代码实现手写数字的批量生成,定义超参数,创建数据集包括训练集和数据集,创 ...
- 使用Pytorch实现手写数字识别(Mnist数据集)
目标 知道如何使用Pytorch完成神经网络的构建 知道Pytorch中激活函数的使用方法 知道Pytorch中torchvision.transforms中常见图形处理函数的使用 知道如何训练模型和 ...
- pytorch实现手写数字识别_Paddle和Pytorch实现MNIST手写数字集识别对比
一.简介 1. Paddle PaddlePaddle是百度自主研发的集深度学习核心框架.工具组件和服务平台为一体的技术领先.功能完备的开源深度学习平台,有全面的官方支持的工业级应用模型,涵盖自然语言 ...
- 深度学习-Pytorch:项目标准流程【构建、保存、加载神经网络模型;数据集构建器Dataset、数据加载器DataLoader(线性回归案例、手写数字识别案例)】
1.拿到文本,分词,清晰数据(去掉停用词语): 2.建立word2index.index2word表 3.准备好预训练好的word embedding 4.做好DataSet / Dataloader ...
- 深度学习练手项目(一)-----利用PyTorch实现MNIST手写数字识别
一.前言 MNIST手写数字识别程序就不过多赘述了,这个程序在深度学习中的地位跟C语言中的Hello World地位并驾齐驱,虽然很基础,但很重要,是深度学习入门必备的程序之一. 二.MNIST数据集 ...
最新文章
- 使用Python,OpenCV的Meanshift 和 Camshift 算法来查找和跟踪视频中的对象
- Android性能优化案例研究(上)
- 系统级性能分析工具 — Perf
- android 字体竖直居中_问下弹性盒内不知道高度的时候想让字体垂直居中代码要怎么写...
- 她,既是一个风华绝代的演员,更是WiFi之母...
- 求2个数的最大公约数
- JS-原型-原型链-值和引用类型
- OpenShift 4 - Pod是如何使用Serivce Account访问API的
- 告别遥控器,BBC 试验用大脑调台
- 盛京剑客系列17:市场暴跌下投资组合的调整
- 海康摄像头使用RTSP
- 神经网络(入门最详细)
- PicGO + 阿里云对象存储OSS 个人图床入门教程
- 安装mysql报msvcr100_解决安装mysql 提示msvcr100.dill 丢失,的最快方法
- nodejs实现文件/头像上传
- vsm特征提取java_文本分类之特征描述vsm和bow
- 五年级英语短文计算机,五年级英语阅读短文大全
- Elasticsearch中的date与时区问题
- python 练习题目
- 教你用JavaScript制作进度条
热门文章
- 如何用Python实现超级玛丽的界面和状态机?
- AI大佬“互怼”:Bengio和Gary Marcus隔空对谈深度学习发展现状
- 50行代码教AI实现动作平衡 | 附完整代码
- 春节囤货清单 | 15篇近期值得读的AI论文
- 跟风Google Brain,Facebook AI研究机构启动见习项目
- 服务端主动推送数据,除了 WebSocket 你还能想到啥?
- 小姐姐都能看懂的Happens-before规则,你还愣住了?
- 如何优雅的实现 try/catch 异常块?
- 惊:FastThreadLocal吞吐量居然是ThreadLocal的3倍!!!
- ELK教程1:ElasticSearch集群的部署