导读

继续PyTorch学习系列。前篇介绍了PyTorch中最为基础也最为核心的数据结构——Tensor,有了这些基本概念即可开始深度学习实践了。本篇围绕这一话题,本着提纲挈领删繁就简的原则,从宏观上介绍搭建深度学习模型的几个基本要素。

不同于经典的机器学习流程,深度学习模型的搭建和训练更为灵活和简单,称之为灵活是因为一般没有成熟和直接可用的模型,而更多需要使用者自己去设计和组装各个网络模块;称之为简单是因为深度学习往往实现端到端的训练,即直接从原始数据集到模型输出,而无需经典机器学习中的数据预处理、特征工程、特征选择等多阶段式的工作流。

类似于把大象装进冰箱需要3步一样,构建一个深度学习模型也可以将其分为三步:

  • 数据集准备

  • 模型定义

  • 模型训练

本文就首先围绕这三个环节加以介绍,然后给出一个简单的应用案例。

01 数据集准备

理论上,深度学习中的数据集准备与经典机器学习中的数据集准备并无本质性差别,大体都是基于特定的数据构建样本和标签的过程,其中这里的样本依据应用场景的不同而有不同的样式,比如CV领域中典型的就是图片,而NLP领域中典型的就是一段段的文本。但无论原始样本如何,最终都要将其转化为数值型的Tensor。

当然,将数据集转化为Tensor之后理论上即可用于深度学习模型的输入和训练,但为了更好的支持模型训练以及大数据集下的分batch进行训练,PyTorch中提供了标准的数据集类型(Dataset),而我们则一般是要继承此类来提供这一格式。这里主要介绍3个常用的数据集相关的类:

  • Dataset:所有自定义数据集的基类

  • TensorDataset:Dataset的一个wrapper,用于快速构建Dataset

  • DataLoader:Dataset的一个wrapper,将Dataset自动划分为多个batch

1.Dataset

Dataset是PyTorch中提供的一个数据集基类,首先查看Dataset的签名文档如下:

从中可以看出,所有自定义的数据集都应继承此类,并重载其中的__getitem__和__len__两个方法即可。当然,还需通过类初始化方法__init__来设置要加载的数据。典型的自定义一个Dataset的实现如下:

class MyDataset(Dataset):def __init__(self, x, y):super().__init__()……def __getitem__(self):return ……def __len__(self):return ……

2.TensorDataset

上述通过Dataset的方式可以实现一个标准自定义数据集的构建,但如果对于比较简单的数据集仍需八股文似的重载__getitem__和__len__两个方法,则难免有些繁杂和俗套。而TensorDataset就是对上述需求的一个简化,即当仅需将特定的tensor包裹为一个Dataset类型作为自定义数据集时,那么直接使用TensorDataset即可。这里仍然先给出其签名文档:

具体应用时,只需将若干个tensor格式的输入作为参数传入TensorDataset,而后返回结果即是一个标准的Dataset类型数据集。标准使用方式如下:

my_dataset = TensorDataset(tenso_x, tensor_y)

3.DataLoader

深度学习往往适用于大数据集场景,训练一个成熟的深度学习模型一般也需要足够体量的数据。所以,在深度学习训练过程中一般不会每次都将所有训练集数据一次性的喂给模型,而是小批量分批次的训练,其中每个批量叫做一个batch,完整的训练集参与一次训练叫做一个epoch。实现小批量多批次的方式有很多,比如完全可以通过随机取一个索引分片的方式来实现这一工作,但更为标准和优雅的方式则是使用Dataloader。其给出的签名文档如下:

可见,DataLoader大体上可以等价为对一个Dataset实现随机采样(sampler),而后对指定数据集提供可迭代的类型。相应的,其使用方式也相对简单:直接将一个Dataset类型的数据集作为参数传入DataLoader即可。简单的使用样例如下:

dataloader = DataLoader(MyDataset, batch_size=128, shuffle=True)

以上是应用PyTorch构建数据集时常用的三种操作,基本可以覆盖日常使用的绝大部分需求,后面会结合实际案例加以完整演示。

02 网络架构定义

深度学习与经典机器学习的一个最大的区别在于模型结构方面,经典机器学习模型往往有着固定的范式和结构,例如:随机森林就是由指定数量的决策树构成,虽然这里的n_estimators可以任选,但整体来看随机森林模型的结构是确定的;而深度学习模型的基础在于神经网络,即由若干的神经网络层构成,每一层使用的神经网络模块类型可以不同(全连接层、卷积层等等),包含的神经元数量差异也会带来很大的不同。也正因如此,深度学习给使用者提供了更大的设计创新空间。

当然,网络架构(Architecture)的设计不需要从零开始,PyTorch这些深度学习框架的一大功能就是提供了基础的神经网络模块(Module),而使用者仅需根据自己的设计意图将其灵活组装起来即可——就像搭积木一般!PyTorch中所有网络模块均位于torch.nn模块下(nn=nueral network),总共包括以下模块:

这些模块数量庞大,功能各异,构成了深度学习模型的核心。但就其功能而言,大体分为以下几类:

  • 模型功能类:例如Linear、Conv2d,RNN等,分别对应全连接层、卷积层、循环神经网络层,

  • 激活函数:例如Sigmoid,Tanh,ReLU等,

  • 损失函数:CrossEntropyLoss,MSELoss等,其中前者是分类常用的损失函数,后者是回归常用的损失函数

  • 规范化:LayerNorm等,

  • 防止过拟合:Dropout等

  • 其他

某种程度上讲,学习深度学习的主体在于理解掌握这些基础的网络模块其各自的功能和使用方法,在此基础上方可根据自己对数据和场景的理解来自定义设计网络架构,从而实现预期的模型效果。

该部分内容过于庞大,断不是一篇两篇推文能解释清楚的,自认当前自己也不足以完全理解,所以对这些模块的学习和介绍当徐徐图之、各个击破。

在这些单个网络模块的基础上,构建的完整网络模型则需继承PyTorch中的Module类来加以实现(这一过程类似于继承Dataset类实现自定义数据集),这里仍然给出Module的签名文档:

从中可以看出,所有自定义的网络模型均需继承Module类,并一般需要重写forward函数(用于实现神经网络的前向传播过程),而后模型即完成了注册,并拥有了相应的可训练参数等。

03 模型训练

仍然与经典机器学习模型的训练不同,深度学习模型由于其网络架构一般是自定义设计的,所以一般也不能简单的通过调用fit/predict的方式来实现简洁的模型训练/预测过程,而往往交由使用者自己去实现。

大体上,实现模型训练主要包含以下要素:

  • 完成数据集的准备和模型定义

  • 指定一个损失函数,用于评估当前模型在指定数据集上的表现

  • 指定一个优化器,用于"指导"模型朝着预期方向前进

  • 写一个循环调度,实现模型训练的迭代和进化

数据集的准备和模型定义部分就是前两小节所述内容;而损失函数,简单需求可以依据PyTorch提供的常用损失函数,而更为复杂和个性化的损失函数则继承Module类的方式来加以自定义实现;优化器部分则无太多“花样”可言,一般直接调用内置的优化器即可,例如Adam、SGD等等。

这些操作结合后续的实践案例一并介绍。

04 一个简单的深度学习案例

麻雀虽小五脏俱全,解剖一只麻雀,可有助于探悟内涵实质和基本规律。

有了前述小节的理论基础,就可以开始深度学习实践案例了,这里以sklearn中自带的手写数字分类作为目标来加以实践。

1.首先给出应用sklearn中随机森林模型的实现方式和效果

from sklearn.datasets import load_digits
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
X, y = load_digits(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y)
rf = RandomForestClassifier().fit(X_train, y_train)
rf.score(X_test, y_test)
### 输出:0.9688888888888889

当然,该数据集分类的难度不大,即使在未经过调参的情况下也取得了很好的分类效果。

2.基于PyTorch的深度学习模型训练实践,这里按照标准的深度学习训练流程,仍然使用上述手写数字分类数据集进行实验:

a.构建Dataset类型数据集

import torch
from torch.utils.data import TensorDataset, DataLoaderX_train_tensor = torch.Tensor(X_train)
y_train_tensor = torch.Tensor(y_train).long()  # 主要标签需要用整数形式,否则后续用于计算交叉熵损失时报错
dataset = TensorDataset(X_train_tensor, y_train_tensor)  # 直接调用TensorDataset加以包裹使用
dataloader = DataLoader(dataset, batch_size=128, shuffle=True)  # 每128个样本为一个batch,训练时设为随机X_test_tensor = torch.Tensor(X_test)  # 测试集只需转化为tensor即可
y_test_tensor = torch.Tensor(y_test).long()

b.自定义一个网络模型,仅使用Linear网络层

from torch import nn, optim
class Model(nn.Module):  # 继承Module基类def __init__(self, n_input=64, n_hidden=32, n_ouput=10):# 定义一个含有单隐藏层的全连接网络,其中输入64为手写数字数据集的特征数,输出10为类别数,隐藏层神经元数量设置32super().__init__()# 使用全连接层和ReLU激活函数搭建网络模型self.dnn = nn.Sequential(nn.Linear(n_input, n_hidden),nn.ReLU(),nn.Linear(n_hidden, n_output))def forward(self, x):# 重载forward函数,从输入到输出return self.dnn(x)

c.八股文式的深度学习训练流程

model = Model()  # 初始化模型
creterion = nn.CrossEntropyLoss()  # 选用交叉熵损失函数
optimizer = optim.Adam(model.parameters(), lr=0.001)  # 选用Adam优化器,传入模型参数,设置学习率
for epoch in range(50):  # 50个epochfor data, label in dataloader:  # DataLoader是一个可迭代对象optimizer.zero_grad()  # 待优化参数梯度清空prob = model(data)  # 执行一次前向传播,计算预测结果loss = creterion(prob, label)  # 评估模型损失loss.backward()  # 损失反向传播,完成对待优化参数的梯度求解optimizer.step()  # 参数更新if (epoch + 1) % 5 == 0:  # 每隔5个epoch打印当前模型训练效果with torch.no_grad():train_prob = model(X_train_tensor)train_pred = train_prob.argmax(dim=1)acc_train = (train_pred==y_train_tensor).float().mean()test_prob = model(X_test_tensor)test_pred = test_prob.argmax(dim=1)acc_test = (test_pred==y_test_tensor).float().mean()print(f"epoch: {epoch}, train_accuracy: {acc_train}, test_accuracy: {acc_test} !")
### 输出
epoch: 4, train_accuracy: 0.8507795333862305, test_accuracy: 0.8577777743339539 !
epoch: 9, train_accuracy: 0.948775053024292, test_accuracy: 0.9200000166893005 !
epoch: 14, train_accuracy: 0.9717891812324524, test_accuracy: 0.9444444179534912 !
epoch: 19, train_accuracy: 0.9799554347991943, test_accuracy: 0.9577777981758118 !
epoch: 24, train_accuracy: 0.9866369962692261, test_accuracy: 0.9644444584846497 !
epoch: 29, train_accuracy: 0.9925761222839355, test_accuracy: 0.9644444584846497 !
epoch: 34, train_accuracy: 0.9925761222839355, test_accuracy: 0.9644444584846497 !
epoch: 39, train_accuracy: 0.9962880611419678, test_accuracy: 0.9666666388511658 !
epoch: 44, train_accuracy: 0.9970304369926453, test_accuracy: 0.9711111187934875 !
epoch: 49, train_accuracy: 0.9970304369926453, test_accuracy: 0.9711111187934875 !

至此,就完成了一个深度学习模型训练的基本流程,从数据集准备到模型定义,直至最后的模型训练及输出。当然,由于该数据集分类任务比较简单,加之数据量不大,所以深度学习的优势并不明显。

相关阅读:

  • 写在1024:一名数据分析师的修炼之路

  • 数据科学系列:sklearn库主要模块简介

  • 数据科学系列:seaborn入门详细教程

  • 数据科学系列:pandas入门详细教程

  • 数据科学系列:matplotlib入门详细教程

  • 数据科学系列:numpy入门详细教程

PyTorch学习系列教程:构建一个深度学习模型需要哪几步?相关推荐

  1. 初入深度学习4——如何修改一个深度学习库

    初入深度学习4--如何修改一个深度学习库 学习前言 深度学习库的组成 修改目标定位 举例 一.任务介绍 二.目标定位 三.变量分析 四.修改代码 总结 学习前言 在学习过一个深度学习库之后,如果想要满 ...

  2. 吴恩达.深度学习系列-C1神经网络与深度学习-W1介绍

    什么是神经网络 用神经网络进行监督学习 why is Deep Learning taking off?为啥神经网络能流行起来? About this Course Heroes of Deep Le ...

  3. 如何设计一个深度学习项目

    作者:chen_h 微信号 & QQ:862251340 微信公众号:coderpai 我的博客:请点击这里 目前,有很多关于深度学习的线上和线下技术资源.每天,技术人员都会发表很多的新的论文 ...

  4. 哪些深度相机有python接口_用树莓派和YOLO打造一个深度学习照相机

    Python部落(python.freelycode.com)组织翻译,禁止转载,欢迎转发. 亚马逊刚刚发布了一款智能摄像头DeepLens,它使用机器学习来检测物体.面部和一些活动,如弹吉他.虽然现 ...

  5. C++调用Python文件,TensorFlow和PyTorch构建的深度学习模型,无法使用GPU的情况分析。

    C++调用Python深度学习模型,包含TensorFlow和PyTorch等构造的模型,然后使用GPU出现问题.包含C++调用Python函数,C++加载模型到GPU,GPU内存占用过大,计算完毕内 ...

  6. 手把手教你如何自己设计实现一个深度学习框架(附代码实现)

    作者丨王桂波@知乎(已授权) 来源丨https://zhuanlan.zhihu.com/p/78713744 编辑丨极市平台 导读 本文首先从深度学习的流程开始分析,对神经网络中的关键组件抽象,确定 ...

  7. 2019b官方手册中文版_数据科学|「最全」实至名归,NumPy 官方早有中文教程,结合深度学习,还有防脱发指南...

    文章须知 文章作者:机器之心 责任编辑:书生 审核编辑:阿春 微信编辑:玖蓁 本文转载自公众号 机器之心 (ID:almosthuman2014) 原文链接:「最全」实至名归,NumPy 官方早有中文 ...

  8. 转g代码教程_图深度学习入门教程(九)——图滤波神经网络模型

    本教程是一个系列免费教程,争取每月更新2到4篇.(由于精力有限,近期停止了一段时间,在此向大家道个歉). 主要是基于图深度学习的入门内容.讲述最基本的基础知识,其中包括深度学习.数学.图神经网络等相关 ...

  9. 天才少年稚晖君 | 【保姆级教程】个人深度学习工作站配置指南

    天才少年稚晖君 | [保姆级教程]个人深度学习工作站配置指南 来源:https://zhuanlan.zhihu.com/p/336429888 0. 前言 工作原因一直想配置一台自己的深度学习工作站 ...

最新文章

  1. php2018面试题20块,php最新面试题2018届毕业生专享
  2. 分享一个测试图片的方式
  3. 单片机定时器精准定时_PIC单片机的定时器精准计时的计算
  4. (转)iOS面试题目
  5. as转html5工具,将keras的h5模型转换为tensorflow的pb模型
  6. python可视窗口_Python数据可视
  7. ZCGL大数据项目优化组件布置
  8. 数论 + 公式 - HDU 4335 What is N?
  9. Java实现分类文件拷贝2
  10. Linux 查看网络速率
  11. 从零开始的FPGA学习(2)(用三八译码器实现一位全加器)
  12. loadrunner11下载
  13. 34款Firefox渗透测试插件
  14. android手机分辨率整理
  15. 【游戏建模全流程】Maya制作赛博朋克机器人模型
  16. SpringBoot+Shiro实现登陆拦截功能
  17. woed未响应文件没保存,解决办法
  18. 小米手机的BUG,自动安装 APP 的错觉
  19. PEST分析顺丰服务需求_快递行业宏观环境PEST分析
  20. Navicat 中mysql查询使用占位符

热门文章

  1. linux下rdesktop用法
  2. 移位运算,移位操作应用
  3. 手游大话藏宝阁找不到服务器,大话西游手游藏宝阁指定交易在哪里 藏宝阁怎么没有指定我...
  4. 汉诺塔问题以及青蛙跳台阶问题(附C语言代码)
  5. 什么是grep -v grep??
  6. 关于事务(transaction)
  7. word标题编号消失解决
  8. QQ个人文件夹保存位置无效
  9. Linux定时任务与开机自启动脚本
  10. 2023软考考哪个证书好?