1 Dropout方法

2.1 Dropout原理

在训练过程中,每次随机选择一部分节点不去进行学习。

2.1.1 从Dropout原理来看过拟合的原因

任何一个模型不能完全把数据分开,在某一类中一定会有一些异常数据,过拟合的问题恰恰是把这些异常数据当成规律来学习了。

2.1.2 异常数据的特点

异常数据的特点:与主流样本中的规律不同,在一个样本中出现的概率要比主流数据出现的概率低很多。在每次训练中,忽略模型中一些节点,将小概率的异常数据获得学习的机会变得更低。这样,异常数据对模型的影响就会更小。

2.1.3 Dropout的缺陷

Dropout会使一部分节点不去学习,所以在增加模型的泛化能力的同时,会使学习速度隆低。这注意样会使模型不太容易学成,于是在使用的过程中需要令理地进行调节,也就是确定到底丢弃多少节点。注意,并不是丢弃的节点越多越好。

2.2 Dropout的实现

2.2.1 Dropout的实现

  • Dropout:对一维的线性数据进行Dropout处理,输入形状是[N,D](N代表次数D代表数据数)。
  • Dropout2D:对二维的平面数据进行Dropout处理,输入形状是[N,C,H,W]和(N代表批次数,C代表通道数,H代表高度,W代表宽度),系统将对整个通道随机设为0。
  • Dropout3D:对三维的立体数据进行Dropout处理,输入形状是[N,C,D,H,W](N代表批次数,C代表通道数,D代表深度,H代表高度,W代表宽度),系统将对整个通道随机设为0。

2.2.2 Dropout函数定义(基于函数形式)

torch.nn.functional.dropout(input,p=0.5,training=False,inplace=False)
  • input:代表输入的模型节点。
  • p:表示丢弃率。如果参数值为1,那么表示全部丢弃(置0)。该参数默认值是0.5,表示丢弃50%的节点。
  • training:表示该函数当前的使用状态。如果参数值是False,那么表明不在训练状态使用,这时将不丢弃任何节点。
  • inplace:表示是否改变输入值,默认是False。

2.2.3 Dropout函数使用的注意事项

  • Dropout改变了神经网络的网络结构,它仅仅是属于训练时的方法。
  • 进行测试时,一般要将函效Dropout的trainimg参数变为False,表示不需要进行丢弃。否则会影响模型的型常输出。
  • 在使用类的方式调用Dropout时,没有training参数,因为Dropout实例化对象会根据模型本身的调用方式来自动调节training参数。

2.3 通过Dropout改善模型的过拟合状况

2.3.1 修改上篇文章中的# 2 搭建网络模型部分

# 2 搭建网络模型
# model = LogicNet(inputdim=2,hiddendim=500,outputdim=2) # 实例化模型,增加拟合能力将hiddendim赋值为500
# 替换为
class Logic_Dropout_Net(LogicNet):def __init__(self,inputdim,hiddendim,outputdim):super(Logic_Dropout_Net, self).__init__(inputdim,hiddendim,outputdim)# 方法2:使用类的方法实现步骤1#self.dropout = nn.Dropout(p=0.07)def forward(self,x):x = self.Linear1(x)x = torch.tanh(x)# 方法1 使用函数的方式实现x = nn.functional.dropout(x,p=0.01,training=self.training)# 方法2:使用类的方法实现步骤2# x = self.dropout(x)x = self.Linear2(x)return xmodel = Logic_Dropout_Net(inputdim=2,hiddendim=500,outputdim=2) # 初始化模型

2.3.2 Dropout方法---代码总览

Dropout01.py
import sklearn.datasets
import torch
import numpy as np
import  matplotlib.pyplot as plt
from torch import nnfrom LogicNet_fun import LogicNet,moving_average,predict,plot_decision_boundary# 1 构建数据集
np.random.seed(0) # 设置随机数种子
X , Y =sklearn.datasets.make_moons(40,noise=0.2) # 生成两组半圆形数据
arg = np.squeeze(np.argwhere(Y==0),axis=1) # 获取第1组数据索引
arg2 = np.squeeze(np.argwhere(Y==1),axis=1) # 获取第2组数据索引
# 显示数据
plt.title("train moons data")
plt.scatter(X[arg,0],X[arg,1],s=100,c='b',marker='+',label = 'data1')
plt.scatter(X[arg2,0],X[arg2,1],s=40,c='r',marker='o',label = 'data2')
plt.legend()
plt.show()# 2 搭建网络模型
# model = LogicNet(inputdim=2,hiddendim=500,outputdim=2) # 实例化模型,增加拟合能力将hiddendim赋值为500
# 替换为
class Logic_Dropout_Net(LogicNet):def __init__(self,inputdim,hiddendim,outputdim):super(Logic_Dropout_Net, self).__init__(inputdim,hiddendim,outputdim)# 方法2:使用类的方法实现步骤1#self.dropout = nn.Dropout(p=0.07)def forward(self,x):x = self.Linear1(x)x = torch.tanh(x)# 方法1 使用函数的方式实现x = nn.functional.dropout(x,p=0.01,training=self.training)# 方法2:使用类的方法实现步骤2# x = self.dropout(x)x = self.Linear2(x)return xmodel = Logic_Dropout_Net(inputdim=2,hiddendim=500,outputdim=2) # 初始化模型optimizer = torch.optim.Adam(model.parameters(),lr=0.01) # 定义优化器:反向传播过程中使用。# 3 训练模型+训练过程loss可视化
xt = torch.from_numpy(X).type(torch.FloatTensor) # 将numpy数据转化为张量
yt = torch.from_numpy(Y).type(torch.LongTensor) # 将numpy数据转化为张量
epochs = 1000 # 定义迭代次数
losses = [] # 损失值列表
for i in range(epochs):loss = model.getloss(xt,yt)losses.append(loss.item()) # 保存损失值中间状态optimizer.zero_grad() # 清空梯度loss.backward() # 反向传播损失值optimizer.step() # 更新参数
avgloss = moving_average(losses) # 获得损失值的移动平均值
plt.figure(1)
plt.subplot(211)
plt.xlabel('step number')
plt.ylabel('Training loss')
plt.title('step number vs Training loss')
plt.show()# 4 模型结果可视化,观察过拟合现象
plot_decision_boundary(lambda x: predict(model,x),X,Y)
from sklearn.metrics import accuracy_score
print("训练时的准确率",accuracy_score(model.predict(xt),yt))
# 重新生成两组半圆数据
Xtest,Ytest = sklearn.datasets.make_moons(80,noise=0.2)
plot_decision_boundary(lambda x: predict(model,x),Xtest,Ytest)
Xtest_t = torch.from_numpy(Xtest).type(torch.FloatTensor) # 将numpy数据转化为张量
Ytest_t = torch.from_numpy(Ytest).type(torch.LongTensor)
print("测试时准确率",accuracy_score(model.predict(Xtest_t),Ytest_t))
LogicNet_fun.py
import torch.nn as nn #引入torch网络模型库
import torch
import numpy as np
import matplotlib.pyplot as plt# 1.2 定义网络模型
class LogicNet(nn.Module): #继承nn.Module类,构建网络模型def __init__(self,inputdim,hiddendim,outputdim): #初始化网络结构 ===》即初始化接口部分super(LogicNet,self).__init__()self.Linear1 = nn.Linear(inputdim,hiddendim) #定义全连接层self.Linear2 = nn.Linear(hiddendim,outputdim) #定义全连接层self.criterion = nn.CrossEntropyLoss() #定义交叉熵函数def forward(self,x):# 搭建用两个全连接层组成的网络模型 ===》 即正向接口部分:将网络层模型结构按照正向传播的顺序搭建x = self.Linear1(x)# 将输入传入第一个全连接层x = torch.tanh(x)# 将第一个全连接层的结果进行非线性变化x = self.Linear2(x)# 将网络数据传入第二个全连接层return xdef predict(self,x):# 实现LogicNet类的预测窗口 ===》 即预测接口部分:利用搭建好的正向接口,得到模型预测结果#调用自身网络模型,并对结果进行softmax()处理,分别的出预测数据属于每一个类的概率pred = torch.softmax(self.forward(x),dim=1)# 将正向结果进行softmax(),分别的出预测结果属于每一个类的概率return torch.argmax(pred,dim=1)# 返回每组预测概率中最大的索引def getloss(self,x,y):# 实现LogicNet类的损失值接口 ===》 即损失值计算接口部分:计算模型的预测结果与真实值之间的误差,在反向传播时使用y_pred = self.forward(x)loss = self.criterion(y_pred,y)# 计算损失值的交叉熵return loss# 1.5 训练可视化
def moving_average(a,w=10): #计算移动平均损失值if len(a) < w:return a[:]return [val if idx < w else sum(a[(idx - w):idx]) / w for idx, val in enumerate(a)]def moving_average_to_simp(a,w=10): #if len(a) < w:return a[:]val_list = []for idx, val in enumerate(a):if idx < w:# 如果列表 a 的下标小于 w, 直接将元素添加进 xxx 列表val_list.append(val)else:#  向前取 10 个元素计算平均值, 添加到 xxx 列表val_list.append(sum(a[(idx - w):idx]) / w)def plot_losses(losses):avgloss = moving_average(losses)#获得损失值的移动平均值plt.figure(1)plt.subplot(211)plt.plot(range(len(avgloss)),avgloss,'b--')plt.xlabel('step number')plt.ylabel('Training loss')plt.title('step number vs Training loss')plt.show()# 1.7 数据可视化模型
def predict(model,x): #封装支持Numpy的预测接口x = torch.from_numpy(x).type(torch.FloatTensor)model = LogicNet(inputdim=2, hiddendim=3, outputdim=2)ans = model.predict(x)return ans.numpy()def plot_decision_boundary(pred_func,X,Y): #在直角模型中实现预测结果的可视化#计算范围x_min ,x_max = X[:,0].min()-0.5 , X[:,0].max()+0.5y_min ,y_max = X[:,1].min()-0.5 , X[:,1].max()+0.5h=0.01xx, yy = np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))#根据数据输入进行预测Z = pred_func(np.c_[xx.ravel(),yy.ravel()])Z = Z.reshape(xx.shape)#将数据的预测结果进行可视化plt.contourf(xx,yy,Z,cmap=plt.cm.Spectral)plt.title("Linear predict")arg = np.squeeze(np.argwhere(Y==0),axis=1)arg2 = np.squeeze(np.argwhere(Y==1),axis=1)plt.scatter(X[arg,0],X[arg,1],s=100,c='b',marker='+')plt.scatter(X[arg2,0],X[arg2,1],s=40,c='r',marker='o')plt.show()

2.4 全连接网络与泛化能力

  • 全连接网络是一个通用的近似框架。只要有足够多的神经元、即使只有一个隐藏层的整网络,利用常用的Sigmoid、ReLU等激活函数,就可以无限逼近任何连续函数。
  • 浅层的网络具有更好的拟合能力,但是泛化能力相对较弱。
  • 深层的网络具有更好的泛化能力,但是拟合能力相对较弱。

2.4.1 wide_deep模型

wide_deep模型就是利用了深层网络与浅层网络的特征实现的组合模型,该模型由以下两个模型的输出结果叠加而成。
    wide模型是一个单层线性模型(浅层全连接网络模型)。
    deep模型是一个深度的全连接模型(深层全连接网络模型)。

【Pytorch神经网络理论篇】 15 过拟合问题的优化技巧(二):Dropout()方法相关推荐

  1. 【Pytorch神经网络理论篇】 16 过拟合问题的优化技巧(三):批量归一化

    1 批量归一化理论 1.1 批量归一化原理 1.2 批量归一化定义 将每一层运算出来的数据归一化成均值为0.方差为1的标准高斯分布.这样就会在保留样本的分布特征,又消除了层与层间的分布差异. 在实际应 ...

  2. 【Pytorch神经网络理论篇】 14 过拟合问题的优化技巧(一):基本概念+正则化+数据增大

    1 过拟合问题的描述 1.1 过拟合问题概述 深度额学习训练过程中,在训练阶段得到了较好的准确率,但在识别非数据集数据时存在精度下降的问题,这种现象称为过拟合现象. 主要原因:由于模型的拟合度过高,导 ...

  3. 【Pytorch神经网络理论篇】 20 神经网络中的注意力机制

    注意力机制可以使神经网络忽略不重要的特征向量,而重点计算有用的特征向量.在抛去无用特征对拟合结果于扰的同时,又提升了运算速度. 1 注意力机制 所谓Attention机制,便是聚焦于局部信息的机制,比 ...

  4. 【Pytorch神经网络理论篇】 34 样本均衡+分类模型常见损失函数

    同学你好!本文章于2021年末编写,获得广泛的好评! 故在2022年末对本系列进行填充与更新,欢迎大家订阅最新的专栏,获取基于Pytorch1.10版本的理论代码(2023版)实现, Pytorch深 ...

  5. 【Pytorch神经网络理论篇】 37 常用文本处理工具:spaCy库+torchtext库

    在NLP的发展过程中,人们也开发了很多非常实用的工具,这些工具可以帮助开发人员快速地实现自然语言相关的基础处理,从而可以更好地将精力用在高层次的语义分析任务中下面详细介绍该领域中比较优秀的工具. 1 ...

  6. 【Pytorch神经网络理论篇】 32 PNASNet模型:深层可分离卷积+组卷积+空洞卷积

    1 PNASNet模型简介 PNASNet模型是Google公司的AutoML架构自动搜索所产生的模型,它使用渐进式网络架构搜索技术,并通过迭代自学习的方式,来寻找最优网络结构.即用机器来设计机器学习 ...

  7. 【Pytorch神经网络理论篇】 31 图片分类模型:ResNet模型+DenseNet模型+EffcientNet模型

    1 ResNet模型 在深度学习领域中,模型越深意味着拟合能力越强,出现过拟合问题是正常的,训练误差越来越大却是不正常的. 1.1 训练误差越来越大的原因 在反向传播中,每一层的梯度都是在上一层的基础 ...

  8. 【Pytorch神经网络理论篇】 29 图卷积模型的缺陷+弥补方案

    图卷积模型在每个全连接网络层的结果中加入了样本间的特征计算.其述质是依赖深度学特征与缺陷. 1.1 全连接网络的特征与缺陷 多层全连接神经网络被称为万能的拟合神经网络.先在单个网络层中用多个神经元节点 ...

  9. 【Pytorch神经网络理论篇】 27 图神经网络DGL库:简介+安装+卸载+数据集+PYG库+NetWorkx库

    DGL库是由纽约大学和亚马逊联手推出的图神经网络框架,支持对异构图的处理,开源相关异构图神经网络的代码,在GCMC.RGCN等业内知名的模型实现上也取得了很好的效果. 1 DGL库 1.1 DGL库的 ...

最新文章

  1. 2018python培训-2018python深度学习核心技术培训班
  2. 吴恩达专访 Yann LeCun:是的我们曾经历黑暗时刻,但我始终抱有信念
  3. Lucky7(hdu5768)
  4. canal应用二:mysql数据实时同步到redis
  5. php执行zip压缩,PHP执行zip与rar解压缩方法实现代码
  6. android tv nugat,GitHub - GongXunYoung/Android-tv-widget: Android tv,盒子,投影仪 控件
  7. 【数据结构上机练习】考试题目 3
  8. python正则_python中正则匹配
  9. Centos7安装官方JDK
  10. namenode双机热备之操作实践
  11. html推箱子过关检测函数,HTML5推箱子实现
  12. 关于CSDN登录提示手机号验证的问题
  13. Resnet18详细结构
  14. 超酷,用 Python 教你绘制皮卡丘和哆啦A梦
  15. 22东华大学计算机专硕854考研上岸实录
  16. 伽罗华有限域_伽罗华域(Galois Field,GF,有限域)乘法运算 - MengBoy的专栏 - CSDN博客...
  17. VB简易绘图板的实现
  18. 关于windows10在学习爬虫是用到appium配置java的jdk出现了,javac不是内部命令的解决方法(¥57)
  19. Retrofit2.9.0源码解析
  20. 概率论复习笔记二——离散型分布和连续型分布

热门文章

  1. 1、如何理解SQL Server的实例
  2. 深度学习案例之基于 CNN 的 MNIST 手写数字识别
  3. MySQL查询select实例 【笔记】
  4. python监控网页更新_python监控网页更新
  5. linux内核的I2C子系统详解1——I2C总线概览、驱动框架概览
  6. Linux文件属性3——文件权限管理
  7. uboot将命令结构体单独存放在某个代码段的方法
  8. C++远航之封装篇——默认构造函数、初始化列表、拷贝构造函数
  9. java的import和python的import对比_import导入的是什么
  10. Android - Glide4.4.0使用