文章目录

  • 深度卷积神经网络(AlexNet)
    • AlexNet
    • 模型说明
    • 激活函数选定
    • 模型定义
    • 读取数据集
    • 训练AlexNet
    • 小结

深度卷积神经网络(AlexNet)

2012年,AlexNet横空出世。它首次证明了学习到的特征可以超越手工设计的特征

它一举打破了计算机视觉研究的现状。 AlexNet使用了8层卷积神经网络,并以很大的优势赢得了2012年ImageNet图像识别挑战赛。

AlexNet

AlexNet和LeNet的架构非常相似,如下图所示。 注意,这里我们提供了一个稍微精简版本的AlexNet,去除了当年需要两个小型GPU同时运算的设计特点。

AlexNet 和 LeNet 的设计理念非常相似,但也存在显著差异。 首先,AlexNet 比相对较小的 LeNet5 要深得多。 AlexNet 由八层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。 其次,AlexNet 使用 ReLU 而不是 sigmoid 作为其激活函数。 下面,让我们深入研究 AlexNet 的细节。

模型说明

在AlexNet的第一层,卷积窗口的形状是 11×1111 \times 1111×11 。 由于ImageNet中大多数图像的宽和高比MNIST图像的多10倍以上,因此,需要一个更大的卷积窗口来捕获目标。 第二层中的卷积窗口形状被缩减为 5×55 \times 55×5 ,然后是 3×33 \times 33×3 。 此外,在第一层、第二层和第五层卷积层之后,加入窗口形状为 3×33 \times 33×3 、步幅为2的最大汇聚层。 而且,AlexNet的卷积通道数目是LeNet的10倍。

在最后一个卷积层后有两个全连接层,分别有4096个输出。 这两个巨大的全连接层拥有将近1GB的模型参数。 由于早期GPU显存有限,原版的AlexNet采用了双数据流设计,使得每个GPU只负责存储和计算模型的一半参数。 幸运的是,现在GPU显存相对充裕,所以我们现在很少需要跨GPU分解模型(因此,我们的AlexNet模型在这方面与原始论文稍有不同)。

激活函数选定

此外,AlexNet将sigmoid激活函数改为更简单的ReLU激活函数

一方面,ReLU激活函数的计算更简单,它不需要如sigmoid激活函数那般复杂的求幂运算。

另一方面,当使用不同的参数初始化方法时,ReLU激活函数使训练模型更加容易。 当sigmoid激活函数的输出非常接近于0或1时,这些区域的梯度几乎为0,因此反向传播无法继续更新一些模型参数。 相反,ReLU激活函数在正区间的梯度总是1。 因此,如果模型参数没有正确初始化,sigmoid函数可能在正区间内得到几乎为0的梯度,从而使模型无法得到有效的训练。

模型定义

现在我们根据上图来构建 AlexNet卷积神经网络。

相对于LeNet模型,我们做了以下的改变:

1、增加了卷积层的数量,现在AlexNet卷积神经网络具有5个卷积层。

2、使用了非线性激活函数ReLU()激活函数,更好应用模型的优化方法。

3、添加了暂退法Dropout来减少模型的过拟合,降低模型复杂度。

import torch
from torch import nn
from d2l import torch as d2lnet = nn.Sequential(# 这里,我们使用一个11*11的更大窗口来捕捉对象。# 同时,步幅为4,以减少输出的高度和宽度。# 另外,输出通道的数目远大于LeNetnn.Conv2d(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),# 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数nn.Conv2d(96, 256, kernel_size=5, padding=2), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),# 使用三个连续的卷积层和较小的卷积窗口。# 除了最后的卷积层,输出通道的数量进一步增加。# 在前两个卷积层之后,汇聚层不用于减少输入的高度和宽度nn.Conv2d(256, 384, kernel_size=3, padding=1), nn.ReLU(),nn.Conv2d(384, 384, kernel_size=3, padding=1), nn.ReLU(),nn.Conv2d(384, 256, kernel_size=3, padding=1), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2),nn.Flatten(),# 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过拟合nn.Linear(6400, 4096), nn.ReLU(),nn.Dropout(p=0.5),nn.Linear(4096, 4096), nn.ReLU(),nn.Dropout(p=0.5),# 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000nn.Linear(4096, 10))

我们构造一个高度和宽度都为224的单通道数据,来观察每一层输出的形状。 它与下图中的 AlexNet架构 相匹配。

X = torch.randn(1, 1, 224, 224)
for layer in net:X=layer(X)print(layer.__class__.__name__,'output shape:\t',X.shape)
Conv2d output shape:  torch.Size([1, 96, 54, 54])
ReLU output shape:   torch.Size([1, 96, 54, 54])
MaxPool2d output shape:  torch.Size([1, 96, 26, 26])
Conv2d output shape:     torch.Size([1, 256, 26, 26])
ReLU output shape:   torch.Size([1, 256, 26, 26])
MaxPool2d output shape:  torch.Size([1, 256, 12, 12])
Conv2d output shape:     torch.Size([1, 384, 12, 12])
ReLU output shape:   torch.Size([1, 384, 12, 12])
Conv2d output shape:     torch.Size([1, 384, 12, 12])
ReLU output shape:   torch.Size([1, 384, 12, 12])
Conv2d output shape:     torch.Size([1, 256, 12, 12])
ReLU output shape:   torch.Size([1, 256, 12, 12])
MaxPool2d output shape:  torch.Size([1, 256, 5, 5])
Flatten output shape:    torch.Size([1, 6400])
Linear output shape:     torch.Size([1, 4096])
ReLU output shape:   torch.Size([1, 4096])
Dropout output shape:    torch.Size([1, 4096])
Linear output shape:     torch.Size([1, 4096])
ReLU output shape:   torch.Size([1, 4096])
Dropout output shape:    torch.Size([1, 4096])
Linear output shape:     torch.Size([1, 10])

读取数据集

尽管本文中AlexNet是在ImageNet上进行训练的,但我们在这里使用的是Fashion-MNIST数据集。因为即使在现代GPU上,训练ImageNet模型,同时使其收敛可能需要数小时或数天的时间。 将AlexNet直接应用于Fashion-MNIST的一个问题是,Fashion-MNIST图像的分辨率( 28×2828 \times 2828×28 像素)低于ImageNet图像。 为了解决这个问题,我们将它们增加到 224×224224 \times 224224×224 (通常来讲这不是一个明智的做法,但我们在这里这样做是为了有效使用AlexNet架构)。 我们使用d2l.load_data_fashion_mnist函数中的resize参数执行此调整。

batch_size = 128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)

训练AlexNet

现在,我们可以开始训练AlexNet了。与之前的LeNet相比,这里的主要变化是使用更小的学习速率训练,这是因为网络更深更广、图像分辨率更高,训练卷积神经网络就更昂贵。

lr, num_epochs = 0.01, 10
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())

可以发现,AlexNet 神经网络模型相对于LeNet模型(train:0.82, test: 0.78)有了明显的提升。

小结

1、AlexNet的架构与LeNet相似,但使用了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。

2、今天,AlexNet已经被更有效的架构所超越,但它是从浅层网络到深层网络的关键一步。

3、尽管AlexNet的代码只比LeNet多出几行,但学术界花了很多年才接受深度学习这一概念,并应用其出色的实验结果。这也是由于缺乏有效的计算工具。

4、Dropout、ReLU和预处理是提升计算机视觉任务性能的其他关键步骤。

AlexNet-深度卷积神经网络(CNN卷积神经网络)相关推荐

  1. 深度学习之CNN卷积神经网络

    详解卷积神经网络(CNN) 卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出 ...

  2. 深度学习之CNN卷积神经网络详解以及猫狗识别实战

    文章目录 CNN 解决了什么问题? 需要处理的数据量太大 图像简单数字化无法保留图像特征 CNN核心思想 局部感知 参数共享 卷积神经网络-CNN 的基本原理 卷积--提取特征 池化层(下采样)--数 ...

  3. 【从线性回归到 卷积神经网络CNN 循环神经网络RNN Pytorch 学习笔记 目录整合 源码解读 B站刘二大人 绪论(0/10)】

    深度学习 Pytorch 学习笔记 目录整合 数学推导与源码详解 B站刘二大人 目录传送门: 线性模型 Linear-Model 数学原理分析以及源码详解 深度学习 Pytorch笔记 B站刘二大人( ...

  4. 卷积运算(CNN卷积神经网络)

    文章目录 图像卷积 互相关运算 卷积层 图像中目标的边缘检测 学习卷积核 小结 图像卷积 最近学习到了卷积深度网络,有些本质概念太深暂时还没有理解透彻,现在主要记录下卷积神经网络中的一些计算. 以下介 ...

  5. DenseNet - 稠密神经网络(CNN卷积神经网络)

    文章目录 DenseNet - 稠密神经网络 稠密块体 稠密块中的卷积层 稠密块 过渡层 DenseNet模型 训练模型 小结 DenseNet - 稠密神经网络 ResNet极大地改变了如何参数化深 ...

  6. ResNet - 残差神经网络(CNN卷积神经网络)

    文章目录 ResNet - 残差网络 定义残差块(Residual) ResNet模型 训练模型 小结 ResNet - 残差网络 关于ResNet残差网络,最本质且主要的公式如下: f(x)=g(x ...

  7. 深度学习--卷积神经网络CNN

    主要内容 1. 神经网络 1.1 感知器 1.2 Sigmoid神经元 1.3 神经网络 2. 卷积神经网络CNN 2.1 卷积神经网络结构 2.2 数据输入层 2.3 卷积层 2.3.1 局部感知( ...

  8. 搭建CNN卷积神经网络(用pytorch搭建)

    手撕卷积神经网络-CNN 卷积:提取特征 池化:压缩特征 heigh X weigh X depth 长度 宽度.深度(也就是特征图个数) 例如输入32x32x3 hxwxc 卷积就是取某个小区域进行 ...

  9. cnn 预测过程代码_代码实践 | CNN卷积神经网络之文本分类

    学习目录阿力阿哩哩:深度学习 | 学习目录​zhuanlan.zhihu.com 前面我们介绍了:阿力阿哩哩:一文掌握CNN卷积神经网络​zhuanlan.zhihu.com阿力阿哩哩:代码实践|全连 ...

  10. 图卷积神经网络代码讲解,cnn卷积神经网络伪代码

    1.卷积神经网络通俗理解 卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Ne ...

最新文章

  1. ACMNO.49:一元三次方程求解(主要就是精度问题)
  2. overload和override的区别
  3. python中用def实现自动排序_漫画排序算法Python实现
  4. c 遍历文件 递归遍历_将递归文件系统遍历转换为流
  5. python中数据类型不同运算不同_Python的基本数据类型与运算
  6. 采集post传输的数据
  7. java 一个数组key一个数组value_在各种语言中,使用key在map中获取value 和 使用下标获取数组中的数据 相比哪个更快?...
  8. 体验Vs2005 beta2 测试工具
  9. Xshell远程连接Linux失败
  10. 又一灵异事件 Delphi 2007 在 Win7
  11. Python 全栈打造某宝客微信机器人
  12. 1.1 波士顿房价预测
  13. 2030年中国GDP将超越美国成为世界第一?
  14. 替换字符串中的通配符
  15. 如何用微云永久外链MP3做QQ空间背景音乐?
  16. 使用ping检测MTU值
  17. 平台如何实现实人认证?
  18. ajax回调函数有时成功有时失败,$.ajax数据传输成功却执行失败的回调函数
  19. Win10 22H2 19045.2670系统原版镜像
  20. Linux系统命令与网络、磁盘参数和日志监控

热门文章

  1. 服务器维修工程师个人简历,机械维修工程师个人简历模板精选
  2. 大学物理复习笔记——电磁感应定律
  3. 教师资格证高中计算机资料,教师资格考试高中信息技术试题
  4. 计算机二级考试C语言
  5. 监控网站与接口宕机,并推送 App 消息提醒的程序
  6. linux常用net命令
  7. 【图神经网络】图神经网络(GNN)学习笔记:GraphSAGE
  8. 网易有道最新力作 有道词典笔3 结构拆解
  9. php工厂模式计算器,php设计模式之工厂模式(工厂模式实现计算器功能)
  10. qq连连看分析编写简单辅助