深度学习计算机视觉理论基础(PyTorch)

  • 1 神经网络与cv
    • 1.1 经典的人工神经元模型:M-P 模型
    • 1.2 感知机(Perceptron)的诞生
    • 1.3 计算机视觉
  • 2 深度神经网络基础
    • 2.1 监督学习和无监督学习
      • 2.1.1 监督学习(Supervised Learning)
      • 2.1.2 无监督学习(Unsupervised Learning)
      • 2.1.3 小结
    • 2.2 欠拟合和过拟合
      • 2.2.1 欠拟合
      • 2.2.2 过拟合
    • 2.3 损失和优化
      • 2.3.1 损失函数
      • 2.3.2 优化函数
    • 2.4 激活函数
      • 2.4.1 Sigmoid
      • 2.4.2 tanh
      • 2.4.3 ReLU(Rectified Linear Unit,修正线性单元)
  • 3 卷积神经网络(Convolutional Neural Networks,简称 CNN)
    • 3.1 基础知识
      • 3.1.1 卷积层(Convolution Layer)
      • 3.1.2 池化层
      • 3.1.3 全连接层
    • 3.2 模型实例
      • 3.2.1 LeNet 模型
      • 3.2.2 AlexNet 模型
      • 3.2.3 VGGNet 模型
      • 3.2.4 GoogleNet
      • 3.2.5 ResNet
  • 4 深度学习框架(Deep Learning Frameworks)
  • 5 PyTorch介绍
    • 5.1 Tensor
    • 5.2 Variable
    • 5.3 Module

学习唐进民的《深度学习之PyTorch实战计算机视觉》的理论部分(前四章)的笔记以及部分PyTorch知识。
学习完此部分理论内容之后就可以开始学习 Python(建议 Python初学小知识 专栏)和 PyTorch(建议 深度学习专栏里面的前面几篇深度学习PyTorch笔记)知识,写代码了!
如果已经掌握了基础的 Python 和 PyTorch 知识就可以开始进行实例操作( 深度学习专栏和 人工智能实例专栏有一些例子,持续更新)了!

1 神经网络与cv

在使用深度学习方法解决计算机视觉问题的过程中,用得最多的网络架构是一种叫作卷积神经网络(Convolutional Neural Network)的模型。卷积神经网络是人工神经网络的变化和升级,是科学家通过模拟人类大脑的工作原理而发明的。

1.1 经典的人工神经元模型:M-P 模型

yj=f(∑i=1nwijxi−θj)y_{j}=f\left(\sum_{i=1}^{n} w_{i j} x_{i}-\theta_{j}\right) yj​=f(i=1∑n​wij​xi​−θj​)

  • xix_ixi​相当于输入的信息,wijw_{i j}wij​是权重
  • 圆圈等价于在生物神经元中判断是否对输入的信息进行激活、输出的部分
  • 信息×权重,再求和数,然后将求和的结果传送给函数 fff
  • fff定义了目标阈值的激活函数,这个激活函数只有在满足目标阈值时才能将信息激活及输出
  • θj\theta_{j}θj​相当于阈值
  • 可以对权重及激活条件进行设定,来构造与、或、非门

1.2 感知机(Perceptron)的诞生

  • 是一种具有单层计算单元的神经网络模型
  • 是一种能够进行二分类的线性模型,初衷是解决数据的分类问题
  • 只要被处理的数据线性可分,就能使用感知机模型不断地进行模型训练和参数优化,最后得到一个能够对数据进行二分类的模型
    f(x)=sign⁡(w⋅x+b)f(x)=\operatorname{sign}(w \cdot x+b) f(x)=sign(w⋅x+b)
    sign⁡(w⋅x+b)={+1w⋅x+b>0−1w⋅x+b<0\operatorname{sign}(w \cdot x+b)= \begin{cases}+1 & w \cdot x+b>0 \\ -1 & w \cdot x+b<0\end{cases} sign(w⋅x+b)={+1−1​w⋅x+b>0w⋅x+b<0​

如果处于二维空间中,那么 w⋅x+b=0w \cdot x+b= 0w⋅x+b=0 对应的就是对输入数据进行二分类的那条直线,在感知机中我们也把这条直线叫作分割超平面(Separating Hyperplane)。

不过感知机也存在极为明显的优缺点,优点是很容易处理线性可分问题,缺点是不能处理异或问题,也就是说不能处理非线性问题。 所以,之后出现了能够处理非线性问题的多层感知机模型:

多层感知机和单层感知机的最大区别是多层感知机在它的输入层(Input Layer)和输出层(Output Layer)之间加入了新的网络层次→隐藏层(Hidden Layer)(一层或多层)。同时,多层感知机具备了一种后向传播能力,我们可以暂时将后向传播理解为多层感知机模型进行自我学习和优化的一种方法。

不能只对网络层次进行机械性累加,否则在进行后向传播的过程中会出现梯度消失的问题。对于深层次神经网络模型,我们必须有特别的优化和控制手段。

有一种一种有效的解决方案,是通过无监督预训练对权值进行初始化和有监督训练微调模型(利用现有的样本数据,通过科学的方法不断微调模型参数,使模型的预测结果和真实结果之间的误差值不断减小)。

1.3 计算机视觉

传统的计算机视觉大致分为信息的收集、信息的分析和信息的处理三部分内容。

图像的目标识别 Object Recognition:对识别出的类别对象用长方形进行框选并在框上打上标签名)和语义分割(Semantic Segmentation:对识别出的类别使用同一种像素进行标识并打上标签)可以说是图片分类的升级版本。

2 深度神经网络基础

2.1 监督学习和无监督学习

2.1.1 监督学习(Supervised Learning)

监督学习是有训练的,过程是:

  • 输入数据 datas 和其对应的标签数据 labels;
  • 然后搭建一个模型,让模型在通过训练后准确地找到输入数据和标签数据之间的最优映射关系;
  • 在输入新的数据后,模型能够通过之前学到的最优映射关系,快速地预测出这组新数据的标签。

(1)回归问题
线性回归的使用场景是我们已经获得一部分有对应关系的原始数据,并且问题的最终答案是得到一个连续的线性映射关系,其过程就是使用原始数据对建立的初始模型不断地进行训练,让模型不断拟合和修正,最后得到我们想要的线性模型,这个线性模型能够对我们之后输入的新数据准确地进行预测。

(2)分类问题
建立的是一个离散的映射关系。

图片描述的是二分类模型。也可以有多分类模型。

2.1.2 无监督学习(Unsupervised Learning)

无监督学习是没有训练,靠直觉的,过程如下:

  • 提供一组没有任何标签的输入数据;
  • 将其在我们搭建好的模型中进行训练,对整个训练过程不做任何干涉;
  • 最后得到一个能够发现数据之间隐藏特征的映射模型,使用这个映射模型能够实现对新数据的分类

    左图显示的是监督学习中的一个二分类模型(两个标签),右图显示的就是无监督学习的过程(没有标签→聚类)。

在无监督训练的整个过程中,我们需要做的仅仅是将训练数据提供给我们的无监督模型,让它自己挖掘数据中的特征和关系。

2.1.3 小结

  • 监督学习需要投入大量精力,更符合设计者的需求和初衷
  • 更具有创造性,不过最后的结果也可能会向不好的方向发展

2.2 欠拟合和过拟合

可以将搭建的模型是否发生欠拟合或者过拟合作为评价模型的拟合程度好坏的指标。

2.2.1 欠拟合


(a)是已获得的房屋的大小和价格的关系数据;(b)是一个欠拟合模型;(c)所示的是一个较好的拟合模型。

解决问题的方式:

  • 增加特征项
  • 构造复杂的多项式
  • 减少正则化参数

2.2.2 过拟合


解决问题的方式:

  • 增大训练的数据量
  • 采用正则化方法:在目标函数之后加上范数,用来防止模型过拟合的发生,在实践中最常用到的正则化方法有 L0 正则、L1 正则和 L2 正则)
  • Dropout 方法:在神经网络模型进行前向传播的过程中,随机选取和丢弃指定层次之间的部分神经连接,因为整个过程是随机的,所以能有效防止过拟合的发生

2.3 损失和优化

深度神经网络中的损失 = 预测值 - 真实值,是衡量我们训练出来的模型泛化能力(机器学习算法对新鲜样本的适应能力)好坏的重要指标。预测值和真实值的差距越小,则说明我们训练的模型预测越准确,具有更好的泛化能力。

对模型进行优化的最终目的是尽可能地在不过拟合的情况下降低损失值

2.3.1 损失函数

(1)均方误差(Mean Square Error,简称 MSE)
MSE=1N∑i=1N(ytrue i−ypred i)2M S E=\frac{1}{N} \sum_{i=1}^{N}\left(y_{\text {true }}^{i}-y_{\text {pred }}^{i}\right)^{2} MSE=N1​i=1∑N​(ytrue i​−ypred i​)2
就是方差。
(2)均方根误差(Root Mean Square Error,简称 RMSE)
RMSE=1N∑i=1N(ytrue i−ypred i)2R M S E=\sqrt{\frac{1}{N} \sum_{i=1}^{N}\left(y_{\text {true }}^{i}-y_{\text {pred }}^{i}\right)^{2}} RMSE=N1​i=1∑N​(ytrue i​−ypred i​)2​
(3)平均绝对误差(Mean Absolute Error,MAE)
MAE=1N∑i=1N∣(ytrue i−ypred i)∣M A E=\frac{1}{N} \sum_{i=1}^{N}\left|\left(y_{\text {true }}^{i}-y_{\text {pred }}^{i}\right)\right| MAE=N1​i=1∑N​∣∣​(ytrue i​−ypred i​)∣∣​

2.3.2 优化函数

在实践操作中最常用到的是一阶优化函数,一阶优化函数在优化过程中求解的是参数的一阶导数,这些一阶导数的值就是模型中参数的微调值。典型的一阶优化函数包括 GD、SGD、Momentum、Adagrad、Adam,等等。

(1)全局梯度下降

梯度下降(Gradient Descent,简称 GD)是参数优化的基础方法。虽然梯度下降已被广泛应用,但是其自身纯在许多不足,所以在其基础上改进的优化函数也非常多。

全局梯度下降的参数更新公式如下:
θj=θj−η×∂J(θj)∂θj\theta_{j}=\theta_{j}-\eta \times \frac{\partial J\left(\theta_{j}\right)}{\partial \theta_{j}} θj​=θj​−η×∂θj​∂J(θj​)​
学习速率 η\etaη 用于控制梯度更新的快慢。

因为模型的训练依赖于整个数据集,所以增加了计算损失值的时间成本和模型训练过程中的复杂度。

(2)批量梯度下降(Batch Gradient Descent,简称 BGD)

每次用一个批量的数据来对模型进行训练,并以这个批量计算得到的损失值为基准来对模型中的全部参数进行梯度更新,默认这个批量只使用一次。
θj=θj−η×∂Jbatch(θj)∂θj\theta_{j}=\theta_{j}-\eta \times \frac{\partial J_{batch}\left(\theta_{j}\right)}{\partial \theta_{j}} θj​=θj​−η×∂θj​∂Jbatch​(θj​)​
如果我们将批量划分得足够好,则计算损失函数的时间成本和模型训练的复杂度将会大大降低,不过选择批量梯度下降很容易导致优化函数的最终结果是局部最优解。

(3)随机梯度下降(Stochastic Gradient Descent,简称 SGD)

通过随机的方式从整个参与训练的数据集中选取一部分来参与模型的训练。只要随机选取的数据集大小合适,就不用担心计算损失函数的时间成本和模型训练的复杂度,而且与整个参与训练的数据集的大小没有关系。

θj=θj−η×∂Jstochastic(θj)∂θj\theta_{j}=\theta_{j}-\eta \times \frac{\partial J_{stochastic}\left(\theta_{j}\right)}{\partial \theta_{j}} θj​=θj​−η×∂θj​∂Jstochastic​(θj​)​

模型会受到随机训练数据集中噪声数据的影响,又因为有随机的因素,所以也容易导致模型最终得到局部最优解。

(4)自适应时刻估计方法(Adaptive Moment Estimation,简称 Adam)

Adam 在模型训练优化的过程中通过让每个参数获得自适应的学习率,来达到优化质量和速度的双重提升
例如:假设我们在一开始进行模型参数的训练时损失值比较大,则这时需要使用较大的学习速率让模型参数进行较大的梯度更新,但是到了后期我们的损失值已经趋近于最小了,这时就需要使用较小的学习速率让模型参数进行较小的梯度更新,以防止在优化过程中出现局部最优解。

Adam 收敛速度快、学习效果好的优点脱不了干系,而且对于在优化过程中出现的学习速率消失、收敛过慢、高方差的参数更新等导致损失值波动等问题,Adam 都有很好的解决方案。

2.4 激活函数

没有激活函数的单层神经网络模型:
f(x)=W⋅Xf(x) = W\cdot Xf(x)=W⋅X其中的大写字母代表矩阵或者张量。

加入偏置的单层神经网络模型:
f(x)=W⋅X+bf(x) = W\cdot X + bf(x)=W⋅X+b

加入激活函数的二层神经网络:
f(x)=max⁡(W2⋅max⁡(W1⋅X+b1,0)+b2,0)f(x)=\max \left(W_{2} \cdot \max \left(W_{1} \cdot X+b_{1}, 0\right)+b_{2}, 0\right) f(x)=max(W2​⋅max(W1​⋅X+b1​,0)+b2​,0)激活条件是比较 0 和输入值中的最大值。

三层神经网络模型,并且每层的神经输出都使用同样的激活函数:
f(x)=max⁡(W3⋅max⁡(W2⋅max⁡(W1⋅X+b1,0)+b2,0)+b3,0)f(x)=\max \left(W_{3} \cdot \max \left(W_{2} \cdot \max \left(W_{1} \cdot X+b_{1}, 0\right)+b_{2}, 0\right)+b_{3}, 0\right) f(x)=max(W3​⋅max(W2​⋅max(W1​⋅X+b1​,0)+b2​,0)+b3​,0)

如果没有激活函数,而我们只是一味地加深模型层次,则搭建出来的神经网络数学表示如下:
f(x)=W3⋅(W2⋅(W1⋅X+b1)+b2)+b3f(x)=W_{3} \cdot\left(W_{2} \cdot\left(W_{1} \cdot X+b_{1}\right)+b_{2}\right)+b_{3} f(x)=W3​⋅(W2​⋅(W1​⋅X+b1​)+b2​)+b3​

可以看出,上面的模型仍然是一个线性模型,如果不引入激活函数,则无论我们加深多少层,其结果都一样,线性模型在应对非线性问题时会存在很大的局限性。激活函数的引入给我们搭建的模型带来了非线性因素。

2.4.1 Sigmoid

f(x)=11+e−xf(x)=\frac{1}{1+e^{-x}} f(x)=1+e−x1​

缺点:

  • 使用 Sigmoid 作为激活函数会导致模型的梯度消失,因为Sigmoid 导数的取值区间为 0~0.25。在后向传播的过程中每逆向经过一个节点,梯度值的大小就会变成原来的四分之一,如果模型层次达到了一定深度,那么后向传播会导致梯度值越来越小,直到梯度消失。
  • Sigmoid 函数的输出值恒大于 0,这会导致模型在优化的过程中收敛速度变慢,会增加时间成本。因此,在选取参与模型中相关计算的数据时,要尽量使用零中心(Zero-Centered)数据;而且要尽量保证计算得到的输出结果是零中心数据。

2.4.2 tanh

f(x)=ex−e−xex+e−xf(x)=\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}} f(x)=ex+e−xex−e−x​

tanh 函数的输出结果是零中心数据,所以解决了激活函数在模型优化过程中收敛速度变慢的问题。而 tanh 函数的导数取值区间为 0~1,仍然不够大,所以,在深度神经网络模型的后向传播过程中仍有可能出现梯度消失的情况。

2.4.3 ReLU(Rectified Linear Unit,修正线性单元)

是目前在深度神经网络模型中使用率最高的激活函数:
f(x)=max(0,x)f(x) = max(0, x)f(x)=max(0,x)

ReLU 函数的收敛速度非常快,其计算效率远远高于 Sigmoid 和 tanh。

缺点是ReLU 的输出并不是零中心数据,这可能会导致某些神经元永远不会被激活,并且这些神经元相对应的参数不能被更新。这一般是由于模型参数在初始化时使用了全正或者全负的值,或者在后向传播过程中设置的学习速率太快导致的。
其解决方法是对模型参数使用更高级的初始化方法如Xavier,以及设置合理的后向传播学习速率,推荐使用自适应的算法如 Adam。

3 卷积神经网络(Convolutional Neural Networks,简称 CNN)

一个标准的卷积神经网络架构主要由卷积层、池化层和全连接层等核心层次构成。

3.1 基础知识

3.1.1 卷积层(Convolution Layer)

主要作用是对输入的数据进行特征提取,而完成该功能的是卷积层中的卷积核(Filter)。我们可以将卷积核看作一个指定窗口大小的扫描器,扫描器通过一次又一次地扫描输入的数据,来提取数据中的特征。如果我们输入的是图像数据,那么在通过卷积核的处理后,就可以识别出图像中的重要特征了。

在卷积层中是如何定义这个卷积核?
输入图像:高度×宽度×深度 = 32×32×3,3指图像具有 R、G、B 三个色彩通道。
卷积核:高度×宽度×深度 = 5×5×3,深度要保证与输入图像的色彩通道一致。
如果输入图像是单色彩通道的,那么卷积核的深度就是 1。

−8 = 0×4 + 0×0 + 0×0 + 0×0 + 1×0 + 1×0 + 0×0 + 1×0 + 2×(−4)

下面,根据我们定义的卷积核步长对卷积核窗口进行滑动。卷积核的步长其实就是卷积核窗口每次滑动经过的图像上的像素点数量。
用于提升卷积效果的边界像素填充方式:Valid 方式就是直接对输入图像进行卷积,不对输入图像进行任何前期处理和像素填充,这种方式的缺点是可能会导致图像中的部分像素点不能被滑动窗口捕捉;Same 方式是在输入图像的最外层加上指定层数的值全为 0 的像素边界,这样做是为了让输入图像的全部像素都能被滑动窗口捕捉。

卷积通用公式:用于计算输入图像经过一轮卷积操作后的输出图像的宽度和高度的参数
Woutput =Winput −Wfilter +2PS+1Houtput =Hinput −Hfilter +2PS+1\begin{gathered} W_{\text {output }}=\frac{W_{\text {input }}-W_{\text {filter }}+2 P}{S}+1 \\ H_{\text {output }}=\frac{H_{\text {input }}-H_{\text {filter }}+2 P}{S}+1 \end{gathered} Woutput ​=SWinput ​−Wfilter ​+2P​+1Houtput ​=SHinput ​−Hfilter ​+2P​+1​

  • W 和 H 分别表示图像的宽度(Weight)和高度(Height)的值
  • 下标input、output、filter分别表示输入特征图、输出特征图、滑动窗口的相关参数
  • S 表示卷积核的步长
  • P (是 Padding 的缩写)表示在图像边缘增加的边界像素层数,如果图像边界像素填充方式选择的是 Same 模式,那么 P 的值就等于图像增加的边界层数;如果选择的是 Valid 模式,那么 P = 0

举例:三个色彩通道的输入图像的卷积过程

3.1.2 池化层

一种提取输入数据的核心特征的方式,不仅实现了对原始数据的压缩,还大量减少了参与模型计算的参数,从某种意义上提升了计算效率。其中,最常被用到的池化层方法是平均池化层和最大池化层,池化层处理的输入数据在一般情况下是经过卷积操作之后生成的特征图。

池化层也需要定义一个类似卷积层中卷积核的滑动窗口,但是这个滑动窗口仅用来提取特征图中的重要特征,本身并没有参数。下面是平均池化层和最大池化层。


上面两张图是对单层特征图进行的操作,并且滑动窗口的步长为 2。高度×宽度是 2×2,滑动窗口的深度和特征图的深度保持一致。

池化通用公式:计算输入的特征图经过一轮池化操作后输出的特征图的宽度和高度
Woutput =Winput −Wfilter S+1Houtput =Hinput −Hfilter S+1\begin{aligned} &W_{\text {output }}=\frac{W_{\text {input }}-W_{\text {filter }}}{S}+1 \\ &H_{\text {output }}=\frac{H_{\text {input }}-H_{\text {filter }}}{S}+1 \end{aligned} ​Woutput ​=SWinput ​−Wfilter ​​+1Houtput ​=SHinput ​−Hfilter ​​+1​
池化层不仅能够最大限度地提取输入的特征图的核心特征,还能够对输入的特征图进行压缩。

值得一提的是,当时使用Pooling(池化)操作时,是为了简化计算,但是现在的计算量足够,为了避免丢失信息。因此现在的学术界已经倾向于不用Pooling了。

3.1.3 全连接层

全连接层的主要作用是将输入图像在经过卷积和池化操作后提取的特征进行压缩,并且根据压缩的特征完成模型的分类功能。

  • 前面通过卷积层和池化层提取的输入图像的核心特征,与全连接层中定义的权重参数相乘
  • 最后被压缩成仅有的 10 个输出参数(已经是一个分类的结果)
  • 再经过激活函数的进一步处理,就能让我们的分类预测结果更明显
  • 将 10 个参数输入到 Softmax 激活函数中,激活函数的输出结果就是模型预测的输入图像对应各个类别的可能性值。

3.2 模型实例

3.2.1 LeNet 模型

  • C1、C3、C5是卷积层
  • S2、S4是下采样层,下采样要完成的功能是缩减输入的特征图的大小,这里都使用了最大池化层来进行下采样
  • F6是全连接层

3.2.2 AlexNet 模型


Conv是卷积层、MaxPool是最大池化层、FC是全连接层

3.2.3 VGGNet 模型

相对 AlexNet 而言,在 VGGNet 模型中统一了卷积中使用的参数,比如卷积核滑动窗口的高度和宽度统一为 3×3,卷积核步长统一为 1,Padding 统一为 1,等等;而且增加了卷积神经网络模型架构的深度,分别定义了 16 层的 VGG16 模型和 19 层的 VGG19 模型,与 AlexNet 的 8 层结构相比,深度更深。

这两个重要的改变对于人们重新定义卷积神经网络模型架构也有不小的帮助,至少证明使用更小的卷积核并且增加卷积神经网络的深度,可以更有效地提升模型的性能。

3.2.4 GoogleNet

与 VGGNet 模型相比较,GoogleNet 模型的网络深度已经达到了 22 层,而且在网络架构中引入了 Inception 单元。这两个重要的改变证明,通过使用 Inception 单元构造的深层次卷积神经网络模型,能进一步提升模型整体的性能。

(1)Naive Inception 单元的结构:

前一层(Previous Layer)是 Naive Inception 单元的数据输入层,之后被分成了 4 个部分,这 4 个部分分别对应滑动窗口的高度和宽度为 1×1 的卷积层、3×3 的卷积层、5×5 的卷积层和 3×3 的最大池化层,然后将各层计算的结果汇聚至合并层(Filter Concatenation),在完成合并后将结果输出。

【实例:】
输入一个32×32×256的特征图,该特征图先被复制成 4 份并分别被传至接下来的 4 个部分(设这 4 个部分对应的滑动窗口的步长均为 1),其中:

  • 1×1 卷积层的 Padding 为 0,滑动窗口维度为 1×1×256,要求输出的特征图深度为 128
  • 3×3 卷积层的 Padding 为 1,滑动窗口维度为 3×3×256,要求输出的特征图深度为 192
  • 5×5 卷积层的 Padding 为 2,滑动窗口维度为 5×5×256,要求输出的特征图深度为 96
  • 3×3 最大池化层的 Padding 为 1,滑动窗口维度为 3×3×256。

之后通过计算,分别得到这 4 部分输出的特征图为 32×32×128、32×32×192、32×32×96 和 32×32×256,最后在合并层进行合并(相加),得到32×32×672 的特征图。

缺点:

  • 所有卷积层直接和前一层输入的数据对接,所以卷积层中的计算量会很大
  • 在这个单元中使用的最大池化层保留了输入数据的特征图的深度,所以在最后进行合并时,总的输出的特征图的深度只会增加,这样增加了该单元之后的网络结构的计算量。

(2)GoogleNet 模型中的 Inception 单元结构

NIN(Network in Network)中 1×1 卷积层的作用:能够完成特征图通道的聚合或发散。
【举例说明:】
现在有一个维度为 50×50×100 的特征图,将之输入 1×1 的卷积层中,卷积核的滑动窗口维度为 1×1×100。
特征图通道的聚合:如果我们想要输出一个深度为 90 的特征图,则卷积 90 次,就变成了维度为 50×50×90的特征图。
特征图通道的发散:如果我们想要输出一个深度为 100 的特征图,则卷积 100 次,就变成了维度为 50×50×100的特征图。

通过 1×1 卷积层来控制特征图最后输出的深度,从而间接影响了与其相关联的层的卷积参数数量。
比如将一个 32×32×10 的特征图输入 3×3 的卷积层中,要求最后输出的特征图深度为 20,那么在这个过程中需要用到的卷积参数为 10×3×3×20 = 1800 个。
如果将 32×32×10 的特征图先输入 1×1 的卷积层中,使其变成 32×32×5 的特征图,再将其输入 3x3 的卷积层中,那么在这个过程中需要用到的卷积参数减少至 1×1×10×5 + 3×3×5×20 = 950 个。

总结:使用 1×1 的卷积层使卷积参数几乎减少了一半,极大提升了模型的性能。

GoogleNet 在 Naive Inception 单元的基础上对单元结构进行了改进:

GoogleNet 中的 Inception 单元与 Naive Inception 单元的结构相比,就是在上图的相应位置增加了 1×1 的卷积层。
假设新增加的 1×1 的卷积的输出深度为 64,步长为 1,Padding 为 0,其他卷积和池化的输出深度、步长都和之前在 Naive Inception 单元中定义的一样,前一层输入的数据仍然使用同之前一样的维度为 32×32×256 的特征图,通过计算,分别得到这 4 部分输出的特征图维度为 32×32×128、32×32×192、32×32×96 和 32×32×64,将其合并后得到维度为 32×32×480 的特征图,将这 4 部分输出的特征图进行相加,最后 Inception 单元输出的特征图维度是 32×32×480。
在输出的结果中,32×32×128、32×32×192、32×32×96 和之前的 Naive Inception 单元是一样的,但其实这三部分因为 1×1 卷积层的加入,总的卷积参数数量已经大大低于之前的 Naive Inception 单元,而且因为在最大池化层之前也加入了 1×1 的卷积层,所以最终输出的特征图的深度也降低了。

(3)GoogleNet 的网络架构

起始部分:

Local Response Normalization 是在模型中使用的局部响应归一化层。这个起始部分的输出结果作为Inception 单元堆叠部分的输入。

分类输出部分:

最后分类输出部分的输入数据来自 Inception 单元堆叠部分最后一个Inception 单元的合并输出,AveragePool 层对应模型中的平均池化层(Average pooling),FC 层对应模型中的全连接层,Softmax 对应模型最后进行分类使用的 Softmax 激活函数。

小结:在 GoogLeNet 模型中使用 Inception 单元,使卷积神经网络模型的搭建实
现了模块化,如果我们想要增加或者减少 GoogLeNet 模型的深度,则只需增添或者减少相应的 Inception 单元就可以了,非常方便。另外,为了避免出现深层次模型中的梯度消失问题,在 GoogLeNet 模型结构中还增加了两个额外的辅助 Softmax 激活函数,用于向前传导梯度。

更详细的讲解可以参考这里。

3.2.5 ResNet

ResNet 模型中引入了一种残差网络(Residual Network)结构,通过使用残差网络结构,深层次的卷积神经网络模型不仅避免了出现模型性能退化的问题,反而取得了更好的性能。下面是一个具有 34 层网络结构的 ResNet 模型:

虽然 ResNet 模型的深度达到了 34 层,但是其实在 ResNet 模型中大部分结构都是残差网络结构,所以同样具备了模块化的性质。

在 ResNet 模型中大量使用了一些相同的模块来搭建深度更深的网络,却没有出现梯度消失、极易过拟合等模型性能退化的问题,其中一个非常关键的因素就是模型累加的模块并非简单的单输入单输出的结构,而是一种设置了附加关系(恒等映射:Identity Mapping)的新结构(残差网络结构)

【没有设置附加关系的单输入单输出模块:】

【设置附加的恒等映射关系的残差网络结构:】

上面两个结构唯一不同的是残差模块的最终输出结果 = 输入数据 X 经过两个卷积之后的输出 F(X) + 输入数据的恒等映射。
这个简单的加法并不会给整个 ResNet 模型增加额外的参数和计算量,却能加快模型的训练速度,提升模型的训练效果;另外,在我们搭建的 ResNet 模型的深度加深时,使用残差模块的网络结构不仅不会出现模型退化问题,性能反而有所提升。
这里需要注意附加的恒等映射关系的两种不同的使用情况,残差模块的输入数据若和输出结果的维度一致,则直接相加;若维度不一致,则先进行线性投影,在得到一致的维度后,再进行相加或者对维度不一致的部分使用 0 填充。

【让网络结构更深的残差模块:】

在之前的残差模块的基础上引入了 NIN,使用 1×1 的卷积层来减少模型训练的参数量,同时减少整个模型的计算量,使得拓展更深的模型结构成为可能。于是出现了拥有 50层、101 层、152 层的 ResNet 模型,这不仅没有出现模型性能退化的问题,而且错误率和计算复杂度都保持在很低的程度。

4 深度学习框架(Deep Learning Frameworks)

  • GPU单个核计算能力比CPU差,但是GPU的核是CPU的几百倍
  • GPU更适合并行计算(矩阵乘),CPU更适合串行计算
  • 深度学习中就是一层一层的矩阵乘法

TensorFlow、Caffe、PyTorch都是在cuDNN的基础上的框架

  • TensorFlow是静态的,首先会用一大段代码定义计算图的样子,然后给新的数据(只能在同一个计算图上运行)

  • TensorFlow构建好的图是不变的,只是在同一张图上跑不同的数据

  • TensorFlow支持分布式的GPU,更方便企业

  • PyTorch是动态的,每个数据可以有自己不同的地方

  • PyTorch的网络结构可以依赖于数据

5 PyTorch介绍

主要是下面这三个部分。

5.1 Tensor

张量,多维数组,相当于numpy中的ndarray,不过Tensor可以在GPU上跑。

5.2 Variable

可以记住每一个Tensor在计算图中的位置,可以计算出当前Variable和之前的Variable在逻辑上的关系。

记住当前变量是依赖于哪一些变量,是怎样依赖的,这样,就可以用一句loss.backward()来求导。

所以不用Variable是不能求导的,必须将感兴趣的变量用 Variable 初始化封装一下,才可以自动求导,不过有一些变量我们对它们的导数不感兴趣,就可以用requires_grad=False取消求导。 一般对输入不感兴趣,对权重感兴趣。

前向传播:给一个值,算出输出;后向传播:给一个值,输出梯度。

5.3 Module

Variable之上,一个最顶层的抽象。对应神经网络中不同的层layer。

PyTorch中,nn这个库提供了Module,可以非常简洁地实现神经网络模型和损失函数的构造,直接调用即可。

optim这个包里面包含了很多常见的优化算法,权值更新时就调用optimizer.step()就可以更新模型中的所有参数**

深度学习计算机视觉理论基础(PyTorch)相关推荐

  1. 深度学习入门之PyTorch学习笔记:卷积神经网络

    深度学习入门之PyTorch学习笔记 绪论 1 深度学习介绍 2 深度学习框架 3 多层全连接网络 4 卷积神经网络 4.1 主要任务及起源 4.2 卷积神经网络的原理和结构 4.2.1 卷积层 1. ...

  2. 虎牙AI基础技术部招聘深度学习/计算机视觉实习生

    01 公司简介 虎牙公司是一家以游戏直播为核心业务.致力于打造全球领先直播平台的技术驱动型内容公司,旗下产品包括知名游戏直播平台虎牙直播.风靡东南亚和南美的游戏直播平台NimoTV等,产品覆盖PC.W ...

  3. 深度学习/计算机视觉学习资料

    深度学习/计算机视觉相关的博文/在线图书等的汇总,主要是个人比较感兴趣的环境理解/视频理解方向的 目标检测 mmdetection系列 经典目标检测/实例分割算法原理简介和统一实现 https://z ...

  4. 深度学习计算机视觉学习路线

    文章目录 前言 一.机器学习及OpenCV学习路线 二.深度学习学习路线 总结 前言 对于深度学习的学习从模模糊糊的入坑,恍惚间已过半年,从开始对人工智能的新奇,到现在已经完全磨灭了当初的幻想.好啦不 ...

  5. 深度学习(计算机视觉方向)小白入门的一些建议

    点击上方"视学算法",选择"星标" 快速获得最新干货 作者:大连海事大学计算机硕士:阿小博Dennis https://zhuanlan.zhihu.com/p ...

  6. Python深度学习:基于PyTorch [Deep Learning with Python and PyTorch]

    作者:吴茂贵,郁明敏,杨本法,李涛,张粤磊 著 出版社:机械工业出版社 品牌:机工出版 出版时间:2019-11-01 Python深度学习:基于PyTorch [Deep Learning with ...

  7. 干货|《深度学习入门之Pytorch》资料下载

    深度学习如今已经成为了科技领域中炙手可热的技术,而很多机器学习框架也成为了研究者和业界开发者的新宠,从早期的学术框架Caffe.Theano到如今的Pytorch.TensorFlow,但是当时间线来 ...

  8. 深度学习计算机视觉常见的29道面试题及解析

    点击上方,选择星标或置顶,不定期资源大放送! 阅读大概需要15分钟 Follow小博主,每天更新前沿干货 作者丨我要鼓励娜扎@知乎 来源丨https://zhuanlan.zhihu.com/p/89 ...

  9. 从2019 AI顶会最佳论文,看深度学习的理论基础

    2020-01-27 13:15:38 如果能有一种理论告诉我们什么样的模型架构.运算方式能最好地表示某种数据,什么样的损失函数.迭代方式能最高效地学习到某种能力,什么样的设置又使这种能力能处理各种意 ...

最新文章

  1. 微软,您的.net为中国程序员带来了什么?
  2. 完全解读ping命令应用方法
  3. 登录抓包逆向分析学习笔记
  4. Segment公司--整合数据进行分析
  5. vlookup使用步骤_使用vlookup出错,看看原因多为这几个!快来看看!
  6. WEB2.0 XHTML代码规范
  7. les有学计算机的吗,拷问LES大涡模拟
  8. Python词频统计(去重)
  9. 操作系统答案 第四版
  10. android控制电脑,安卓手机远程控制电脑教程详解
  11. 龙芯3a4000 交叉编译链接错误
  12. php linux 一键部署工具,Linux一键配置工具ezhttp介绍
  13. 密码框password调用数字键盘
  14. Windows10无法启动防火墙
  15. 用python-sklearn做广州房价预测——以此为例说明如何使用python做简单的数据分析
  16. Win7系统禁用驱动程序强制签名的方法(win7 64加载未签名驱动 免签名)
  17. python基础(大数据)[完结]
  18. 感觉人生很艰难,怎么办?
  19. java SNS网络系统_JEESNS-JAVA开源SNS社交管理系统
  20. 【 win10多用户登录 】win10环境下实现非企业版多用户登录

热门文章

  1. uni-app页面生命与vue生命周期
  2. LAN端口和WAN端口的区别
  3. ADRC(自抗扰控制器)技术附Matlab代码框架
  4. Python一行代码能干什么
  5. Dijit、ExtJS、jQuery UI 异同浅析
  6. 恢复删除陌陌聊天记录方法
  7. Linux与Shell学习--shell系列11--流程控制4(until循环)
  8. ES6中对象的扩展(一)
  9. R-C3D—基于区域卷积3D网络的时序行为检测
  10. 图片去雾怎么去除?这几个去雾方法值得你试试