目录

1)Computer vision

2)Edge detection example(理解)

3)More edge detection

4)Padding(重点)

5)Strided convolutions(重点)

6)Convolutions over volumes

7)One layer of a convolutional network(重点)

8)A simple convolution network example

9)Pooling layers(理解)

10)Convolutional neural network example

11)Why concolutions?


以下笔记是吴恩达老师深度学习课程第四门课第一周的的学习笔记:Foundations of Convolutional Neural Networks。笔记参考了黄海广博士的内容,在此表示感谢。


1)Computer vision

计算机视觉(Computer Vision)的高速发展标志着新型应用产生的可能,例如自动驾驶、人脸识别、创造新的艺术风格。人们对于计算机视觉的研究也催生了很多机算机视觉与其他领域的交叉成果。一般的计算机视觉问题包括以下几类:

  • 图片分类(Image Classification)
  • 目标检测(Object detection)
  • 神经风格转换(Neural Style Transfer)

应用计算机视觉时要面临的一个挑战是数据的维度可能会非常大。例如一张 1000x1000x3 的图片,神经网络输入层的维度将高达三百万,使得网络权重 W 非常庞大。这样会造成两个后果:

  1. 神经网络结构复杂,数据量相对较少,容易出现过拟合
  2. 所需内存和计算量巨大

因此,一般的神经网络很难处理蕴含着大量数据的图像。解决这一问题的方法就是使用卷积神经网络(Convolutional Neural Network, CNN)。


2)Edge detection example(理解)

最常见的边缘检测有两类:垂直边缘(Vertical Edges)检测水平边缘(Horizontal Edges)检测

图片的边缘检测可以通过与相应滤波器进行卷积来实现。以垂直边缘检测为例,原始图片尺寸为 6x6,中间的矩阵被称作滤波器(filter),尺寸为 3x3,卷积后得到的图片尺寸为 4x4,得到结果如下(数值表示灰度,以左上角和右下角的值为例):

可以看到,卷积运算的求解过程是从左到右,由上到下,每次在原始图片矩阵中取与滤波器同等大小的一部分,每一部分中的值与滤波器中的值对应相乘后求和,将结果组成一个矩阵。

下图对应一个垂直边缘检测的例子:

如果将最右边的矩阵当作图像,那么中间一段亮一些的区域对应最左边的图像中间的垂直边缘。

这里有另一个卷积运算的动态的例子,方便理解:

图中的*表示卷积运算符号。在计算机中这个符号表示一般的乘法,而在不同的深度学习框架中,卷积操作的 API 定义可能不同:

  • 在 Python 中,卷积用conv_forward()表示

  • 在 Tensorflow 中,卷积用tf.nn.conv2d()表示

  • 在 keras 中,卷积用Conv2D()表示。


3)More edge detection

如果将灰度图左右的颜色进行翻转,再与之前的滤波器进行卷积,得到的结果也有区别。实际应用中,这反映了由明变暗和由暗变明的两种渐变方式。可以对输出图片取绝对值操作,以得到同样的结果。

垂直边缘检测和水平边缘检测的滤波器如下所示:

其他常用的滤波器还有 Sobel 滤波器和 Scharr 滤波器。它们增加了中间行的权重,以提高结果的稳健性。

滤波器中的值还可以设置为参数,通过模型训练来得到。这样,神经网络使用反向传播算法可以学习到一些低级特征,从而实现对图片所有边缘特征的检测,而不仅限于垂直边缘和水平边缘。


4)Padding(重点)

假设输入图片的大小为 ,而滤波器的大小为 ,则卷积后的输出图片大小为

这样就有两个问题:

  • 每次卷积运算后,输出图片的尺寸缩小;

  • 原始图片的角落、边缘区像素点在输出中采用较少,输出图片丢失边缘位置的很多信息。

为了解决这些问题,可以在进行卷积操作前,对原始图片在边界上进行填充(Padding),以增加矩阵的大小。通常将 0 作为填充值。

设每个方向扩展像素点数量为,则填充后原始图片的大小为 ,滤波器大小保持 不变,则输出图片大小为

因此,在进行卷积运算时,我们有两种选择:

  • Valid 卷积:不填充,直接卷积。结果大小为

  • Same 卷积:进行填充,并使得卷积后结果大小与输入一致,这样

在计算机视觉领域,通常为奇数。原因包括 Same 卷积中 能得到自然数结果,并且滤波器有一个便于表示其所在位置的中心点。


5)Strided convolutions(重点)

卷积过程中,有时需要通过填充来避免信息损失,有时也需要通过设置步长(Stride)来压缩一部分信息。

步长表示滤波器在原始图片的水平方向和垂直方向上每次移动的距离。之前,步长被默认为 1。而如果我们设置步长为 2,则卷积过程如下图所示:

设步长为,填充长度为,输入图片大小为 ,滤波器大小为 ,则卷积后图片的尺寸为:

注意公式中有一个向下取整的符号,用于处理商不为整数的情况。向下取整反映着当取原始矩阵的图示蓝框完全包括在图像内部时,才对它进行运算。

目前为止我们学习的“卷积”实际上被称为互相关(cross-correlation),而非数学意义上的卷积。真正的卷积操作在做元素乘积求和之前,要将滤波器沿水平和垂直轴翻转(相当于旋转 180 度)。因为这种翻转对一般为水平或垂直对称的滤波器影响不大,按照机器学习的惯例,我们通常不进行翻转操作,在简化代码的同时使神经网络能够正常工作。


6)Convolutions over volumes

如果我们想要对三通道的 RGB 图片进行卷积运算,那么其对应的滤波器组也同样是三通道的。过程是将每个单通道(R,G,B)与对应的滤波器进行卷积运算求和,然后再将三个通道的和相加,将 27 个乘积的和作为输出图片的一个像素值。

不同通道的滤波器可以不相同。例如只检测 R 通道的垂直边缘,G 通道和 B 通道不进行边缘检测,则 G 通道和 B 通道的滤波器全部置零。当输入有特定的高、宽和通道数时,滤波器可以有不同的高和宽,但通道数必须和输入一致。

如果想同时检测垂直和水平边缘,或者更多的边缘检测,可以增加更多的滤波器组。例如设置第一个滤波器组实现垂直边缘检测,第二个滤波器组实现水平边缘检测。设输入图片的尺寸为 为通道数),滤波器尺寸为,则卷积后的输出图片尺寸为为滤波器组的个数。


7)One layer of a convolutional network(重点)

卷积神经网络的单层结构如下所示:

与之前的卷积过程相比较,卷积神经网络的单层结构多了激活函数和偏移量,计算过程如下:

对于一个 3x3x3 的滤波器,包括偏移量 在内共有 28 个参数。不论输入的图片有多大,用这一个滤波器来提取特征时,参数始终都是 28 个,固定不变。即选定滤波器组后,参数的数目与输入图片的尺寸无关。因此,卷积神经网络的参数相较于标准神经网络来说要少得多。这是 CNN 的优点之一。

符号总结

层为卷积层:

  • 滤波器的高(或宽)

  • 填充长度

  • 步长

  • 滤波器组的数量

  • 输入维度 。其中表示输入图片的高,表示输入图片的宽。之前的示例中输入图片的高和宽都相同,但是实际中也可能不同,因此加上下标予以区分。

  • 输出维度。其中

  • 每个滤波器组的维度。其中 为输入图片通道数(也称深度)。

  • 权重维度

  • 偏置维度

由于深度学习的相关文献并未对卷积标示法达成一致,因此不同的资料关于高度、宽度和通道数的顺序可能不同。有些作者会将通道数放在首位,需要根据标示自行分辨。


8)A simple convolution network example

一个简单的 CNN 模型如下图所示:

其中,的维度为 7x7x40,将 1960 个特征平滑展开成 1960 个单元的一列,然后连接最后一级的输出层。输出层可以是一个神经元,即二元分类(logistic);也可以是多个神经元,即多元分类(softmax)。最后得到预测输出

随着神经网络计算深度不断加深,图片的高度和宽度一般逐渐减小,而 在增加。

一个典型的卷积神经网络通常包含有三种层:卷积层(Convolution layer)池化层(Pooling layer)全连接层(Fully Connected layer)。仅用卷积层也有可能构建出很好的神经网络,但大部分神经网络还是会添加池化层和全连接层,它们更容易设计。


9)Pooling layers(理解)

池化层的作用是缩减模型的大小,提高计算速度,同时减小噪声提高所提取特征的稳健性。

采用较多的一种池化过程叫做最大池化(Max Pooling)。将输入拆分成不同的区域,输出的每个元素都是对应区域中元素的最大值,如下图所示:

池化过程类似于卷积过程,上图所示的池化过程中相当于使用了一个大小 的滤波器,且池化步长 。卷积过程中的几个计算大小的公式也都适用于池化过程。如果有多个通道,那么就对每个通道分别执行计算过程。

对最大池化的一种直观解释是,元素值较大可能意味着池化过程之前的卷积过程提取到了某些特定的特征,池化过程中的最大化操作使得只要在一个区域内提取到某个特征,它都会保留在最大池化的输出中。但是,没有足够的证据证明这种直观解释的正确性,而最大池化被使用的主要原因是它在很多实验中的效果都很好。

另一种池化过程是平均池化(Average Pooling),就是从取某个区域的最大值改为求这个区域的平均值:

池化过程的特点之一是,它有一组超参数,但是并没有参数需要学习。池化过程的超参数包括滤波器的大小、步长 ,以及选用最大池化还是平均池化。而填充 则很少用到。

池化过程的输入维度为:

输出维度为:


10)Convolutional neural network example

在计算神经网络的层数时,通常只统计具有权重和参数的层,因此池化层通常和之前的卷积层共同计为一层。

图中的 FC3 和 FC4 为全连接层,与标准的神经网络结构一致。整个神经网络各层的尺寸与参数如下表所示:

推荐一个直观感受卷积神经网络的网站。


11)Why concolutions?

相比标准神经网络,对于大量的输入数据,卷积过程有效地减少了 CNN 的参数数量,原因有以下两点:

  • 参数共享(Parameter sharing):特征检测如果适用于图片的某个区域,那么它也可能适用于图片的其他区域。即在卷积过程中,不管输入有多大,一个特征探测器(滤波器)就能对整个输入的某一特征进行探测。

  • 稀疏连接(Sparsity of connections):在每一层中,由于滤波器的尺寸限制,输入和输出之间的连接是稀疏的,每个输出值只取决于输入在局部的一小部分值。

池化过程则在卷积后很好地聚合了特征,通过降维来减少运算量。

由于 CNN 参数数量较小,所需的训练样本就相对较少,因此在一定程度上不容易发生过拟合现象。并且 CNN 比较擅长捕捉区域位置偏移。即进行物体检测时,不太受物体在图片中位置的影响,增加检测的准确性和系统的健壮性。


4.1)深度卷积网络:卷积神经网络基础相关推荐

  1. [人工智能-深度学习-14]:神经网络基础 - 常见loss损失函数之逻辑分类,对数函数,交叉熵函数

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  2. [人工智能-深度学习-9]:神经网络基础 - 常见loss损失函数之均分误差MSE、绝对值误差MAE、平滑平均绝对误差Huber

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  3. 动手学深度学习-12 循环神经网络基础

    循环神经网络基础 循环神经网络 从零开始实现循环神经网络 我们先尝试从零开始实现一个基于字符级循环神经网络的语言模型,这里我们使用周杰伦的歌词作为语料,首先我们读入数据: import torch i ...

  4. 深度学习1:神经网络基础前馈神经网络Feedforward Neural Network(基于Python MXNet.Gluon框架)

    目录 神经网络背景 常用的深度学习框架 机器学习的三个基本要素 模型 学习准则 损失函数 0-1损失函数 0-1 Loss Function 平方损失函数 Quadratic Loss Functio ...

  5. [人工智能-深度学习-5]:神经网络基础 - 生物神经系统与神经元细胞简介

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:[人工智能-深度学习-4]:生物神经系统与神经元细胞简介_文火冰糖(王文兵)的博客-CSDN博客 ...

  6. 吴恩达【神经网络和深度学习】Week2——神经网络基础

    文章目录 1.Logistic Regression as a Neural Network 1.1.Binary Classification 1.1.1.Introduction 1.1.2.No ...

  7. 第一课 神经网络与深度学习 第二周 神经网络基础(已完结(虽然有坑))

    视频地址 二分分类 怎么说,第一段话就颠覆了我的想象,遍历m个样本不需要用for循环 这里是介绍了图片的预处理,将图片切分为rgb三个颜色空间(这个我熟),然后将所有的分别将三幅单通道图片的所有像素排 ...

  8. 神经网络和深度学习-第二周神经网络基础-第四节:梯度下降法

    2019独角兽企业重金招聘Python工程师标准>>> 本系列博客是吴恩达(Andrew Ng)深度学习工程师 课程笔记.全部课程请查看吴恩达(Andrew Ng)深度学习工程师课程 ...

  9. [人工智能-深度学习-17]:神经网络基础 - 优化算法的本质是盲人探路或迷雾探险

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客 本文网址:https://blog.csdn.net/HiWangWenBing/article/detai ...

  10. 吴恩达Course1《神经网络与深度学习》week2:神经网络基础 测验及作业

    第二周测验 1. 神经元节点先计算线性函数(z = Wx + b),再计算激活.注:神经元的输出是 a = g(Wx + b),其中 g 是激活函数(sigmoid,tanh,ReLU,-) 2. 逻 ...

最新文章

  1. 【组队学习】【27期】Java编程语言
  2. 什么是nodejs呢?
  3. sass和less的优缺点
  4. 20145227《信息安全系统设计基础》第一周学习总结
  5. .NET 6新特性试用 | TryGetNonEnumeratedCount
  6. 博客文章列表(二)——算法、数据结构、数据库、ABCD
  7. 算法工程师面试题【集锦cv/ml/dl】
  8. 压力测试以及编译安装httpd2.4
  9. UVA11292 HDU1902 POJ3646 The Dragon of Loowater【贪心】
  10. 41. 流感传染(宽搜)
  11. C#winform程序窗口全屏是否遮盖任务栏问题
  12. 《Web漏洞防护》读书笔记——第5章,数据安全
  13. Visio2013 Professional专业版密钥
  14. win10开机出现任务栏卡死无反应,桌面点击正常,重启任务管理器无效
  15. c++设计某小型公司的 employee(人员)类
  16. 收费的Chemdraw跟不上时代潮流
  17. 2021年秋招面经分享·平头哥【芯片设计/验证/DFT工程师】
  18. 克服焦虑--图解JVM内存模型和JVM线程模型
  19. 大剖析:中国数万亿家装市场,为何出不了一个30亿美金的Houzz?
  20. OpenNURBS 3DM Viewer

热门文章

  1. 二维凸包 Graham's Scan
  2. PAT-1127. ZigZagging on a Tree (30)
  3. mq幂等mysql_膜拜!看完这篇你还不懂RocketMQ算我输
  4. python程序中想使用正则表达式_python中正则表达式的使用方法
  5. 韦东山 IMX6ULL和正点原子_GPIO和Pinctrl子系统的使用在100ASK_IMX6ULL上机实验
  6. WINCE驱动程序快速入门
  7. java载屁股针_以前常打的“屁股针”,为何现在很少见了?医生告诉你真实原因...
  8. 广义典型相关分析_重复测量数据分析及结果详解(之二)——广义估计方程
  9. LSGO软件技术团队2015~2016学年第十六周(1214~1220)总结
  10. 【转】Ubuntu 16.04 Nvidia驱动安装(run方式)