卷积层(convolutional layer)

1.卷积核(convolutional kernel)

卷积层的功能是对输入数据进行特征提取,其内部包含多个卷积核,组成卷积核的每个元素都对应一个权重系数和一个偏差量(bias vector),类似于一个前馈神经网络的神经元(neuron)。

卷积层内每个神经元都与前一层中位置接近的区域的多个神经元相连,区域的大小取决于卷积核的大小,在文献中被称为“感受野(receptive field)”,其含义可类比视觉皮层细胞的感受野 。卷积核在工作时,会有规律地扫过输入特征,在感受野内对输入特征做矩阵元素乘法求和并叠加偏差量

什么是卷积操作呢?具体的步骤如下:
1.在图像的某个位置上覆盖滤波器;
2.将滤波器中的值与图像中的对应像素的值相乘;
3.把上面的乘积加起来,得到的和是输出图像中目标像素的值;
4.对图像的所有位置重复此操作。

这个3x3滤波器,通常称为垂直索伯滤波器(Sobel filter):

用它来处理知名的Lena照片会得到什么:

由此,我们可以看出,索伯滤波器是是边缘检测器
现在可以解释卷积操作的用处了:用输出图像中更亮的像素表示原始图像中存在的边缘。

2. 卷积层参数

卷积层参数包括卷积核大小、步长和填充,三者共同决定了卷积层输出特征图的尺寸,是卷积神经网络的超参数 。其中卷积核大小可以指定为小于输入图像尺寸的任意值,卷积核越大,可提取的输入特征越复杂

卷积步长定义了卷积核相邻两次扫过特征图时位置的距离,卷积步长为1时,卷积核会逐个扫过特征图的元素,步长为n时会在下一次扫描跳过n-1个像素

由卷积核的交叉相关计算可知,随着卷积层的堆叠,特征图的尺寸会逐步减小,例如16×16的输入图像在经过单位步长、无填充的5×5的卷积核后,会输出12×12的特征图。为此,填充是在特征图通过卷积核之前人为增大其尺寸以抵消计算中尺寸收缩影响的方法。常见的填充方法为按0填充和重复边界值填充(replication padding)。填充依据其层数和目的可分为四类 :

有效填充(valid padding):即完全不使用填充,卷积核只允许访问特征图中包含完整感受野的位置。输出的所有像素都是输入中相同数量像素的函数。使用有效填充的卷积被称为“窄卷积(narrow convolution)”,窄卷积输出的特征图尺寸为(L-f)/s+1。

相同填充/半填充(same/half padding):只进行足够的填充来保持输出和输入的特征图尺寸相同。相同填充下特征图的尺寸不会缩减但输入像素中靠近边界的部分相比于中间部分对于特征图的影响更小,即存在边界像素的欠表达。使用相同填充的卷积被称为“等长卷积(equal-width convolution)”。

全填充(full padding):进行足够多的填充使得每个像素在每个方向上被访问的次数相同。步长为1时,全填充输出的特征图尺寸为L+f-1,大于输入值。使用全填充的卷积被称为“宽卷积(wide convolution)”

任意填充(arbitrary padding):介于有效填充和全填充之间,人为设定的填充,较少使用。

带入先前的例子,若16×16的输入图像在经过单位步长的5×5的卷积核之前先进行相同填充,则会在水平和垂直方向填充两层,即两侧各增加2个像素( )变为20×20大小的图像,通过卷积核后,输出的特征图尺寸为16×16,保持了原本的尺寸。

3. 激励函数(activation function)

卷积层中包含激励函数以协助表达复杂特征,其表示形式如下 :

类似于其它深度学习算法,卷积神经网络通常使用线性整流函数(Rectified Linear Unit, ReLU)。
其它类似ReLU的变体包括有斜率的ReLU(Leaky ReLU, LReLU)、
参数化的ReLU(Parametric ReLU, PReLU)、
随机化的ReLU(Randomized ReLU, RReLU)、
指数线性单元(Exponential Linear Unit, ELU)等 。

在ReLU出现以前,Sigmoid函数和双曲正切函数(hyperbolic tangent)也有被使用。

激励函数操作通常在卷积核之后,一些使用预激活(preactivation)技术的算法将激励函数置于卷积核之前 。在一些早期的卷积神经网络研究,例如LeNet-5中,激励函数在池化层之后 。

卷积神经网络概述-卷积层相关推荐

  1. 【卷积神经网络】卷积层,池化层,全连接层

    转于:<入门PyTorch> 卷积层是卷积神经网络的核心, 大多数计算都是在卷积层中进行的. 1 卷积层 1.1 概述 首先介绍卷积神经网络的参数. 这些参数是由一些可学习的滤波器集合构成 ...

  2. 深入学习卷积神经网络中卷积层和池化层的意义(转)

    为什么要使用卷积呢? 在传统的神经网络中,比如多层感知机(MLP),其输入通常是一个特征向量:需要人工设计特征,然后将这些特征计算的值组成特征向量,在过去几十年的经验来看,人工找到的特征并不是怎么好用 ...

  3. 卷积神经网络—全连接层

    卷积神经网络-全连接层 全连接层 全连接层与卷积层 全连接层与GAP(全局平均池化层) [1] https://blog.csdn.net/Touch_Dream/article/details/79 ...

  4. 深入学习卷积神经网络中卷积层和池化层的意义

    为什么要使用卷积呢? 在传统的神经网络中,比如多层感知机(MLP),其输入通常是一个特征向量:需要人工设计特征,然后将这些特征计算的值组成特征向量,在过去几十年的经验来看,人工找到的特征并不是怎么好用 ...

  5. 对卷积神经网络中卷积层、激活层、池化层、全连接层的理解

    文章目录 卷积神经网络 输入层 卷积层 激励层 池化层 全连接层 卷积神经网络 举一个卷积神经网络识别汽车的例子如下: 其中数据输入的是一张图片(输入层),CONV表示卷积层,RELU表示激励层,PO ...

  6. 【卷积神经网络】卷积神经网络(Convolutional Neural Networks, CNN)基础

    卷积神经网络(Convolutional Neural Networks, CNN),是一种 针对图像 的特殊的 神经网络. 卷积神经网络概述 Why not DNN? 图像数据的维数很高,比如 1, ...

  7. 人脸检测卷积神经网络_卷积神经网络和计算机视觉的人脸面具检测算法

    人脸检测卷积神经网络 In this article, we explore an application of Computer Vision that is largely relevant to ...

  8. 卷积神经网络之卷积计算、作用与思想 深度学习

    博客:blog.shinelee.me | 博客园 | CSDN 卷积运算与相关运算 在计算机视觉领域,卷积核.滤波器通常为较小尺寸的矩阵,比如3×33×3.从这个角度看,多层卷积是在进行逐层映射,整 ...

  9. 【数据挖掘】卷积神经网络 ( 视觉原理 | CNN 模仿视觉 | 卷积神经网络简介 | 卷积神经网络组成 | 整体工作流程 | 卷积计算图示 | 卷积计算简介 | 卷积计算示例 | 卷积计算参数 )

    文章目录 I . 人类的视觉原理 II . 卷积神经网络 模仿 视觉原理 III . 卷积神经网络简介 IV . 卷积神经网络 组成 V . 卷积神经网络 工作流程 VI . 降低样本参数数量级 VI ...

最新文章

  1. 电路非门_【连载】电路和维修基础之门电路、转换器
  2. 微软亚洲研究院多媒体计算组招聘计算机视觉算法实习生
  3. 华为UPS“内外”兼修
  4. 分布式系统架构设计系列文章
  5. 「CF622F」The Sum of the k-th Powers「拉格朗日插值」
  6. shiro原理_java:shiro高级篇——1
  7. Angular2中的路由(简单总结)
  8. AngularDart4.0 指南- 表单
  9. 【精华】掌握Qt调试技术
  10. 控制器(下) -运维笔记
  11. VScode使用element-ui插件准备
  12. 7种网络摄像机的设计方案,包含软硬件设计
  13. Java字符串基础语法
  14. 正确进入Iphone DFU模式
  15. 什么是位移电流?位移电流密度计算公式详解
  16. 开发中使用到的sql总结
  17. 几何光学学习笔记(10)- 3.4 理想光学系统的放大率
  18. 文献管理软件 Endnote 简易上手
  19. win10删除.x文件的在“你要如何打开这个文件”的某个无效应用
  20. 《Python编程 从入门到实践》简单读书笔记

热门文章

  1. ts服务器显示黑名单,GStreamer上“黑名单”的含义是什么?
  2. LCD驱动之接口分析(一)
  3. ArcGIS 导入ArcPY脚本,要用cp936编码
  4. c语言字符串数组函数参数,C语言/C++ 数组作为函数参数
  5. 数组作为函数参数使用方法总结
  6. 记录一段js代码匹配JSON的值
  7. 前端网页技术之 Vue
  8. WINDOWS2003的管理员Administrators的密码忘记,怎样去掉密码.
  9. qt在linux操作wps,Qt实现Excel表格的读写操作(office,WPS)
  10. 005+limou+HTML——(5)HTML图片和HTML超链接