http://cs231n.github.io/convolutional-networks/#pool

卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,长期制霸计算机视觉领域。其核心主要是“卷积与池化”接下来我将介绍卷积神经网络进行特征提取的原理

1、基本概念

对比普通的神经网络,卷积神经网络包含了由 卷积层 和 池化层 构成的特征提取器。在卷积神经网络的卷积层中,一个神经元只与部分邻层神经元连接。而不会像神经网络一样全连接

在CNN的一个卷积层中,通常包含若干个特征平面(featureMap),每个特征平面由一些矩形排列的的神经元组成,同一特征平面的神经元共享权值,这里共享的权值就是卷积核。卷积核一般以随机小数矩阵的形式初始化,在网络的训练过程中卷积核将学习得到合理的权值。共享权值(卷积核)带来的直接好处是减少网络各层之间的连接,同时又降低了过拟合的风险。子采样也叫做池化(pooling),通常有均值子采样(mean pooling)和最大值子采样(max pooling)两种形式。子采样可以看作一种特殊的卷积过程。卷积和子采样大大简化了模型复杂度,减少了模型的参数。
网络结构主要包含以下层次

  • 输入层/input layer
  • 卷积层/conv layer
  • Relu激励层/Relu layer
  • 池化层/Pooling layer
  • 全连接层/FC layer
  • Batch normalization层(可能存在)/BN layer

1.1、卷积层

卷积层是构建卷积神经网络的核心层,它产生了网络中大部分的计算量。举例说明,我们人脑看一张图片的时候其实在背后有着不同的神经元共同工作使得我们的大脑得以理解的,每个神经元都不一样有的对方块敏感,有的对圆形敏感。我们就可以把这个神经元看做我们的滤波器 filter 也叫卷积核 kernel,在我们的卷积神经网络中就是通过这写 filter 进行图片识别的。

  • 局部连接 :在处理图像这样的高维度输入时,让每个神经元都与前一层中的所有神经元进行全连接是不现实的。所以那就让每个神经元与只其中一部分相连接。该连接的空间大小叫做神经元的感受野(receptivefield),它的尺寸是一个超参数(其实就是滤波器的空间尺寸)。在深度方向上,这个连接的大小总是和输入量的深度相等。
  • 深度:卷积之后输出数据体的深度是一个超参数,他和滤波器filter的数量一致,这也就是为什么与神经网络相比卷积网络变成立体的原因。
  • 步长:在滑动滤波器的时候,步长为每次滑动的像素,常用1和2,步长会导致输出的数据体在空间上变小。
  • 零填充:也就是padding 就是在输入数据体的边缘上使用0补充大小,使用零填充可以有效地控制输出数据体的尺寸。
  • 权重共享:每个神经元连接窗口的权重都是一样的,因为就像我之前所说每个神经元只负责提取特定的特征,只认识直线或者弧线等。否则的话由于图片转移成矩阵之后,很多参数在经过卷积之后就变得更庞大了,而且还只是一层,这也是为什么CNN训练会消耗很多资源的原因。

在前向传播的时候,让每个滤波器都在输入数据的宽度和高度上滑动(更精确地说是卷积),然后计算整个滤波器和输入数据任一处的内积。当滤波器沿着输入数据的宽度和高度滑过后,会生成一个2维的激活图(activation map),激活图给出了在每个空间位置处滤波器的反应。
可查看动态图

接下来给出卷积层超参数设置规律

  • 输入数据体大小为 W1×H1×D1W1×H1×D1W_1 × H_1 × D_1
  • 滤波器数量 K; 滤波器大小 F ;步长 S ;零填充 P
  • 输出数据体的尺寸为
    • W2=(W1−F+2P)/S+1W2=(W1−F+2P)/S+1W_2=(W_1-F+2P)/S+1
    • H2=(H1−F+2P)/S+1H2=(H1−F+2P)/S+1H_2=(H_1-F+2P)/S+1
    • D2=KD2=KD_2=K

1.2、池化层

在连续的卷积层之间用来压缩数据和参数的量,使得计算资源耗费变少,也能有效控制过拟合。

通常使用Max pooling 最大池化,当然也存在 average pooling 平均池化等其他池化方式

1.3、激励层

把卷积层输出结果做非线性映射

1.4、 全连接层 / FC layer

这里没什么说的,在全连接层中,神经元对于前一层中的所有激活数据是全部连接的,这个常规神经网络中一样。它们的激活可以先用矩阵乘法,再加上偏置。

1.5、 层级排列规律

  • INPUT 输入层
  • [[CONV -> RELU]*N -> POOL?]*M 多次卷积接一个池化层
  • [FC -> RELU]*K 全连接层
  • FC 全连接层输出其中

*指的是重复次数,POOL?指的是一个可选的汇聚层。其中N >=0,通常N<=3,M>=0,K>=0,通常K<3

2、应用场景

卷积神经网络因为其对图像的特征提取的特点被广泛应用

  • 被用于OCR文字识别领域,最简单的就是mnist手写体识别,本片末尾我将根据上篇神经网络为例,使用卷积神经网络重新建立模型进行手写体识别
  • 图片分类:Alex Krizhevsky等人2012年的文章“ImageNet classification with deep convolutional neural networks”对ImageNet的一个子数据集进行了分类。ImageNet一共包含1500万张有标记的高分辨率图像,包含22,000个种类。这些图像是从网络上搜集的并且由人工进行标记。从2010年开始,有一个ImageNet的图像识别竞赛叫做ILSVRC(ImageNet Large-Scale Visual Recognition Challenge)。 ILSVRC使用了ImageNet中的1000种图像,每一种大约包含1000个图像。总共有120万张训练图像,5万张验证图像(validation images)和15万张测试图像(testing images)。
  • 文本分类:卷积神经网络不仅可以识别图像,因为其独特的网络结构使得他也可以被应用于文本分类
  • AlphaGo:DeepMind所研究的AlphaGo使用了卷积神经网络来学习人类下棋的方法,最终取得了突破。AlphaGo在没有任何让子的情况下以5:0完胜欧洲冠军,职业围棋二段樊麾。研究者也让AlphaGo和其他的围棋AI进行了较量,在总计495局中只输了一局,胜率是99.8%。它甚至尝试了让4子对阵Crazy Stone,Zen和Pachi三个先进的AI,胜率分别是77%,86%和99%。

3、代码实现

仍然使用mnist手写体作为例子(tensorflow官网同款,因为只是讲解原理所以找的例子没有很复杂),因为是图片识别,使用CNN后对图片识别的准确率会上升,优于传统的神经网络。

卷积神经网络发展至今已经产生了很多nb的研究成果(VGG、盗梦空间、ResNEt等),我会在接下来的博客中介绍,同时也会使用CNN做一个有趣的应用。

import tensorflow as tffrom tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("input_data/", one_hot=True)# 定义超参数
learning_rate = 1e-4
epochs = 3000
batch_size = 50
input_size = 784
class_num = 10
dropout = 0.25weights = {# 5x5 卷积 1 输入, 32 输出'wc1': tf.Variable(tf.random_normal([3, 3, 1, 64])),# 5x5 卷积, 32 输入, 64 输出'wc2': tf.Variable(tf.random_normal([3, 3, 64, 128])),# 全连接, 7*7*64 输入, 1024 输出'wd1': tf.Variable(tf.random_normal([7*7*128, 1024])),# 1024 输入, 10 输出'out': tf.Variable(tf.random_normal([1024, class_num]))
}biases = {'bc1': tf.Variable(tf.random_normal([64])),'bc2': tf.Variable(tf.random_normal([128])),'bd1': tf.Variable(tf.random_normal([1024])),'out': tf.Variable(tf.random_normal([class_num]))
}# 定义卷积操作
def conv2d(x, W, b, strides=1):x = tf.nn.conv2d(x, W, strides=[1, strides, strides, 1], padding='SAME')x = tf.nn.bias_add(x,b)return tf.nn.relu(x)# 定义池化下采样操作
def max_pooling2d(x, k=2):return tf.nn.max_pool(x, ksize=[1, k, k, 1], strides=[1, k, k, 1], padding='SAME')# 卷积网络
def conv_basic(input):x = tf.reshape(input, shape=[-1, 28, 28, 1])conv_1 = conv2d(x, weights['wc1'], biases['bc1'])conv_1 = max_pooling2d(conv_1, k=2)conv_2 = conv2d(conv_1, weights['wc2'], biases['bc2'])conv_2 = max_pooling2d(conv_2, k=2)dense = tf.reshape(conv_2, shape=[-1, weights['wd1'].get_shape().as_list()[0]])fc_1 = tf.nn.relu(tf.add(tf.matmul(dense, weights['wd1']), biases['bd1']))fc_1 = tf.nn.dropout(fc_1, dropout)out = tf.add(tf.matmul(fc_1, weights['out']), biases['out'])out = tf.nn.softmax(out)return out# 定义输入占位符
X = tf.placeholder(tf.float32, shape=[None, input_size])
Y = tf.placeholder(tf.float32, shape=[None, class_num])
keep_prob = tf.placeholder(tf.float32)logits = conv_basic(X)
pred = tf.nn.softmax(logits)loss = -tf.reduce_sum(Y*tf.log(pred))
optimizer = tf.train.AdamOptimizer(learning_rate).minimize(loss)correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(Y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
init = tf.global_variables_initializer()with tf.Session() as sess:sess.run(init)saver = tf.train.Saver()for epoch in range(1, epochs+1):batch_x, batch_y = mnist.train.next_batch(batch_size)sess.run(optimizer, feed_dict={X: batch_x, Y: batch_y,  keep_prob: 0.5})if epoch % 100 == 0 or epoch == 1:train_accuracy = sess.run(accuracy, feed_dict={X: batch_x, Y: batch_y, keep_prob: 1.0})print("step {} training accuracy {}".format(epoch, train_accuracy))saver.save(sess, "./model/cnn_mnist.ckpt")print("训练结束!")

【深度学习】卷积神经网络原理相关推荐

  1. 深度学习 卷积神经网络原理

    深度学习 卷积神经网络原理 一.前言 二.全连接层的局限性 三.卷积层 3.1 如何进行卷积运算? 3.2 偏置 3.3 填充 3.4 步长 3.5 卷积运算是如何保留图片特征的? 3.6 三维卷积 ...

  2. 深度学习 卷积神经网络-Pytorch手写数字识别

    深度学习 卷积神经网络-Pytorch手写数字识别 一.前言 二.代码实现 2.1 引入依赖库 2.2 加载数据 2.3 数据分割 2.4 构造数据 2.5 迭代训练 三.测试数据 四.参考资料 一. ...

  3. 毕设 深度学习卷积神经网络的花卉识别

    文章目录 0 前言 1 项目背景 2 花卉识别的基本原理 3 算法实现 3.1 预处理 3.2 特征提取和选择 3.3 分类器设计和决策 3.4 卷积神经网络基本原理 4 算法实现 4.1 花卉图像数 ...

  4. 毕业设计 - 题目:基于深度学习卷积神经网络的花卉识别 - 深度学习 机器视觉

    文章目录 0 前言 1 项目背景 2 花卉识别的基本原理 3 算法实现 3.1 预处理 3.2 特征提取和选择 3.3 分类器设计和决策 3.4 卷积神经网络基本原理 4 算法实现 4.1 花卉图像数 ...

  5. 深度学习-卷积神经网络初识-1

    卷积神经网络 技交部 潘震宇 一.计算机视觉 在计算机视觉领域中,存在着许多问题,各类领域基本都包含着这俩种基础问题: 1. 图像分类 2. 目标检测 除上述之外,最近有一种新颖的技术,也出现在大众的 ...

  6. 深度学习——卷积神经网络的应用——目标检测

    一.理论部分介绍 1. 目标定位和特征点检测 图片检测问题: 分类问题:判断图中是否为汽车: 目标定位:判断是否为汽车,并确定具体位置: 目标检测:检测不同物体并定位. 目标分类和定位: 对于目标定位 ...

  7. 2020-12-09 深度学习 卷积神经网络结构分析

    1. 结构总览 首先我们分析下传统神经网络对于图片的处理,如果还是用CIFAR-10上的图片,共3072个特征,如果普通网络结构输入那么第一层的每一个神经单元都会有3072个权重,如果更大的像素的图片 ...

  8. 深度学习卷积神经网络大事件一览

    转载自:http://blog.csdn.net/u013088062/article/details/51118744 深度学习(DeepLearning)尤其是卷积神经网络(CNN)作为近几年来模 ...

  9. 深度学习——卷积神经网络 的经典网络(LeNet-5、AlexNet、ZFNet、VGG-16、GoogLeNet、ResNet)

    1. CNN卷积神经网络的经典网络综述 下面图片参照博客:http://blog.csdn.net/cyh_24/article/details/51440344 2. LeNet-5网络 输入尺寸: ...

  10. 深度学习---卷积神经网络(CNN)

    文章目录 1. 什么是深度学习? 2. 深度学习框架 2.1 卷积神经网络(CNN) 2.1.1 引子 :边界检测 2.1.2 CNN的基本概念 2.1.3 CNN的结构组成 2.1.4 卷积神经网络 ...

最新文章

  1. centos7下监控流量、数据包占用最大的进程
  2. php读取excel文件_php读取EXCEL文件 php excelreader读取excel文件
  3. AES加密算法的详细简介
  4. WinXP登录时不用输入用户名和密码,自动登录系统
  5. java不带括号_java – 打印数组,不带括号和逗号
  6. python设计选择题代码源_Python程序的设计试题库完整
  7. 支付宝弄了个“双12 ” 岛国民众都high了
  8. python面向对象:小结
  9. linux acpidtd 进程,clover引导卡在该图上了,求资助
  10. 每日10行代码34:wordcloud生成词云时过滤掉某些词
  11. samtools depth 用于外显子未覆盖区域的统计及统计未覆盖区域的意义
  12. lazysnapping
  13. CentOS7和Ubuntu18.10下运行Qt Creator出现cannot find -lGL的问题的解决方案
  14. 量子BB84,B92协议简单介绍
  15. IBM ThinkPad F11系统恢复完全技巧
  16. 机械手编程用c语言,51单片机机械手控制C程序.doc
  17. JVM笔记(三)类与类加载
  18. 如何快速推广个人微信公众号?
  19. 网站流量分析,网站流量统计,不用插入代码直接在线免费查询网站流量
  20. android o 结构光流程,OPPO 3D结构光技术完成,下半年实现量产,O粉们期待吗?

热门文章

  1. 2021年N1叉车司机免费试题及N1叉车司机模拟试题
  2. 系统稳定性建设实践总结
  3. Cortex-M3 (NXP LPC1788)之ADC模/数转换器
  4. 智能电气阀门定位器原理
  5. Axure RP9新手教程
  6. 【滤波器】基于时变维纳滤波器实现语音去噪含Matlab源码
  7. Java IO流处理 面试题汇总
  8. CIDetector 边缘识别
  9. Translate插件的有道翻译
  10. Reed-Solomon纠错码(RS码)(里德-所罗门码)