说明:本系列是七月算法深度学习课程的学习笔记

文章目录

  • 1神经网络与卷积神经网络
    • 1.1 深度神经网络适合计算机视觉处理吗
    • 1.2CNN的结构
      • 1.2.1 数据输入层
      • 1.2.2 卷积层
      • 1.2.3 激励层
      • 1.2.3 池化层
      • 1.2.4 全连接层
    • 1.3CNN的训练算法
    • 1.4CNN的优缺点
  • 2正则化与Droupout
  • 3典型结构与训练调优

1神经网络与卷积神经网络

1.1 深度神经网络适合计算机视觉处理吗

深度神经网络简称DNN,卷积神经网络简称CNN。

DNN的每一层与后面一层都是全连接。如果输入层是3维,隐层1有4个神经元。那从输入层到隐层1会有35=15个参数。如果隐层2有4个神经元,从隐层1到隐层2,需要44=16个参数。

在图像视频处理中,输入是非常大的。例如一张图片可能的输入是32x32x3,也就是一张长32,宽32的彩色图片。如果输入层有1万张图片用于训练,那参数就是=307210000维(在图像处理中一般会把 原始的输入矩阵做flatten,变为向量)。这是非常大的一个数。每一个隐层神经元数量实际中不会太少,因为太少就很难捕捉到重要信息,例如4000,参数量变为40003072*10000。这是一个很大的数字。这还只是一层。参数量大,在工程上压力大,计算、加载、存储压力都很大。参数量大,也很容易过拟合。所以DNN不适合。CNN可以。

1.2CNN的结构

CNN为什么适合计算机视觉处理呢?先看下CNN的结构。

一个CNN包含:数据输入层/input layer+卷积计算层/conv layer、激励层activation layer、池化层 pooling layer、全连接层 FC layer、Batch Normalization层(可能有)。

1.2.1 数据输入层

有3种常见的数据处理方式。
1 去均值:把数据的各个维度都中心化到0,相当于没有了截距。

2 归一化:把数据的各个维度都归一化到同样的范围,便于梯度计算,各个维度收敛速度一致。
常见的归一化的方法有:
min-max标准化,将数据归一到[0,1]范围内。x∗=x−minmax−minx^*=\dfrac{x-min}{max-min}x∗=max−minx−min​。
z-score标准化:处理后数据变为符合标准正态分布。x∗=x−μσx^*=x-\mu\sigmax∗=x−μσ,其中μ为所有样本数据的均值,σ为所有样本数据的标准差。

3 PCA/白化:PCA 降维 。白化:降维之后的各个维度可能幅度不一致,这里再做一次归一化。

注意:这里需要说明的是如果在训练集上做了什么操作,在测试集或者预测的时候也需要做同样的处理。可以使用样本的归一化的值(均值、方差等),做归一化。

1.2.2 卷积层

卷积层的几个核心概念:局部关联、 窗口滑动。

局部关联是指用输入层的一小块区域与下一层的每个神经元做内积。这块小区域被称为一个窗口。一个窗口计算完,按照一定的步长移动窗口,直至计算完成。滑动过程中遇到最后一次计算,不够窗口宽度,可以填充0,补充完整。

下一层神经元的个数被称为深度。
下一层中每个神经元的连接权重是固定的。如图中下一层有5个神经元,那就是5组参数。每一组参数是会与窗口中的数据做内积,如果窗口是一个3x3x3的大小,那一个神经元的参数个数就是3x3x3。这一层参数总个数是3x3x3x5。这样参数的数量与DNN(32x32x3x5)相比就少了很多。

一组固定的权重与不同的窗口内数据做内积,这个过程称为卷积。

1.2.3 激励层

激励层:把卷积层的输出做非线性变换。否则无论加多少个隐层,这个符合函数还是线性的。是不能形成弯曲的曲线,在某些数据上是没法分割的。
常用的激励函数有:sigmoid、tanh(双曲正切)、Relu、Leaky Relu、ELU、Maxout
只要神经网络正常,选择哪个激励函数不影响最后的结果。
慎用sigmoid函数,优先选择Relu,可以继续尝试Leaky Relu、Maxout。

1.2.3 池化层

池化层:夹在连续的卷积层中间。主要起到压缩数据和参数的作用,可以防止过拟合。

可以做池化的原因是发现将一个224x224的特征可视化之后发现降低到112x112,特征不会丢失很多。

可以采取的池化方法是max pooling和average pooling。

相当于给一个图像做了模糊化。减少了数据量,对下一层就意味着减少了输入的参数量。同时因为模糊化了,降低过拟合的风险。

1.2.4 全连接层

全连接:两层之间所有神经元都有权重链接。通常全连接层放在CNN的尾部。

一个典型的CNN结构=INPUT +[[CONV->RELU]*N->POOLING?]*M+[FC->RELU]*K+FC

1.3CNN的训练算法

先定义loass function:衡量和实际结构之间的差距
找到最小化损失函数的W和b,CNN中使用的是SGD
利用BP 链式法则求导,求出dw和db(将错误信息回传到每一层)
利用SGD/随机梯度下降,迭代更新W和b(学习到新一轮知识)

1.4CNN的优缺点

优点:共享卷积核,优化计算量;
   无需手动选择特征,训练好权重即得特征;
   深层次的网络抽取图像信息丰富,表达效果好。
缺點:需要调参、计算量大
   物理含义不明确

2正则化与Droupout

原因:神经网络学习能力过强,可能会过拟合
传统方式可以使用L1、L2正则化,在NN中是使用dropout。
Dropout正则化:别一次开启所有学习单元。给每个神经元安了一个开关,这个开关会以一定的概率关闭。

在训练阶段:

p=0.5def train_step(X):H1 = np.maximum(0, np.dot(W1,X)+b1)U1 = np.random.rand(H1.shape) <p//<p则保留H1 = H1*U1...

在预测阶段:

def predict(X):H1 = np.maximum(0, np.dot(W1,X)+b1)*p....

在预测阶段会乘以概率p,实际工程中,会在训练阶段除以p。

p=0.5def train_step(X):H1 = np.maximum(0, np.dot(W1,X)+b1)U1 = (np.random.rand(H1.shape) <p)/pH1 = H1*U1...def predict(X):H1 = np.maximum(0, np.dot(W1,X)+b1)....

对dropout的理解方式一:不要记住太多的东西,学习过程中保持泛华能力。
对dropout的理解方式二:每次都关掉一部分感知器,得到一个新模型,最后做融合。不至于听一家之言。

3典型结构与训练调优

典型CNN网络有:Lenet、AlexNet、ZFNet、VGG、GoogleNet、ResNet。
调优:可以在这些典型的网络模型基础上训练自己的图片分类模型。可以做的是:不要修改层的名称,使用原有参数,降低学习率;修改层的名称,修改分类数为自己的分类数量,提高学习率;新增自己的层,提高学习率。

深度学习03——CNN相关推荐

  1. 【深度学习】CNN神经网络应用(用于亚洲大黄蜂分类)

    [深度学习]CNN神经网络应用(用于亚洲大黄蜂分类) 文章目录 1 概述 2 假设条件 3 网络结构 4 数据集和参数 5 Asian hornet classification experiment ...

  2. [caffe]深度学习之CNN检测object detection方法摘要介绍

    [caffe]深度学习之CNN检测object detection方法摘要介绍  2015-08-17 17:44 3276人阅读 评论(1) 收藏 举报 一两年cnn在检测这块的发展突飞猛进,下面详 ...

  3. [Python人工智能] 三十.Keras深度学习构建CNN识别阿拉伯手写文字图像

    从本专栏开始,作者正式研究Python深度学习.神经网络及人工智能相关知识.前一篇文章分享了生成对抗网络GAN的基础知识,包括什么是GAN.常用算法(CGAN.DCGAN.infoGAN.WGAN). ...

  4. [Python图像识别] 四十七.Keras深度学习构建CNN识别阿拉伯手写文字图像

    该系列文章是讲解Python OpenCV图像处理知识,前期主要讲解图像入门.OpenCV基础用法,中期讲解图像处理的各种算法,包括图像锐化算子.图像增强技术.图像分割等,后期结合深度学习研究图像识别 ...

  5. 用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践

    https://zhuanlan.zhihu.com/p/25928551 近来在同时做一个应用深度学习解决淘宝商品的类目预测问题的项目,恰好硕士毕业时论文题目便是文本分类问题,趁此机会总结下文本分类 ...

  6. 【深度学习】CNN图像分类:从LeNet5到EfficientNet

    深度学习 Author:louwill From:深度学习笔记 在对卷积的含义有了一定的理解之后,我们便可以对CNN在最简单的计算机视觉任务图像分类中的经典网络进行探索.CNN在近几年的发展历程中,从 ...

  7. 【深度学习】CNN在大规模图像数据集上的应用(基于keras和MNIST)

    [深度学习]详解CNN实现手写数字识别(keras) 文章目录 1 MNIST数据集 2 导入数据 3 MLP 4 简单CNN 5 改进CNN 6 训练API的介绍 7 通道和卷积核辨析 1 MNIS ...

  8. 深度学习《CNN架构续篇 - 梯度下降的优化》

    骚话一下: 今天是2020年10月2号,继续学习.本文依然是<CNN架构>的延续博文,重点介绍优化的新的梯度下降算法. 一:梯度下降的种类 说到梯度下降的方法,确实是求最优解的比较好的途径 ...

  9. 深度学习《CNN架构》

    摘要:今天来写第一篇深度学习的博文,也是学习CNN的第一篇. 骚话一下: 今天是2020年10月1号,是祖国的71岁生日,也是传统节日中秋节,而我由于工作的安排身在海外不得回家,怀念祖国的乡土,倍加思 ...

最新文章

  1. php屏蔽审查元素,前端:屏蔽F12审查元素,禁止修改页面代码
  2. 【Linux入门连载二】Linux系统有哪些基本目录?
  3. mysql的存储过程基本使用
  4. 五:二叉树中和为某一直的路径
  5. ASP.NET多种不同页面间数据传递的方法
  6. 网络层访问权限控制技术-ACL详解 (2)
  7. [C++11]lambda表达式语法
  8. 国内首部Sharepoint 2010深入开发(工作流+安全性+单点登录+AD开发、认证等)
  9. Docker教程小白实操入门(5)--如何进入一个容器
  10. intellij idea设置代码提示不区分大小写
  11. [计算机网络][内容梳理]四、网络层
  12. 【机器学习 基本概念】马尔可夫链
  13. 360安全卫士默认浏览器设置 360默认浏览器设置 锁定浏览器
  14. php接dicom,DICOM医学图像处理:WEB PACS初谈四,PHP DICOM Class
  15. 阅读器背景推荐和效果图
  16. web高拍仪图片上传
  17. 计算机算样本标准偏差,计算器中的总体标准差和样本标准差有什么区别
  18. 一个在线五笔的例子的代码,很不错,转载过来共享
  19. 联想微型计算机不支持xp,联想台式机不能装xp怎么办
  20. 前端小demo:星星闪烁

热门文章

  1. linux 新建用户、用户组 以及为新用户分配权限
  2. apache cgi 模块安装
  3. [Webapp]国内移动端浏览器占比
  4. can't load apple.laf.AquaLookAndFeel (Ant in Eclipse can't find it
  5. java pojo 转 map_JSON和JAVA的POJO的相互转换
  6. android+button+不可点击置灰,android:tint 给imagebutton着色 按钮灰色
  7. Android 微信登录
  8. beetl 取list下标的问题
  9. mybatis新增返回主键值
  10. java 生成url_JAVA 通过URL生成水印图