1、卷积神经网络cnn究竟是怎样一步一步工作的

用一个卷积核滑动图片来提取某种特征(比如某个方向的边),然后激活函数用ReLU来压制梯度弥散。对得到的结果用另一个卷积核继续提取+reLU,然后池化(保留区域最大或者用区域平均来替换整个局部区域的值,保证平移不变性和一定程度上对过拟合的压制)
之后“深度”的话,就会需要对池化后的结果继续用不同的卷积核进行 “卷积+relu”再池化的工作。最后得到的实质是一个图片的深度特征,然后实际分类需要另外加一层,一般是softmax。
(也就是说如果对一个现成的已经训练完毕的卷积神经网络模型,只保留除了最后一层之外的部分,然后输入训练图片,把网络的输出重新送入一个多类的SVM再训练,最后也能得到差不多的结果,取决于svm的参数。)

谷歌人工智能写作项目:小发猫

2、卷积神经网络算法是什么?

一维构筑、二维构筑、全卷积构筑深度卷积神经网络中卷积操作过程。

卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。

卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invariant Artificial Neural Networks, SIANN)”。

卷积神经网络的连接性:

卷积神经网络中卷积层间的连接被称为稀疏连接(sparse connection),即相比于前馈神经网络中的全连接,卷积层中的神经元仅与其相邻层的部分,而非全部神经元相连。具体地,卷积神经网络第l层特征图中的任意一个像素(神经元)都仅是l-1层中卷积核所定义的感受野内的像素的线性组合。

卷积神经网络的稀疏连接具有正则化的效果,提高了网络结构的稳定性和泛化能力,避免过度拟合,同时,稀疏连接减少了权重参数的总量,有利于神经网络的快速学习,和在计算时减少内存开销。

卷积神经网络中特征图同一通道内的所有像素共享一组卷积核权重系数,该性质被称为权重共享(weight sharing)。权重共享将卷积神经网络和其它包含局部连接结构的神经网络相区分,后者虽然使用了稀疏连接,但不同连接的权重是不同的。权重共享和稀疏连接一样,减少了卷积神经网络的参数总量,并具有正则化的效果。

在全连接网络视角下,卷积神经网络的稀疏连接和权重共享可以被视为两个无限强的先验(pirior),即一个隐含层神经元在其感受野之外的所有权重系数恒为0(但感受野可以在空间移动);且在一个通道内,所有神经元的权重系数相同。

3、如何更好的理解分析深度卷积神经网络

作者:杨延生
链接:
来源:知乎
著作权归作者所有,转载请联系作者获得授权。
"深度学习"是为了让层数较多的多层神经网络可以训练,能够work而演化出来的一系列的 新的结构和新的方法。
新的网络结构中最著名的就是CNN,它解决了传统较深的网络参数太多,很难训练的问题,使用了逗局部感受野地和逗权植共享地的概念,大大减少了网络参数的数量。关键是这种结构确实很符合视觉类任务在人脑上的工作原理。
新的结构还包括了:LSTM,ResNet等。
新的方法就多了:新的激活函数:ReLU,新的权重初始化方法(逐层初始化,XAVIER等),新的损失函数,新的防止过拟合方法(Dropout, BN等)。这些方面主要都是为了解决传统的多层神经网络的一些不足:梯度消失,过拟合等。
---------------------- 下面是原答案 ------------------------
从广义上说深度学习的网络结构也是多层神经网络的一种。
传统意义上的多层神经网络是只有输入层、隐藏层、输出层。其中隐藏层的层数根据需要而定,没有明确的理论推导来说明到底多少层合适。
而深度学习中最著名的卷积神经网络CNN,在原来多层神经网络的基础上,加入了特征学习部分,这部分是模仿人脑对信号处理上的分级的。具体操作就是在原来的全连接的层前面加入了部分连接的卷积层与降维层,而且加入的是一个层级。
输入层 - 卷积层 -降维层 -卷积层 - 降维层 -- .... -- 隐藏层 -输出层
简单来说,原来多层神经网络做的步骤是:特征映射到值。特征是人工挑选。
深度学习做的步骤是 信号->特征->值。 特征是由网络自己选择。

4、如何更好的理解分析深度卷积神经网络

  • 用局部连接而不是全连接,同时权值共享。

局部连接的概念参考局部感受域,即某个视神经元仅考虑某一个小区域的视觉输入,因此相比普通神经网络的全连接层(下一层的某一个神经元需要与前一层的所有节点连接),卷积网络的某一个卷积层的所有节点只负责前层输入的某一个区域(比如某个3*3的方块)。这样一来需要训练的权值数相比全连接而言会大大减少,进而减小对样本空间大小的需求。

权值共享的概念就是,某一隐藏层的所有神经元共用一组权值。

这两个概念对应卷积层的话,恰好就是某个固定的卷积核。卷积核在图像上滑动时每处在一个位置分别对应一个“局部连接”的神经元,同时因为“权值共享”的缘故,这些神经元的参数一致,正好对应同一个卷积核。

顺便补充下,不同卷积核对应不同的特征,比如不同方向的边(edge)就会分别对应不同的卷积核。

  • 激活函数f(x)用ReLU的话避免了x过大梯度趋于0(比如用sigmoid)而影响训练的权值的情况(即Gradient Vanishing)。同时结果会更稀疏一些。

  • 池化之后(例如保留邻域内最大或采纳平均以舍弃一些信息)一定程度也压制了过拟合的情况。

综述

总体来说就是重复卷积-relu 来提取特征,进行池化之后再作更深层的特征提取,实质上深层卷积网络的主要作用在于特征提取。 最后一层直接用softmax来分类(获得一个介于0~1的值表达输入属于这一类别的概率)。

5、怎样通俗易懂地解释卷积?

对卷积的意义的理解:

从“积”的过程可以看到,我们得到的叠加值,是个全局的概念。以信号分析为例,卷积的结果是不仅跟当前时刻输入信号的响应值有关,也跟过去所有时刻输入信号的响应都有关系,考虑了对过去的所有输入的效果的累积。在图像处理的中,卷积处理的结果,其实就是把每个像素周边的,甚至是整个图像的像素都考虑进来,对当前像素进行某种加权处理。所以说,“积”是全局概念,或者说是一种“混合”,把两个函数在时间或者空间上进行混合。

那为什么要进行“卷”?直接相乘不好吗?我的理解,进行“卷”(翻转)的目的其实是施加一种约束,它指定了在“积”的时候以什么为参照。在信号分析的场景,它指定了在哪个特定时间点的前后进行“积”,在空间分析的场景,它指定了在哪个位置的周边进行累积处理。

例1:信号分析

如下图所示,输入信号是 f(t) ,是随时间变化的。系统响应函数是 g(t) ,图中的响应函数是随时间指数下降的,它的物理意义是说:如果在 t=0 的时刻有一个输入,那么随着时间的流逝,这个输入将不断衰减。换言之,到了 t=T时刻,原来在 t=0 时刻的输入f(0)的值将衰减为f(0)g(T)。

卷积神经网络的一般步骤,卷积神经网络采用卷积相关推荐

  1. 人工神经网络的训练步骤,人工神经网络建模步骤

    BP人工神经网络方法 (一)方法原理人工神经网络是由大量的类似人脑神经元的简单处理单元广泛地相互连接而成的复杂的网络系统.理论和实践表明,在信息处理方面,神经网络方法比传统模式识别方法更具有优势. 人 ...

  2. 训练神经网络的详细步骤,人工神经网络训练过程

    BP人工神经网络方法 (一)方法原理人工神经网络是由大量的类似人脑神经元的简单处理单元广泛地相互连接而成的复杂的网络系统.理论和实践表明,在信息处理方面,神经网络方法比传统模式识别方法更具有优势. 人 ...

  3. 训练神经网络的详细步骤,提高神经网络训练速度

    Hopfield 神经网络有哪几种训练方法 人工神经网络模型主要考虑网络连接的拓扑结构.神经元的特征.学习规则等.目前,已有近40种神经网络模型,其中有反传网络.感知器.自组织映射.Hopfield网 ...

  4. 采用卷积神经网络实现斗地主AI

    前面几篇中已经讲述过,如果使用MCTS及其变种实现斗地主AI,链结可参考: 棋牌AI 这期聊一聊目前采用卷积神经网络(CNN)实现斗地主AI的方案. 卷积神经网络 介绍一下卷积神经网络,个人觉得下面几 ...

  5. 1.7 单层卷积网络-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.6 三维卷积 回到目录 1.8 简单卷积网络示例 单层卷积网络 (One Layer of a Convolutional Network) 今天我们要讲的是如何构建卷积 ...

  6. 基于卷积神经网络CNN的水果分类预测,卷积神经网络水果等级识别

    目录 背影 卷积神经网络CNN的原理 卷积神经网络CNN的定义 卷积神经网络CNN的神经元 卷积神经网络CNN的激活函数 卷积神经网络CNN的传递函数 卷积神经网络CNN水果分类预测 基本结构 主要参 ...

  7. “看得见的”卷积神经网络(图文并茂+代码解读)(卷积神经网络可视化)

    这篇博客主要是想和大家分享一下我学习卷积神经网络可视化之后的总结和心得.学习完卷积神经网络的大致流程之后,会感觉到它和其他深度学习网络一样,像个"黑盒子".我们只知道它有几层,每层 ...

  8. 3.4 滑动窗口的卷积实现-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 3.3 目标检测 回到目录 3.5 Bounding Box 预测 滑动窗口的卷积实现 (Convolutional Implementation of Sliding Wi ...

  9. 1.5 卷积步长-深度学习第四课《卷积神经网络》-Stanford吴恩达教授

    ←上一篇 ↓↑ 下一篇→ 1.4 Padding 回到目录 1.6 三维卷积 卷积步长 (Strided Convolutions) 卷积中的步幅是另一个构建卷积神经网络的基本操作,让我向你展示一个例 ...

最新文章

  1. python冒泡排序与常用数学计算
  2. mysql 是否为空字符串_MySql判断是否为null或空字符串
  3. Python操作Excel——win32com模块和xlrd+xlwt+xlutils组合
  4. 网友反映摩拜单车无法扫码 回应:系技术问题 现已恢复服务
  5. 【三维路径规划】基于matlab蚁群算法水下潜器三维路径规划【含Matlab源码 043期】
  6. Linux下调用wps的Tables接口,WPS二次开发简单示例
  7. digester_Apache Digester示例–轻松配置
  8. 小鸟云服务器linux版本的登陆
  9. 计算机网络中可使用的数据通信方式,计算机网络中的数据通信交换技术分析
  10. Java 编程要点之并发(Concurrency)详解
  11. Verilog 加法器/减法器
  12. hive to hbase
  13. 【算法竞赛进阶指南】CH5202 自然数拆分Lunatic版 完全背包
  14. Linux_Joth the Ripper工具、NAMP命令
  15. IE浏览器打不开网页,其他浏览器却可以打开
  16. Meego系统全面解析
  17. .Net 中 ManualResetEvent 和 AutoResetEvent 的区别
  18. 字体“XX”不支持样式“Regular”。
  19. cc视频直播的SDK集成
  20. HBuilder webApp开发(七)微信/QQ/新浪/腾讯微博分享

热门文章

  1. pip安装三方库不成功的解决方法
  2. 移植华为LiteOS
  3. nvm安装使用及卸载
  4. 拉姆达表达式 追加 条件判断 ExpressionFuncT, bool
  5. 陕西省计算机大赛,陕西省青少年信息学(计算机)奥林匹克竞赛委员会文件.doc
  6. SQL-常用SQL语句
  7. linux 日志查看及操作
  8. HTML简易奥运五环
  9. Roboware Studio下载、安装、及解决办法
  10. WORD插入图题注表题注添加图表目录