在2015年残差网络Deep Residual Learning for Image Recognition出来之后,2016年出现了大批量的达到与之相应效果的加深网络的方法。加深网络会带来如下三大类问题:1. 后向传播梯度消失;2. 前向传播信息量减少;3. 训练时间加长。为了缓解以上三大类问题,2016上半年已经有各式各样的加深网络的方法,让我们来看下下面五篇文章,前四篇文章主要注重与如何去使用各种方法加深网络,最后一篇文章对最近出现的残差网络家族做了一个深入的分析与思考,指出残差与其说是加深网络不如说是隐式的多网络叠加。

一、Deep Networks with Stochastic Depth

该文章将CIFAR-100刷到了24.58。代码:https://github.com/yueatsprograms/Stochastic_Depth。该文章基于Deep Residual Learning for Image Recognition做了实验,提升效果如下表所示(重点看constant与stochastic的比较):

文章提出在层出现概率是线性衰减到0.5的情况下,如下图所示:

则有L个block的network每次训练时有期望3/4L个block参与训练。在预测端也相应的需要做些改变如下:

。该加深网络方法的缺点是:虽然减少了训练的时间,但确不能减少前向的时间。不过它是一个非常有效的类似于dropout、drop connection的regularization的方法,能有效采用这样的加深网络的方式来提升模型性能。

二、FractalNet:Ultra-Deep Neural Networks without Residuals

该文章将CIFAR-100刷到了22.85。该文章不同与第一篇drop layer,它提出了分形网络(fractal network)的概念,基于fractal network的基础上,采用drop path来进行训练。其样例结构如下:

文章提出了的drop path方法如下:

1. local:join模块一定概率drop每个输入,但确保每个join至少一个输入留下。

2. global:对分形网络(fractal network)只留下一列

其示意图如下:

三、Identity Mappings in Deep Residual Networks

该文将CIFAR-100刷到了22.71。代码:https://github.com/KaimingHe/resnet-1k-layers。该文章主要对原文Deep Residual Learning for Image Recognition的残差单元做了两方面做了详尽的实验:1. shortcut类型 2. 激活函数顺序。shortcut类型的实验如下:

最后证明还是原先的第一种更好。激活函数顺序的实验如下:

最后证明是最后一种好,将激活函数都放在weight之前。

四、RESNET IN RESNET:GENERALIZING RESIDUAL ARCHITECTURES

该文章将CIFAR-100刷到了22.90。其核心结构如下:

五、Residual Networks are Exponential Ensembles of Relatively Shallow Networks

该文章提出了在残差网络风行的时候,给出了一个创新的观点,并附上了一些理论+实验观测上的证明。具体的观点如下:残差网络并不是一个真正意义上极深的网络,而是隐式地由指数个大部分为浅层网络叠加而成的。由此该论文指出,查看网络之后除了可以看width和depth,其实还有另外一个维度就是multiplicity。该文章中比较关键的一个理论证明插图如下:

[深度学习]暴走的残差深度学习网络家族!加深了网络还是隐式多网络叠加?相关推荐

  1. Python网络爬虫Selenium页面等待:强制等待、隐式等待和显式等待

    关于Python网络爬虫Selenium强制等待.隐式等待和显式等待的总结 from selenium import webdriver import time from selenium.webdr ...

  2. resnet网络结构_深度学习之16——残差网络(ResNet)

    残差网络在设计之初,主要是服务于卷积神经网络(CNN),在计算机视觉领域应用较多,但是随着CNN结构的发展,在很多文本处理,文本分类里面(n-gram),也同样展现出来很好的效果. 首先先明确一下几个 ...

  3. 【深度学习之ResNet】——深度残差网络—ResNet总结

    目录 论文名称:Deep Residual Learning for Image Recognition 摘要: 1.引言 2.为什么会提出ResNet残差网络呢? 3.深度残差网络结构学习(Deep ...

  4. 吴恩达深度学习笔记11-Course4-Week2【深度卷积网络:实例探究】

    深度卷积网络:实例探究 实例探究(Case studies) 为什么要进行实例探究(Why look at case studies?) 从中获得灵感,借鉴一些效果很好的网络来完成自己的任务. 一.经 ...

  5. 从神经元到神经网络、从神经网络到深度学习:神经网络、深度学习、神经元、神经元模型、感知机、感知机困境、深度网络

    从神经元到神经网络.从神经网络到深度学习:神经网络.深度学习.神经元.神经元模型.感知机.感知机困境.深度网络 目录 从神经元到神经网络.从神经网络到深度学习 神经网络:

  6. 【深度学习】数形结合的图像处理(文末介绍了一种新型网络)

    [深度学习]数形结合的图像处理(文末介绍了一种新型网络) 文章目录 [深度学习]数形结合的图像处理(文末介绍了一种新型网络) 前言: OpenCV介绍 1 读取图像 2 修改图像尺寸 3 矩阵操作处理 ...

  7. 花书+吴恩达深度学习(二八)深度生成模型之有向生成网络(VAE, GAN, 自回归网络)

    文章目录 0. 前言 1. sigmoid 信念网络 2. 生成器网络 3. 变分自编码器 VAE 4. 生成式对抗网络 GAN 5. 生成矩匹配网络 6. 自回归网络 6.1 线性自回归网络 6.2 ...

  8. 深度学习(一)深度前馈网络(deep feedforward network)

    深度学习(一)深度前馈网络(deep feedforward network) 深度前馈网络(deep feedforward network),也叫作 前馈神经网络(feedforward neur ...

  9. 【深度学习实战】从零开始深度学习(五):生成对抗网络——深度学习中的非监督学习问题

    参考资料: <PyTorch深度学习>(人民邮电出版社)第7章 生成网络 PyTorch官方文档 廖星宇著<深度学习入门之Pytorch>第6章 生成对抗网络 其他参考的网络资 ...

最新文章

  1. ASP.NET,IIS7.0 上传大视频文件报错
  2. mysql+esc,mysql(3):基础,常用命令句使用(2)--上集
  3. matlab treeview,treeview控件
  4. WTM 3.5发布,VUE来了!
  5. python3 x默认使用的编码_python3默认使用什么编码
  6. Linux定时任务Crontab命令详解
  7. Date和Calendar
  8. 结对作业2:单元测试
  9. java ajax级联_jQuery ajax级联二级菜单(转)
  10. Konomi与去中心化借贷协议bZx合作推动DeFi生态发展
  11. 优秀的人都有一个共同点
  12. 论文阅读4.6-4.8
  13. STARK Arithmetization
  14. 智能优化算法:斑点鬣狗优化算法-附代码
  15. outlook 发送邮件
  16. flappy bird c语言,Flappy Bird C语言实现
  17. 计算机新手必备知识,新手怎么查看电脑配置,购机必备知识!
  18. 多线程 委托 匿名函数 拉姆达 事件
  19. net::ERR_INCOMPLETE_CHUNKED_ENCODING 200
  20. 安装测试包(.ipa)到iPhone手机

热门文章

  1. functools模块之update_wrapper、wraps功能
  2. CPU核数和load average的关系
  3. Java工程中的主函数public static void main(String[] args)
  4. 解决ubuntu18.04 磁盘空间不足
  5. 蓝牙A2DP和HFP编解码
  6. Xamarin Shell 踩坑
  7. 音视频问题汇总--播放器seekto功能优化
  8. Arduino小游戏
  9. 给孩子的Scratch教程Lesson-7【蝙蝠大作战v0.1】
  10. Iterated Kalman Filter(IKF/IEKF)总结