• 现在经常使用的网络之一

问题:随着神经网络的不断加深,一定会带来好处吗?

  • 不一定。

  • 蓝色五角星表示最优值
  • 标有Fi的闭合区域表示函数,闭合区域的面积代表函数的复杂程度,在这个区域中能够找到一个最优的模型(可以用区域中的一个点来表示,该点到最优值的距离可以用来衡量模型的好坏)
  • 从上图中可以看出,随着函数的复杂度的不断增加,虽然函数的区域面积增大了,但是在该区域中所能找到的最优模型(该区域内的某一点)离最优值的距离可能会越来越远(也就是模型所在的区域随着函数复杂度的增加,逐渐偏离了原来的区域,离最优值越来越远)(非嵌套函数(non-nested function
  • 解决上述问题(模型走偏)的方法:每一次增加函数复杂度之后函数所覆盖的区域会包含原来函数所在的区域(嵌套函数(nested function)),只有当较复杂的函数类包含复杂度较小的函数类时,才能确保提高它的性能,如下图所示

  • 也就是说,增加函数的复杂度只会使函数所覆盖的区域在原有的基础上进行扩充,而不会偏离原本存在的区域
  • 对于深度神经网络,如果能将新添加的层训练成恒等映射(identify function)f(x) = x,新模型和原模型将同样有效;同时,由于新模型可能得出更优的解来拟合训练数据集,因此添加层似乎更容易降低训练误差

核心思想

残差网络的核心思想是:每个附加层都应该更容易地包含原始函数作为其元素之一

由此,残差块(residual blocks)诞生了

残差块

  • 之前增加模型深度的方法都是层层堆叠的方法,ResNet的思想是在堆叠层数的同时不会增加模型的复杂度
  • 上图中左侧表示一个正常块,右侧表示一个残差块
  • x:原始输入
  • f(x):理想映射(也是激活函数的输入)
  • 对于正常块中来说,虚线框中的部分需要直接拟合出理想映射 f(x);而对于残差块来说,同样的虚线框中的部分需要拟合出残差映射 f(x) - x
  • 残差映射在现实中往往更容易优化
  • 如果以恒等映射 f(x) = x 作为所想要学出的理想映射 f(x),则只需要将残差块中虚线框内加权运算的权重偏置参数设置为 0,f(x) 就变成恒等映射了
  • 在实际中,当理想映射 f(x) 极接近于恒等映射时,残差映射易于捕捉恒等映射的细微波动
  • 在残差块中,输入可以通过跨层数据线路更快地向前传播

  • 左边是ResNet的第一种实现(不包含1 * 1卷积层的残差块),它直接将输入加在了叠加层的输出上面
  • 右边是ResNet的第二种实现(包含1 * 1卷积层的残差块),它先对输入进行了1 * 1的卷积变换通道(改变范围),再加入到叠加层的输出上面
  • ResNet沿用了VGG完整的3 * 3卷积层设计
  • 残差块中首先有2个相同输出通道数的3 * 3卷积层,每个卷积层后面接一个批量归一化层和ReLu激活函数;通过跨层数据通路,跳过残差块中的两个卷积运算,将输入直接加在最后的ReLu激活函数前(这种设计要求2个卷积层的输出与输入形状一样,这样才能使第二个卷积层的输出(也就是第二个激活函数的输入)和原始的输入形状相同,才能进行相加)
  • 如果想要改变通道数,就需要引入一个额外的1 * 1的卷积层来将输入变换成需要的形状后再做相加运算(如上图中右侧含1 * 1卷积层的残差块)

不同的残差块

ResNet架构

原本的ResNet和VGG类似,ResNet块有两种:

  • 第一种是高宽减半的ResNet块。第一个卷积层的步幅等于2,使得高宽减半,通道数翻倍(如上图下半部分所示)
  • 第二种是高宽不减半的RexNet块,如上图上半部分所示,重复多次,所有卷积层的步幅等于1

通过ResNet块数量通道数量的不同,可以得到不同的ResNet架构,ResNet-18架构如下图所示

  • ResNet架构类似于VGG和GoogLeNet的总体架构,但是替换成了ResNet块(ResNet块的每个卷积层后增加了批量归一化层)
  • ResNet的前两层和GoogLeNet中的一样,也分成了5个stage:在输出通道数为64、步幅为2的7 * 7卷积层后,接步幅为2的3 * 3的最大汇聚层
  • GoogLeNet在后面接了4由Inception块组成的模块;ResNet使用了4个由残差块组成的模块,每个模块使用若干个同样输出通道数的残差块,第一个模块的通道数同输入通道数一致;由于之前已经使用了步幅为2的最大汇聚层,所以无需减小高和宽;之后每个模块在第一个残差块里将上一个模块的通道数翻倍,并将高和宽减半
  • 通过配置不同的通道数和模块中的残差块数可以得到不同的ResNet模型:ResNet-18:每个模块都有4个卷积层(不包含恒等映射的1 * 1卷积层),再加上第一个7 * 7卷积层和最后一个全连接层,一共有18层;还有更深的152层的ResNet-152

ResNet 152

  • 图中所示的是ResNet-152(经过两三次改良之后的版本)在ImageNet数据集上分类任务的精度
  • 模型的层数越少通常速度越快,精度越低,层数越多,精度越低
  • ResNet 152是一个经常用来刷分的模型,在实际中使用的比较少

总结

  • 残差块使得很深的网络更加容易训练(不管网络有多深,因为有跨层数据通路连接的存在,使得始终能够包含小的网络,因为跳转连接的存在,所以会先将下层的小型网络训练好再去训练更深层次的网络),甚至可以训练一千层的网络(只要内存足够,优化算法就能够实现)
  • 学习嵌套函数是神经网络的理想情况,在深层神经网络中,学习另一层作为恒等映射比较容易
  • 残差映射可以更容易地学习同一函数,例如将权重层中的参数近似为零
  • 利用残差块可以训练出一个有效的深层神经网络:输入可以通过层间的残余连接更快地向前传播
  • 残差网络对随后的深层神经网络的设计产生了深远影响,无论是卷积类网络还是全连接类网络,几乎现在所有的网络都会用到,因为只有这样才能够让网络搭建的更深

代码:

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2lclass Residual (nn.Module):def __init__(self, input_channels, num_channels, use_1x1conv=False,strides=1): # num_channels为输出channel数  super().__init__()self.conv1 = nn.Conv2d(input_channels, num_channels, kernel_size=3,padding=1, stride=strides) # 可以使用传入进来的strides self.conv2 = nn.Conv2d(num_channels, num_channels, kernel_size=3, padding=1)   # 使用nn.Conv2d默认的strides=1if use_1x1conv:self.conv3 = nn.Conv2d(input_channels, num_channels, kernel_size=1, stride=strides)   else:self.conv3 = Noneself.bn1 = nn.BatchNorm2d(num_channels)self.bn2 = nn.BatchNorm2d(num_channels)self.relu = nn.ReLU(inplace=True) # inplace原地操作,不创建新变量,对原变量操作,节约内存def forward(self, X):Y = F.relu(self.bn1(self.conv1(X)))Y = self.bn2(self.conv2(Y))if self.conv3:X = self.conv3(X)Y += Xreturn F.relu(Y)# 输入和输出形状一致
blk = Residual(3,3) # 输入三通道,输出三通道
X = torch.rand(4,3,6,6)
Y = blk(X) # stride用的默认的1,所以宽高没有变化。如果strides用2,则宽高减半
Y.shape# 增加输出通道数的同时,减半输出的高和宽
blk = Residual(3,6,use_1x1conv=True,strides=2)  # 由3变为6,通道数加倍
blk(X).shape# ResNet的第一个stage
b1 = nn.Sequential(nn.Conv2d(1,64,kernel_size=7,stride=2,padding=3),nn.BatchNorm2d(64),nn.ReLU(),nn.MaxPool2d(kernel_size=3,stride=2,padding=1))# class Residual为小block,resnet_block 为大block,为Resnet网络的一个stage
def resnet_block(input_channels,num_channels,num_residuals,first_block=False):blk = []for i in range(num_residuals):if i == 0 and not first_block: # stage中不是第一个block则高宽减半blk.append(Residual(input_channels, num_channels, use_1x1conv=True,strides=2))   else:blk.append(Residual(num_channels, num_channels))return blkb2 = nn.Sequential(*resnet_block(64,64,2,first_block=True)) # 因为b1做了两次宽高减半,nn.Conv2d、nn.MaxPool2d,所以b2中的首次就不减半了
b3 = nn.Sequential(*resnet_block(64,128,2)) # b3、b4、b5的首次卷积层都减半
b4 = nn.Sequential(*resnet_block(128,256,2))
b5 = nn.Sequential(*resnet_block(256,512,2))net = nn.Sequential(b1,b2,b3,b4,b5,nn.AdaptiveAvgPool2d((1,1)),nn.Flatten(),nn.Linear(512,10))    # 观察一下ReNet中不同模块的输入形状是如何变化的
X = torch.rand(size=(1,1,224,224))
for layer in net:X = layer(X)print(layer.__class__.__name__,'output shape:\t',X.shape) # 通道数翻倍、模型减半# 训练模型
lr, num_epochs, batch_size = 0.05, 10, 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=96)
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())

9.20残差网络 ResNet相关推荐

  1. 残差网络ResNet

    文章目录 ResNet模型 两个注意点 关于x 关于残差单元 核心实验 原因分析 ResNet的效果 题外话 ResNet是由何凯明在论文Deep Residual Learning for Imag ...

  2. 对残差网络resnet shortcut的解释

    重读残差网络--resnet(对百度vd模型解读) 往事如yan 已于 2022-02-25 07:53:37 修改 652 收藏 4 分类专栏: AI基础 深度学习概念 文章标签: 网络 cnn p ...

  3. 深度残差网络RESNET

    一.残差神经网络--ResNet的综述 深度学习网络的深度对最后的分类和识别的效果有着很大的影响,所以正常想法就是能把网络设计的越深越好, 但是事实上却不是这样,常规的网络的堆叠(plain netw ...

  4. 深度学习目标检测 RCNN F-RCNN SPP yolo-v1 v2 v3 残差网络ResNet MobileNet SqueezeNet ShuffleNet

    深度学习目标检测--结构变化顺序是RCNN->SPP->Fast RCNN->Faster RCNN->YOLO->SSD->YOLO2->Mask RCNN ...

  5. 吴教授的CNN课堂:进阶 | 从LeNet到残差网络(ResNet)和Inception Net

    转载自:https://www.jianshu.com/p/841ac51c7961 第二周是关于卷积网络(CNN)进阶部分,学到挺多新东西.因为之前了解过CNN基础后,就大多在用RNN进行自然语言处 ...

  6. 何恺明编年史之深度残差网络ResNet

    文章目录 前言 一.提出ResNet原因 二.深度残差模块 1.数学理论基础 2.深度网络结构 三.Pytorch代码实现 四.总结 前言 图像分类是计算机视觉任务的基石,在目标监测.图像分割等任务中 ...

  7. 残差网络ResNet网络原理及实现

    全文共1483字,5张图,预计阅读时间10分钟. 作者介绍: 石晓文,中国人民大学信息学院在读研究生,美团外卖算法实习生 简书ID:石晓文的学习日记(https://www.jianshu.com/u ...

  8. (pytorch-深度学习)实现残差网络(ResNet)

    实现残差网络(ResNet) 我们一般认为,增加神经网络模型的层数,充分训练后的模型理论上能更有效地降低训练误差. 理论上,原模型解的空间只是新模型解的空间的子空间.也就是说,如果我们能将新添加的层训 ...

  9. dlibdotnet 人脸相似度源代码_使用dlib中的深度残差网络(ResNet)实现实时人脸识别 - supersayajin - 博客园...

    opencv中提供的基于haar特征级联进行人脸检测的方法效果非常不好,本文使用dlib中提供的人脸检测方法(使用HOG特征或卷积神经网方法),并使用提供的深度残差网络(ResNet)实现实时人脸识别 ...

  10. 【深度学习】深度残差网络ResNet

    文章目录 1 残差网络ResNet 1.1要解决的问题 1.2 残差网络结构 1.3 捷径连接 1.4 总结 1 残差网络ResNet 1.1要解决的问题   在传统CNN架构中,如果我们简单堆叠CN ...

最新文章

  1. 国家自然科学基金委公布生命科学部四类科学问题典型案例
  2. 青茶什么时候拆_篮球:挡拆是艺术,绝知要躬行,最简单也是最复杂的篮球战术...
  3. RedHat Linux网络配置过程笔记
  4. 陕西2021高考成绩在哪查询,2021陕西高考成绩查询入口
  5. linux redhat 下让redis以服务方式运行
  6. clistctrl 列不可按 -baijiahao_好吃到让人尖叫的日本人气美食 | 不可错过的京都吃喝地图...
  7. bind_param 类怎么写_情感类自媒体怎么写?你不知道的情感类文章4大禁忌!
  8. Jetson Xavier中安装DIGITS-》Caffee中的错误
  9. OpenV2X开源社区亮相全球边缘计算大会
  10. 极域电子教室解控方法
  11. vue实现关键字查询列表数据
  12. 老台式电脑怎么连热点_台式电脑怎样连接wifi热点,教你一招快速连接
  13. Seata与Lcn的区别
  14. 喜欢上Cinnamon的10个理由
  15. 解读运营指标:DAU/MAU
  16. Linux:进程管理 | 进程创建 | 进程终止 | 进程等待 | 进程替换
  17. Maximum length exceeded错误的解决办法
  18. UVa Online Judge 西班牙Valladolid 在线判官 和 uDebug使用简单教程
  19. Oracle 数据精度错误-ORA-01438
  20. 10大举措预防心脏病

热门文章

  1. JAVA音乐网站(JAVA毕业设计)
  2. 虚拟机Linux服务器网络设置
  3. DAX计算月末一次加权平均出库金额
  4. 高性能跳频抗干扰宽带自组网电台
  5. 英语学习必备:Eudic欧路词典 for Mac增强版
  6. Flink在bilibili的优化与实践
  7. web功能测试方法大全——完整!全面!(纯干货,建议收藏哦~)
  8. 利用js脚本自动批量删除微博内容
  9. Matlab中xtickformat函数
  10. 计算机的进制的转换公式,计算机进制转换公式