使用Pytorch实现Resnet网络模型:ResNet50、ResNet101和ResNet152

  • 介绍
  • 什么是 ResNet?
  • ResNet 的架构
  • 使用Pytorch构建 ResNet网络

介绍

在深度学习和计算机视觉领域取得了一系列突破。尤其是随着非常深的卷积神经网络的引入,这些模型有助于在图像识别和图像分类等问题上取得最先进的结果。

因此,多年来,深度学习架构变得越来越深(添加更多层)以解决越来越复杂的任务,这也有助于提高分类和识别任务的性能并使其变得健壮。

但是当我们继续向神经网络添加更多层时,训练变得非常困难,并且模型的准确性开始饱和,然后也会下降。ResNet 将我们从这种情况中解救出来,并帮助解决了这个问题。

什么是 ResNet?

Residual Network (ResNet) 是著名的深度学习模型之一,由 Shaoqing Ren、Kaiming He、Jian Sun 和 Xiangyu Zhang 在他们的论文中提出。该论文在 2015 年被命名为“Deep Residual Learning for Image Recognition” 。ResNet 模型是迄今为止流行和最成功的深度学习模型之一。

残块:
随着这些 Residual 块的引入,训练非常深的网络的问题得到了缓解,ResNet 模型由这些块组成。

在上图中,我们首先注意到的是有一个直接连接跳过了模型的某些层,这种连接称为“跳过连接”,是残差块的核心。由于此跳过连接,输出不一样。如果没有跳过连接,输入 X 将乘以层的权重,然后添加一个偏置项。然后是激活函数 f(),我们得到输出为 H(x)。

H(x)=f( wx + b ) 或 H(x)=f(x)

现在引入了一种新的跳跃连接技术,输出为 H(x) 变为

H(x)=f(x)+x

但是输入的维度可能与卷积层或池化层输出的维度不同。因此,可以通过以下两种方法处理此问题:

·用跳跃连接填充零以增加其尺寸。·1×1 卷积层被添加到输入以匹配维度。在这种情况下,输出为:H(x)=f(x)+w1.x

这里添加了一个额外的参数 w1 而使用第一种方法时没有添加额外的参数。

ResNet 中的这些跳跃连接技术通过允许梯度流过的替代捷径来解决深度 CNN 中梯度消失的问题,此外,如果任何层损害了架构的性能,则跳过连接会有所帮助,那么它将被正则化跳过。

ResNet 的架构

该架构中有一个 34 层的普通网络,其灵感来自 VGG-19,其中添加了快捷连接或跳过连接,这些跳过连接或残差块将架构转换为残差网络,如下图所示。

使用Pytorch构建 ResNet网络


让我们保留上面的图像作为参考并开始构建网络,ResNet 架构多次使用 CNN 块,所以让我们为 CNN 块创建一个类,它接受输入通道和输出通道。每个 conv 层之后都有一个 batchnorm2d,然后创建一个 ResNet 类,该类接受多个块、层、图像通道和类数的输入。函数“_make_layer”创建了 ResNet 层,它接受块的输入、残差块的数量、输出通道和步幅。然后定义不同版本的ResNet

–对于 ResNet50,层序列为 [3, 4, 6, 3]。

–对于 ResNet101,层序列为 [3, 4, 23, 3]。

–对于 ResNet152,层序列为 [3, 8, 36, 3]。

然后编写一个test()函数来检查模型是否工作正常,完整实例代码如下:

import torch
import torch.nn as nnclass block(nn.Module):def __init__(self, in_channels, intermediate_channels, identity_downsample=None, stride=1):super(block, self).__init__()self.expansion = 4self.conv1 = nn.Conv2d(in_channels, intermediate_channels, kernel_size=1, stride=1, padding=0, bias=False)self.bn1 = nn.BatchNorm2d(intermediate_channels)self.conv2 = nn.Conv2d(intermediate_channels,intermediate_channels,kernel_size=3,stride=stride,padding=1,bias=False)self.bn2 = nn.BatchNorm2d(intermediate_channels)self.conv3 = nn.Conv2d(intermediate_channels,intermediate_channels * self.expansion,kernel_size=1,stride=1,padding=0,bias=False)self.bn3 = nn.BatchNorm2d(intermediate_channels * self.expansion)self.relu = nn.ReLU()self.identity_downsample = identity_downsampleself.stride = stridedef forward(self, x):identity = x.clone()x = self.conv1(x)x = self.bn1(x)x = self.relu(x)x = self.conv2(x)x = self.bn2(x)x = self.relu(x)x = self.conv3(x)x = self.bn3(x)if self.identity_downsample is not None:identity = self.identity_downsample(identity)x += identityx = self.relu(x)return xclass ResNet(nn.Module):def __init__(self, block, layers, image_channels, num_classes):super(ResNet, self).__init__()self.in_channels = 64self.conv1 = nn.Conv2d(image_channels, 64, kernel_size=7, stride=2, padding=3, bias=False)self.bn1 = nn.BatchNorm2d(64)self.relu = nn.ReLU()self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)self.layer1 = self._make_layer(block, layers[0], intermediate_channels=64, stride=1)self.layer2 = self._make_layer(block, layers[1], intermediate_channels=128, stride=2)self.layer3 = self._make_layer(block, layers[2], intermediate_channels=256, stride=2)self.layer4 = self._make_layer(block, layers[3], intermediate_channels=512, stride=2)self.avgpool = nn.AdaptiveAvgPool2d((1, 1))self.fc = nn.Linear(512 * 4, num_classes)def forward(self, x):x = self.conv1(x)x = self.bn1(x)x = self.relu(x)x = self.maxpool(x)x = self.layer1(x)x = self.layer2(x)x = self.layer3(x)x = self.layer4(x)x = self.avgpool(x)x = x.reshape(x.shape[0], -1)x = self.fc(x)return xdef _make_layer(self, block, num_residual_blocks, intermediate_channels, stride):identity_downsample = Nonelayers = []if stride != 1 or self.in_channels != intermediate_channels * 4:identity_downsample = nn.Sequential(nn.Conv2d(self.in_channels,intermediate_channels * 4,kernel_size=1,stride=stride,bias=False),nn.BatchNorm2d(intermediate_channels * 4),)layers.append(block(self.in_channels, intermediate_channels, identity_downsample, stride))self.in_channels = intermediate_channels * 4for i in range(num_residual_blocks - 1):layers.append(block(self.in_channels, intermediate_channels))return nn.Sequential(*layers)def ResNet50(img_channel=3, num_classes=1000):return ResNet(block, [3, 4, 6, 3], img_channel, num_classes)def ResNet101(img_channel=3, num_classes=1000):return ResNet(block, [3, 4, 23, 3], img_channel, num_classes)def ResNet152(img_channel=3, num_classes=1000):return ResNet(block, [3, 8, 36, 3], img_channel, num_classes)def test():net = ResNet101(img_channel=3, num_classes=1000)print(net)device = "cuda" if torch.cuda.is_available() else "cpu"y = net(torch.randn(4, 3, 224, 224)).to(device)print(y.size())test()

对于上述测试用例,输出应为:

【使用Pytorch实现ResNet网络模型:ResNet50、ResNet101和ResNet152】相关推荐

  1. 通过和resnet18和resnet50理解PyTorch的ResNet模块

    文章目录 模型介绍 resnet18模型流程 总结 resnet50 总结 resnet和resnext的框架基本相同的,这里先学习下resnet的构建,感觉高度模块化,很方便.本文算是对 PyTor ...

  2. 图像分类篇:pytorch实现ResNet

    一.ResNet详解 ResNet网络是在2015年由微软实验室提出的,斩获当年ImageNet竞赛中分类任务第一名,目标检测第一名,获得COCO数据集中目标检测第一名,图像分类第一名. 在ResNe ...

  3. Pytorch下微调网络模型(迁移学习)进行图像分类

    Pytorch下微调网络模型进行图像分类 利用ImageNet下的预训练权重采用迁移学习策略,能够实现模型快速训练,提高图像分类性能.下面以vgg和resnet网络模型为例,微调最后的分类层进行分类. ...

  4. 打印查看pytorch 的神经网络模型及参数

    打印查看pytorch 的神经网络模型及参数 net = resnet()#实例化网络 for parameters in net.parameters():#打印出参数矩阵及值print(param ...

  5. 使用pytorch搭建AlexNet网络模型

    使用pytorch搭建AlexNet网络模型 AlexNet详解 AlexNet是2012年ISLVRC 2012(ImageNet Large Scale Visual Recognition Ch ...

  6. 利用pytorch搭建LeNet-5网络模型(win11)

    目录 1. 前言 2. 程序 2.1 net 2.2 train 2.3 main 3. 总结 1. 前言 手写字体识别模型LeNet5诞生于1994年,是最早的卷积神经网络之一.LeNet5通过巧妙 ...

  7. 【ResNet】Pytorch从零构建ResNet50

    Pytorch从零构建ResNet 第一章 从零构建ResNet18 第二章 从零构建ResNet50 文章目录 Pytorch从零构建ResNet 前言 一.Res50和Res18的区别? 1. 残 ...

  8. 基于python实现resnet_【深度学习】基于Pytorch的ResNet实现

    1. ResNet理论 残差学习基本单元: 在ImageNet上的结果: 效果会随着模型层数的提升而下降,当更深的网络能够开始收敛时,就会出现降级问题:随着网络深度的增加,准确度变得饱和(这可能不足为 ...

  9. bottleneck resnet网络_Detection学习之四-利用pytorch实现resnet

    残差网络的基本原理 上图即为残差网络的基本原理: F(x)=H(x)-x,x为浅层输出,H(x)为深层的输出,F(x)为二者中间的两层变换.当浅层的x代表的特征已经足够成熟,如果任何对于x的改变都会让 ...

  10. 通过pytorch建立神经网络模型 分析遗传基因数据

    DNA双螺旋(已对齐)合并神经网络(黄色) 我最近进行了有关基因序列的研究工作.我想到的主要问题是:"哪一种最简单的神经网络能与遗传数据最匹配".经过大量文献回顾,我发现与该主题相 ...

最新文章

  1. Win10+Python3.6下Pytorch安装(基于conda或pip)
  2. Windows XP 源代码泄露,微软终于回应了~
  3. 查询字符串位置_带合并单元格的数据查询套路,有用
  4. 读书笔记_C#入门经典(第5版)第六章_函数
  5. Flume-NG + HDFS + HIVE 日志收集分析 | EyeLu技术Blog
  6. python2版本选择_win下安装python2和python3双版本之全美教程
  7. html angular video视频组件
  8. 奥的斯服务器故障查询及使用
  9. [转] 你没看过的囧人囧事大集合
  10. 华为交换机5720常用命令
  11. 『ABP』ABP vNext中使用开源日志面板 LogDashboard
  12. 鸿蒙os拍摄功能,华为5G巅峰之作:屏下摄像头+鸿蒙OS+徕卡镜头 这才是华为的实力...
  13. 教师学计算机信息,计算机教师
  14. 港科校友 | 香港科大EMBA刘礼华校友获评俄罗斯自然科学院院士
  15. 大疆无人机航测实测教程:航线规划、像控点布设、刺点、成图(附航测练习数据下载)
  16. oracle大于字符串时间,Oracle
  17. 2020年一级建造师课件各科实务课程资料全套网盘打包分享地址
  18. SpringCloud:Gateway之鉴权
  19. 静态路由知识华为eNSP实践
  20. Vivado时序分析

热门文章

  1. Hart/Hart-IP协议 介绍、分析和应用
  2. Android性能测试
  3. 【流媒体开发】6、ffplay命令
  4. python 点分十进制IP地址转16进制字符串
  5. 读书笔记 | 自动驾驶中的雷达信号处理(第1章 雷达系统基础)
  6. js生成二维码附带logo
  7. linux服务器怎么安装360杀毒软件,360主机卫士Linux版使用安装教程
  8. 生信技能树课程记录笔记(一)20220523
  9. 【转】haar特征简单分析
  10. 微信小程序视频基本操作