1.Unet

作为图像语义分割里比较基本的分割网络,自然不能缺席
毕竟文题也叫Unet的深入浅出啊

1.1语义分割做什么

一开始我认为是这样的

这么理解是没错的,深度学习确实也是这样端到端的小黑盒,
目前大火的原因也是想让这个小黑盒变白
在一维信号或者特征上非常好理解
输入1*n的数据,n是特征的数量,输出一个预测值,这个值代表某种意思
但是一直不太理解在图像中应该怎么理解
直到某一天看的论文累积够了,灵光一闪,才想明白了

大致意思是,深度学习给得到是概率,
一维的情况是,二维的情况也是
二维给的是概率图,
在用一些核函数的技巧进入实际问题中之后,
深度学习其实就是线性代数+概率论+高等数学
在Unet的结构图中,通过中间的许多层之后,得到概率图,
根据金标准来对自身的概率进行调整和BP
达到最优解,因此后续还会引入一些优化的算法

1.2 网络结构

FCN作为图像分割的鼻祖,建议先了解一下FCN ,这里也会提到FCN
延续了FCN 的深层次的结构,Unet随着网络结构的加深,图像尺寸也在减小
FCN对encode采取的策略是同level的层,对应像素对应相加,Unet则是叠加(concatenate)
放上Unet的网络结构图

在每一个层中均用到了一个概念——卷积,就不得不详细说一下了
因为以前是研究经典算法的,诸如SIFT特征这样的,所以对高斯金字塔特别熟悉
看到卷积的时候也是笑了,知识总是触类旁通和极大的相似
先说一下高斯金字塔,原po传送门
如图,用不同的卷积核产生不同模糊程度的图像
这个图像人眼看不懂,计算机可以识别
相当于原博客中说的,戴上不同度数的眼镜看到的画面不同

顺道发散一下,高斯金字塔的做法看着是不是很熟悉,比较新的deeplab啥的也是触类旁通的结构

unet第一层网络结构从channel 1到 channel 64
就是使用了不同的卷积核,产生了指定数量的channel

网络的后续的channel的变化也是如此,指定数量之后,得到的每个channel,
又唤做feature map,记录了不同尺度下的图像的特征
可能有人会问为什么指定数量之后就能产生对应数量的channel
这里请参考这篇博客
我这里引用其中的图片来解释是如何通过卷积核来产生指定数量的channel的

这些特征可以通过不断的调整参数,学习到
所以如何最大可能的使用卷积提取图像的特征,在我看来,是语义分割的关键

在卷积过程中
可以通过设置不同的卷积核以及padding,stride的大小,
控制同一层图像的尺寸不变
同样下采样的尺寸也是可以控制的
具体的公式如下:
newsize=f−k+2ps+1newsize = \frac{f-k+2p}{s}+1newsize=sf−k+2p​+1
其中k是卷积核尺寸,p是padding的值,s是stride的值
根据上述公式,令k=3, p=1, s=1,有
newsize=f−3+21+1=fnewsize = \frac{f-3+2}{1}+1=fnewsize=1f−3+2​+1=f
可以使得图像在卷积过程中的尺寸不发生变化
这是一个经常使用的trick
下采样,常用的maxpooling,通常是使得图像尺寸减小1/2

这会儿再看网络结构
原论文中k=3,p=0,s=1,所以原始的尺寸是572
根据公式有572−3+2∗01+1=570\frac{572-3+2*0}{1}+1=5701572−3+2∗0​+1=570
所以从channel1-64,图像尺寸从572减小到了570
以此类推,蓝色小箭头表示卷积操作,每次图像宽和高减小2
红色小箭头表示maxpooling,图像尺寸减半,
如图中第一个红箭头处,从568减小到了284

绿色小箭头代表上采样,与红色相对应,这里使图像尺寸增加2倍,如下图中1024到512


网络的创新之处就是concatenate这个操作了,也就是图中的灰色箭头这个位置

可以看到,从1024个channel上采样过来的512个channel
和上一个对应有512个channel的同层channel被叠加起来了,
成为了一个新的1024个channel,如图红圈部分
同理类似256+256构成了新的512
与FCN不同的是,FCN在这一步中是直接与之前的进行对应像素相加操作
都是很巧妙的操作
到此,整个Unet的结构细节全部解析完毕
跟着推导一遍尺寸,会受益匪浅,入门其他的网络也会相对容易
给出pytorch实现的Unet模型,用到了我所说的同层尺寸不变的trick
还是老规矩,高度集成,面向对象

import torch.nn as nnclass conv_block(nn.Module):def __init__(self, ch_in, ch_out):super(conv_block, self).__init__()self.conv = nn.Sequential(nn.Conv2d(ch_in, ch_out, kernel_size=3, stride=1, padding=1, bias=True),nn.BatchNorm2d(ch_out),nn.ReLU(inplace=True),nn.Conv2d(ch_out, ch_out, kernel_size=3, stride=1, padding=1, bias=True),nn.BatchNorm2d(ch_out),nn.ReLU(inplace=True))def forward(self, x):x = self.conv(x)return xclass up_conv(nn.Module):def __init__(self, ch_in, ch_out):super(up_conv, self).__init__()self.up = nn.Sequential(nn.Upsample(scale_factor=2),nn.Conv2d(ch_in, ch_out, kernel_size=3, stride=1, padding=1, bias=True),nn.BatchNorm2d(ch_out),nn.ReLU(inplace=True))def forward(self, x):x = self.up(x)return xclass U_Net(nn.Module):def __init__(self, img_ch=3, output_ch=1):super(U_Net, self).__init__()self.Maxpool = nn.MaxPool2d(kernel_size=2, stride=2)self.Conv1 = conv_block(ch_in=img_ch, ch_out=64)self.Conv2 = conv_block(ch_in=64, ch_out=128)self.Conv3 = conv_block(ch_in=128, ch_out=256)self.Conv4 = conv_block(ch_in=256, ch_out=512)self.Conv5 = conv_block(ch_in=512, ch_out=1024)self.Up5 = up_conv(ch_in=1024, ch_out=512)self.Up_conv5 = conv_block(ch_in=1024, ch_out=512)self.Up4 = up_conv(ch_in=512, ch_out=256)self.Up_conv4 = conv_block(ch_in=512, ch_out=256)self.Up3 = up_conv(ch_in=256, ch_out=128)self.Up_conv3 = conv_block(ch_in=256, ch_out=128)self.Up2 = up_conv(ch_in=128, ch_out=64)self.Up_conv2 = conv_block(ch_in=128, ch_out=64)self.Conv_1x1 = nn.Conv2d(64, output_ch, kernel_size=1, stride=1, padding=0)def forward(self, x):# encoding pathx1 = self.Conv1(x)x2 = self.Maxpool(x1)x2 = self.Conv2(x2)x3 = self.Maxpool(x2)x3 = self.Conv3(x3)x4 = self.Maxpool(x3)x4 = self.Conv4(x4)x5 = self.Maxpool(x4)x5 = self.Conv5(x5)# decoding + concat pathd5 = self.Up5(x5)d5 = torch.cat((x4, d5), dim=1)d5 = self.Up_conv5(d5)d4 = self.Up4(d5)d4 = torch.cat((x3, d4), dim=1)d4 = self.Up_conv4(d4)d3 = self.Up3(d4)d3 = torch.cat((x2, d3), dim=1)d3 = self.Up_conv3(d3)d2 = self.Up2(d3)d2 = torch.cat((x1, d2), dim=1)d2 = self.Up_conv2(d2)d1 = self.Conv_1x1(d2)return d1

分割线,觉得不错点个赞即可
狂推----深度学习项目架构模板传送门
狂推----启蒙的repo传送门

Pytorch Unet深入浅出相关推荐

  1. Unet(pytorch)——制作自己的数据集(二分类)

    下方是pytorch Unet的源码 可以直接点进去下载 github源码 一.准备自己的数据集 在Pytorch-UNet-master\data下创建 imgs和masks两个文件夹 其中imgs ...

  2. 教程: UNet/UNet++多类别图像分割,含数据集制作

    向AI转型的程序员都关注了这个号???????????? 人工智能大数据与深度学习  公众号:datayx 运行demo 下载数据集 https://pan.baidu.com/s/1PK3VoarN ...

  3. PyTorch的生态和模型部署

    PyTorch的生态和模型部署 1. PyTorch生态 前几章,我们学习了PyTorch的基本使用.能够定义和修改自己的模型.常用的训练技巧和PyTorch的可视化. PyTorch的强大,跟PyT ...

  4. 【组队学习】【35期】深入浅出Pytorch

    深入浅出Pytorch 航路开辟者:李嘉骐.牛志康.刘洋.陈安东 领航员:朱松青 航海士:管柯琴.宋泽山.林旭升 基本信息 开源内容:https://github.com/datawhalechina ...

  5. 深入浅出Pytorch:02 PyTorch基础知识

    深入浅出Pytorch 02 PyTorch基础知识 内容属性:深度学习(实践)专题 航路开辟者:李嘉骐.牛志康.刘洋.陈安东 领航员:叶志雄 航海士:李嘉骐.牛志康.刘洋.陈安东 开源内容:http ...

  6. 深入浅出Pytorch:01 课程大纲与PyTorch简介

    深入浅出Pytorch 01 课程大纲与PyTorch简介 内容属性:深度学习(实践)专题 航路开辟者:李嘉骐.牛志康.刘洋.陈安东 领航员:叶志雄 航海士:李嘉骐.牛志康.刘洋.陈安东 开源内容:h ...

  7. pytorch | 深度学习分割网络U-net的pytorch模型实现

    原文:https://blog.csdn.net/u014722627/article/details/60883185 pytorch | 深度学习分割网络U-net的pytorch模型实现 这个是 ...

  8. pytorch 矩阵相乘_深入浅出PyTorch(算子篇)

    Tensor 自从张量(Tensor)计算这个概念出现后,神经网络的算法就可以看作是一系列的张量计算.所谓的张量,它原本是个数学概念,表示各种向量或者数值之间的关系.PyTorch的张量(torch. ...

  9. 【小白学习PyTorch教程】十九、 基于torch实现UNet 图像分割模型

    @Author:Runsen 在图像领域,除了分类,CNN 今天还用于更高级的问题,如图像分割.对象检测等.图像分割是计算机视觉中的一个过程,其中图像被分割成代表图像中每个不同类别的不同段. 上面图片 ...

最新文章

  1. 个人理解卷积 池化 的用处
  2. 从Netflix的Hystrix框架理解服务熔断和服务降级
  3. 从睡姿就可以看出你的性格,据说非常准,快存!
  4. 编译原理——词法分析器
  5. snmp在企业网中的简单应用
  6. jboss-AS目录结构了解(资料摘取)
  7. 最长递增字串的三种做法
  8. 修改telnet提示并非_热血传奇:老玩家揭秘!这4个地方都被盛大修改过,第3个80%都想不到...
  9. Java中如何防止内存泄漏的发生
  10. java正则出现次数_正则表达式(二)—匹配次数的正则
  11. 黄聪:php实现关键词高亮
  12. linux查找文件夹名称
  13. Hello World CGAL 5.4入门
  14. python弹球游戏添加一个球_Python实现的弹球小游戏示例
  15. 简单模拟医院叫号系统
  16. word转freemarker和修改的步骤
  17. unity3d学习笔记-报错
  18. OH~My Godness ~!被点到了...
  19. GDT(全居描述符表)和LDT(局部描述符表)
  20. 星际争霸,FF反作弊对战平台

热门文章

  1. 新冠疫情中的区块链应用
  2. 大数据基础环境搭建的从spark到hadoop,从底层硬件到上层软件的一些必备注意事项
  3. User Namespace
  4. 操作系统-期末知识点第一章
  5. 5G 学习笔记 NG-RAN架构
  6. MySQL Binlog温故知新
  7. Docker实战(二)
  8. 【Apsara Clouder 认证】API 接口调用真题
  9. linux下more命令的使用
  10. 基金申购,赎回知识点