分组卷积(Group Convolution)

分组卷积在ResNext、ShuffleNet中都用到了

首先必须明确:
常规卷积(Convolution)的参数量是:

K*K*C_in*n
K是卷积核大小,C_in是input的channel数,n是卷积核个数(output的channel数)

分组卷积的参数量是:

K*K*C_in*n*1/g
K是卷积核大小,C_in是input的channel数,n是卷积核个数(output的channel数),g是分组数

DW(Depthwise Separable Conv)+PW(Pointwise Conv) 卷积

DW卷积也叫做深度可分离卷积,DW+PW的组合在MobileNet、ShuffleNet中都使用了

DW卷积的参数量是:

K*K*C_in (此时C_in = n)
K是卷积核大小,C_in是input的channel数,DW卷积中,卷积核个数与input的channel数相同

PW卷积的参数量是:

1*1*C_in*n
PW卷积的卷积核为1*1大小,C_in是input的channel数,n是卷积核个数(output的channel数)

总结

  • 分组卷积的参数量是常规卷积(Convolution)参数量的1/g, 其中g是分组数
  • DW卷积的参数量是常规卷积(Convolution)参数量的1/n, 其中n是卷积核个数
  • 当分组卷积中的g=C_in, n=C_in时,DW==分组卷积(将每个channel自己作为一组)

Residuals与Inverted Residuals

bottleneck与linearbottleneck

Bottleneck指的是瓶颈层,Bottleneck结构其实就是为了降低参数量,Bottleneck 三步走是先 PW 对数据进行降维,再进行常规卷积核的卷积,最后 PW 对数据进行升维(类似于沙漏型)。

这里侧重的是网络中的降(升)维->卷积->升(降)维结构,而不关注shortcut

Linear Bottlececk: 针对MobileNet v2中的Inverted residual block结构的最后一个1*1 卷积层使用了线性激活函数,而不是relu激活函数

分组卷积与DW卷积、Residuals与Inverted Residuals、bottleneck与linearbottleneck相关推荐

  1. 普通卷积、Depthwise(DW)卷积、Pointwise(PW)卷积、Atrous卷积

    转发 https://blog.csdn.net/T_J_S/article/details/94629637 https://www.zhihu.com/question/49630217 普通卷积 ...

  2. 深度学习网络结构笔记----Depthwise卷积与Pointwise卷积--深度可分卷积-- GoogleNet,Xception,MobileNetv1--v3

    目录 1,常规卷积操作 1,什么是Depthwise Convolution 3,什么是Pointwise Convolution 4 ,参数对比 5,Depthwise Separable Conv ...

  3. 卷积神经网络的改进 —— 分组卷积、DW 与 PW

    1.普通卷积 对于一张5×5像素.三通道彩色输入图片(shape为5×5×3).经过3×3卷积核的卷积层(假设输出通道数为4,则卷积核shape为3×3×3×4),最终输出4个Feature Map, ...

  4. 分组卷积/转置卷积/空洞卷积/反卷积/可变形卷积/深度可分离卷积/DW卷积/Ghost卷积/

    文章目录 1. 常规卷积 2. 分组卷积 3. 转置卷积 4. 空洞卷积 5. 可变形卷积 6. 深度可分离卷积(Separable Convolution) 6.1 Depthwise Convol ...

  5. 卷积、转置卷积、可分离卷积、分组卷积、空洞卷积的理解

    文章目录 卷积.转置卷积.可分离卷积.分组卷积.空洞卷积的理解 转置卷积 深度可分离卷积 分组卷积 空洞卷积 卷积.转置卷积.可分离卷积.分组卷积.空洞卷积的理解 这里主要是汇总一些本人觉得比较好的文 ...

  6. DW卷积、PW卷积、转置卷积、膨胀卷积(空洞卷积)、可变形卷积一次看个够

    Depthwise Separable Convolution也就是深度可分离卷积,应该见过吧,它其实是由depthwise卷积和pointwise卷积组合而成,同样可以用来提取图像特征,但是它的计算 ...

  7. 常规卷积,DW卷积和PW卷积的区别

    常规卷积,DW卷积和PW卷积的区别 转载于卷积神经网络中的Separable Convolution 卷积神经网络在图像处理中的地位已然毋庸置疑.卷积运算具备强大的特征提取能力.相比全连接又消耗更少的 ...

  8. 对深度可分离卷积、分组卷积、扩张卷积、转置卷积(反卷积)的理解

    参考: https://zhuanlan.zhihu.com/p/28749411 https://zhuanlan.zhihu.com/p/28186857 https://blog.yani.io ...

  9. MobilenetV2学习笔记 --- MobileNetV2: Inverted Residuals and Linear Bottlenecks

    论文:https://arxiv.org/abs/1801.04381 代码:https://github.com/tonylins/pytorch-mobilenet-v2 此外给出Mobilene ...

  10. 轻量型网络之MobileNetV2: Inverted Residuals and Linear Bottlenecks论文学习

    0.摘要 针对残差结构提出来倒残差结构(Inverted Residuals),由于使用的是1x1卷积在resnet中也叫瓶颈层,所以这个模块最终叫做具有线性瓶颈的倒残差结构(the inverted ...

最新文章

  1. activemq 异步和同步接收
  2. Java的登陆验证问题
  3. 让AI学习如何玩游戏 OpenAI打造强化学习通用模型
  4. 记录cocos2d-x3.0版本号更改内容官方说明
  5. 第四十七节,random 随机数模块
  6. Linux 基本命令(七)--cat,less,more,head,tail,nl 常用命令
  7. 1.4 Linux文件系统与目录结构
  8. Matlab图像分割
  9. 无线路由器密码破解最新教程完整版
  10. 2014全国计算机等级考试四级数据库工程师考试大纲,全国计算机等级考试四级数据库工程师考试大纲...
  11. java近义词,java实现近义词维护
  12. tof摄像头手势识别_全面解析深度摄像头(TOF Camera)的原理
  13. 游戏原画,掌握角色设计2个小技巧,你也能画好角色
  14. Dubbo3.0 整合 Nacos
  15. 虚拟机配置DNS服务器
  16. 【麒麟操作系统】命令行下配置网卡及DNS
  17. 1.5 mysql练习题37道,做完这些mysql练习题,立马让你进阶。(附答案)
  18. Supervised Contrastive Learning For Recommendation
  19. 基于GPT硬盘模式重装win10操作系统
  20. vue-cli的webpack模板项目配置文件分析[转]

热门文章

  1. 如何被猎头猎杀:猎头慕名而来的绝招
  2. 缠中说禅学习整理——线段定义及划分(一)
  3. How-to: 利用Web Camera模拟Windows Phone 7的重力加速度传感器
  4. 大学四年对比度:看的见的青春渐变
  5. 华硕路由域名访问_动态域名是什么?
  6. 猜图达人小游戏V4.1小程序源码可开流量主
  7. pycharm将计算出来的数据导入进数据库MYSQL
  8. Python100例——第五章----不定方程的解
  9. 称重管理系统服务器不通,称重管理系统使用方法(二)
  10. 家里蹲太孤单?来用python画一只单身狗吧