说明分组卷积之前我们用一张图来体会一下一般的卷积操作。

从上图可以看出,一般的卷积会对输入数据的整体一起做卷积操作,即输入数据:H1×W1×C1;而卷积核大小为h1×w1,通道 为C1,一共有C2个,然后卷积得到的输出数据就是H2×W2×C2。这里我们假设输出和输出的分辨率是不变的。主要看这个过 程是一气呵成的,这对于存储器的容量提出了更高的要求。
但是分组卷积明显就没有那么多的参数。先用图片直观地感受一下分组卷积的过程。对于上面所说的同样的一个问题,分组卷 积就如下图所示

可以看到,图中将输入数据分成了2组(组数为g),需要注意的是,这种分组只是在深度上进行划分,即某几个通道编为一 组,这个具体的数量由(C1/g)决定。因为输出数据的改变,相应的,卷积核也需要做出同样的改变。即每组中卷积核的深度 也就变成了(C1/g),而卷积核的大小是不需要改变的,此时每组的卷积核的个数就变成了(C2/g)个,而不是原来的C2 了。然后用每组的卷积核同它们对应组内的输入数据卷积,得到了输出数据以后,再用concatenate的方式组合起来,终的 输出数据的通道仍旧是C2。也就是说,分组数g决定以后,那么我们将并行的运算g个相同的卷积过程,每个过程里(每组), 输入数据为H1×W1×C1/g,卷积核大小为h1×w1×C1/g,一共有C2/g个,输出数据为H2×W2×C2/g。
举个例子:
Group conv本身就极大地减少了参数。比如当输入通道为256,输出通道也为256,kernel size为3×3,不做Group conv参数 为256×3×3×256。实施分组卷积时,若group为8,每个group的input channel和output channel均为32,参数为 8×32×3×3×32,是原来的八分之一。而Group conv后每一组输出的feature maps应该是以concatenate的方式组合。 Alex认 为group conv的方式能够增加 filter之间的对角相关性,而且能够减少训练参数,不容易过拟合,这类似于正则的效果

组卷积(group convolution)相关推荐

  1. 卷积网络基础知识---Group Convolution分组卷积

    Group Convolution分组卷积,以及Depthwise Convolution和Global Depthwise Convolution https://www.cnblogs.com/s ...

  2. group convolution (分组卷积)的计算量详解、卷积计算量特征图大小,池化特征图大小、深度通道deep-wise 卷积

    group convolution (分组卷积)的计算量详解.卷积计算量特征图大小,池化特征图大小.深度通道deep-wise 卷积 提示:最近忙着各种提前批的笔试面试,所以没太多空刷题了都,先复盘一 ...

  3. 可分离卷积(Separable convolution)详解

    可分离卷积 可分离卷积包括空间可分离卷积(Spatially Separable Convolutions)和深度可分离卷积(depthwise separable convolution). 假设f ...

  4. 输出分组_通过分组卷积的思想,巧妙的代码实现动态卷积(Dynamic Convolution)

    论文的题目为<Dynamic Convolution: Attention over Convolution Kernels> paper的地址https://arxiv.org/pdf/ ...

  5. 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一)

    本文属于图神经网络的系列文章,文章目录如下: 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一) 从图(Graph)到图卷积(Graph Convolutio ...

  6. 各种卷积类型Convolution

    从最开始的卷积层,发展至今,卷积已不再是当初的卷积,而是一个研究方向.在反卷积这篇博客中,介绍了一些常见的卷积的关系,本篇博客就是要梳理这些有趣的卷积结构. 阅读本篇博客之前,建议将这篇博客结合在一起 ...

  7. 转置卷积Transposed Convolution

    转置卷积Transposed Convolution 我们为卷积神经网络引入的层,包括卷积层和池层,通常会减小输入的宽度和高度,或者保持不变.然而,语义分割和生成对抗网络等应用程序需要预测每个像素的值 ...

  8. VarGFaceNet:地平线提出轻量级、有效可变组卷积的人脸识别网络

    作者 | Mengjia Yan.Mengao Zhao.Zining Xu.Qian Zhang.Guoli Wang.Zhizhong Su 译者 | 刘畅 编辑 | Jane 出品 | AI科技 ...

  9. 【Pytorch神经网络理论篇】 32 PNASNet模型:深层可分离卷积+组卷积+空洞卷积

    1 PNASNet模型简介 PNASNet模型是Google公司的AutoML架构自动搜索所产生的模型,它使用渐进式网络架构搜索技术,并通过迭代自学习的方式,来寻找最优网络结构.即用机器来设计机器学习 ...

  10. 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络 (二)

    在从图(Graph)到图卷积(Graph Convolution): 漫谈图神经网络 (一)中,我们简单介绍了基于循环图神经网络的两种重要模型,在本篇中,我们将着大量笔墨介绍图卷积神经网络中的卷积操作 ...

最新文章

  1. 泉州服务器维修,泉州云服务器
  2. LeetCode【217. Contains Duplicate】
  3. Cloud for Customer手机应用的deviceready事件是何时何处被抛出的
  4. 在ASP.NET Core微服务架构下使用数据库切分和扩展
  5. 怎样选择合适的PoE交换机?POE交换机选用小常识!
  6. Storm编程模型总结
  7. 风机桨叶故障诊断(七) 滑动窗与非极大值抑制NMS
  8. OpenCV阈值处理函数cv::threshold()
  9. 无法安装Windows Live“OnCatalogResult:0x80190194”错误的解决方法
  10. 书------编程书(FoxPro)
  11. 关于如何关闭Windows错误报告
  12. 水晶报表 文件 xxxx{354234-523432-5235-325-2523}.rpt 文件内部出错:无法加载数据解决方案
  13. 2018 Multi-University Training Contest 3 hdu多校第三场 Problem A:Ascending Rating(单调队列)
  14. 华硕鹰眼ZenFone Zoom推动潮流:比肩专业相机几率几何?
  15. 在网上请不要惹一个程序员
  16. Android开发真实谎言:个人无空间nbsp;…
  17. 将要被人工智能取代的十大职业
  18. 数字化原住民|ONES 人物
  19. 学术届职称与凡人修仙传等级对应关系
  20. 素数的平方阶群必为Abel群

热门文章

  1. Excel-基本操作
  2. mybatis笔记之使用Mapper接口注解
  3. 模板模式与策略模式/template模式与strategy模式/行为型模式
  4. Nginx+Lua 积累
  5. (转载)芹菜拌豆腐皮 降压小凉菜
  6. C++中的内存分配new()
  7. 华尔街日报评2010科技创新奖
  8. Silverlight 2动态创建矩形对象(附完整源代码)
  9. Jquery------三种选择器(基本选择器、过滤选择器、表单过滤选择器)
  10. 20190228 搭建Hadoop基础环境