论文:CBAM: Convolutional Block Attention Module

代码: code

目录

前言

1.什么是CBAM?

(1)Channel attention module(CAM)

(2)Spatial attention module(SAM)

(3)CAM和SAM组合形式

2.消融实验

(1)Channel attention

(2)Spatial attention

(3)Channel attention+spatial attention

3.图像分类

4.目标检测

5.CBAM可视化

6.Pytorch 代码实现

总结


前言

CBAM( Convolutional Block Attention Module )是一种轻量级注意力模块的提出于2018年,它可以在空间维度和通道维度上进行Attention操作。论文在Resnet和MobileNet上加入CBAM模块进行对比,并针对两个注意力模块应用的先后进行实验,同时进行CAM可视化,可以看到Attention更关注目标物体。

1.什么是CBAM?

CBAM(Convolutional Block Attention Module)是轻量级的卷积注意力模块,它结合了通道和空间的注意力机制模块。

上图可以看到,CBAM包含CAM(Channel Attention Module)和SAM(Spartial Attention Module)两个子模块,分别进行通道和空间上的Attention。这样不只能够节约参数和计算力,并且保证了其能够做为即插即用的模块集成到现有的网络架构中去。

由上图所示,有输入、通道注意力模块、空间注意力模块和输出组成。输入特征,然后是通道注意力模块一维卷积,将卷积结果乘原图,将CAM输出结果作为输入,进行空间注意力模块的二维卷积,再将输出结果与原图相乘。

(1)Channel attention module(CAM)

通道注意力模块通道维度不变,压缩空间维度。该模块关注输入图片中有意义的信息(分类任务就关注因为什么分成了不同类别)。

图解:将输入的feature map经过两个并行的MaxPool层和AvgPool层,将特征图从C*H*W变为C*1*1的大小,然后经过Share MLP模块,在该模块中,它先将通道数压缩为原来的1/r(Reduction,减少率)倍,再扩张到原通道数,经过ReLU激活函数得到两个激活后的结果。将这两个输出结果进行逐元素相加,再通过一个sigmoid激活函数得到Channel Attention的输出结果,再将这个输出结果乘原图,变回C*H*W的大小。

通道注意力公式:

CAM与SEnet的不同之处是加了一个并行的最大池化层,提取到的高层特征更全面,更丰富。论文中也对为什么如此改动做出了解释。

AvgPool & MaxPool对比实验

在channel attention中,表1对于pooling的使用进行了实验对比,发现avg & max的并行池化的效果要更好。这里也有可能是池化丢失的信息太多,avg&max的并行连接方式比单一的池化丢失的信息更少,所以效果会更好一点。

(2)Spatial attention module(SAM)

 空间注意力模块空间维度不变,压缩通道维度。该模块关注的是目标的位置信息

图解:将Channel Attention的输出结果通过最大池化和平均池化得到两个1*H*W的特征图,然后经过Concat操作对两个特征图进行拼接,通过7*7卷积变为1通道的特征图(实验证明7*7效果比3*3好),再经过一个sigmoid得到Spatial Attention的特征图,最后将输出结果乘原图变回C*H*W大小。

空间注意力公式:

(3)CAM和SAM组合形式

通道注意力和空间注意力这两个模块能够以并行或者串行顺序的方式组合在一块儿,关于通道和空间上的串行顺序和并行作者进行了实验对比,发现先通道再空间的结果会稍微好一点。具体实验结果如下:

由表三可以看出,基于ResNet网络,两个Attention模块按Channel Attention + Spatial Attention的顺序效果会更好一些。

2.消融实验

(1)Channel attention
首先是不同的通道注意力结果比较,平均池化、最大池化和两种联合使用并使用共享MLP来进行推断保存参数,结果如下:

首先,参数量和内存损耗差距不大,而错误率的提高,显然两者联合的方法更优。

(2)Spatial attention

对比7*7卷积核和3*3卷积核的效果,结果7*7卷积核效果更好

(3)Channel attention+spatial attention

对比SEnet、CAM和SAM并行、SAM+CAM和CAM+SAM的效果,最终CAM+SAM效果最好 。

3.图像分类

再数据集ImageNet-1K上使用ResNet网络进行对比实验

4.目标检测

数据集:MS COCO和VOC 2007
如下表所示:
MS COCO上,CBAM在识别任务上泛化性能较基线网络有了显著提高。。

如下表:
VOC 2007中,采用阶梯检测框架,并将SE和CBAM应用于检测器。CBAM极大的改善了所有强大的基线与微不足道的额外参数。

5.CBAM可视化

本文利用Grad CAM对不一样的网络进行可视化后,能够发现,引入 CBAM 后,特征覆盖到了待识别物体的更多部位,而且最终判别物体的几率也更高,这表示注意力机制的确让网络学会了关注重点信息。

6.Pytorch 代码实现

代码实现

import torch
import torch.nn as nnclass CBAMLayer(nn.Module):def __init__(self, channel, reduction=16, spatial_kernel=7):super(CBAMLayer, self).__init__()# channel attention 压缩H,W为1self.max_pool = nn.AdaptiveMaxPool2d(1)self.avg_pool = nn.AdaptiveAvgPool2d(1)# shared MLPself.mlp = nn.Sequential(# Conv2d比Linear方便操作# nn.Linear(channel, channel // reduction, bias=False)nn.Conv2d(channel, channel // reduction, 1, bias=False),# inplace=True直接替换,节省内存nn.ReLU(inplace=True),# nn.Linear(channel // reduction, channel,bias=False)nn.Conv2d(channel // reduction, channel, 1, bias=False))# spatial attentionself.conv = nn.Conv2d(2, 1, kernel_size=spatial_kernel,padding=spatial_kernel // 2, bias=False)self.sigmoid = nn.Sigmoid()def forward(self, x):max_out = self.mlp(self.max_pool(x))avg_out = self.mlp(self.avg_pool(x))channel_out = self.sigmoid(max_out + avg_out)x = channel_out * xmax_out, _ = torch.max(x, dim=1, keepdim=True)avg_out = torch.mean(x, dim=1, keepdim=True)spatial_out = self.sigmoid(self.conv(torch.cat([max_out, avg_out], dim=1)))x = spatial_out * xreturn xx = torch.randn(1,1024,32,32)
net = CBAMLayer(1024)
y = net.forward(x)
print(y.shape)

总结

  1. CBAM中作者对两个注意力机制使用的先后顺序做了实验,发现通道注意力在空间注意力之前效果最好。
  2. 作者在实验中应用了grad-CAM来可视化feature map,是个非常有用的可视化手段,在图像分类任务中可以观察feature map的特征,解释了为什么模型将原图分类到某一类的结果。
  3. 加入CBAM模块不一定会给网络带来性能上的提升,受自身网络还有数据等其他因素影响,甚至会下降。如果网络模型的泛化能力已经很强,而你的数据集不是benchmarks而是自己采集的数据集的话,不建议加入CBAM模块。CBAM性能虽然改进的比SE高了不少,但绝不是无脑加入到网络里就能有提升的。也要根据自己的数据、网络等因素综合考量。

CBAM——即插即用的注意力模块(附代码)相关推荐

  1. YOLOV5 的小目标检测网络结构优化方法汇总(附代码)

    点击上方"3D视觉工坊",选择"星标" 干货第一时间送达 作者丨南山 来源丨 AI约读社 YOLOv5是一种非常受欢迎的单阶段目标检测,以其性能和速度著称,其结 ...

  2. 注意力机制BAM和CBAM详细解析(附代码)

    论文题目①:BAM: Bottleneck Attention Module 论文题目②:CBAM:CBAM: Convolutional Block Attention Module Bottlen ...

  3. 【附代码实现】Attention注意力模块的keras\tf实现(ECA、BAM、Coordinate、DualAttention、GlobalContext等)

    文章目录 前言 1. ECA 2. Coordinate attention 3. Dual attention 4. FrequencyChannelAttention 5. BAM 6.Globa ...

  4. 即插即用 | 超越CBAM,全新注意力机制,GAM表现卓著(附Pytorch实现)

    为了提高计算机视觉任务的性能,人们研究了各种注意力机制.然而,以往的方法忽略了保留通道和空间方面的信息以增强跨维度交互的重要性.因此,本文提出了一种通过减少信息弥散和放大全局交互表示来提高深度神经网络 ...

  5. 最强通道注意力来啦!金字塔分割注意力模块,即插即用,效果显著,已开源!...

    导读 本文是通道注意力机制的又一重大改进,主要是在通道注意力的基础上,引入多尺度思想,本文主要提出了金字塔分割注意力模块,即PSA module.进一步,基于PSA ,我们将PSA注意力模块替换Res ...

  6. 图像处理注意力机制Attention汇总(附代码)

    原文链接: 图像处理注意力机制Attention汇总(附代码,SE.SK.ECA.CBAM.DA.CA等) 1. 介绍 注意力机制(Attention Mechanism)是机器学习中的一种数据处理方 ...

  7. SE 注意力模块 原理分析与代码实现

    前言 本文介绍SE注意力模块,它是在SENet中提出的,SENet是ImageNet 2017的冠军模型:SE模块常常被用于CV模型中,能较有效提取模型精度,所以给大家介绍一下它的原理,设计思路,代码 ...

  8. ECA 注意力模块 原理分析与代码实现

    前言 本文介绍ECA注意力模块,它是在ECA-Net中提出的,ECA-Net是2020 CVPR中的论文:ECA模块可以被用于CV模型中,能提取模型精度,所以给大家介绍一下它的原理,设计思路,代码实现 ...

  9. 《最新开源 随插即用》SAM 自增强注意力深度解读与实践(附代码及分析)

    写在前面 大家好,我是cv君,前段时间忙碌工作,许久没更新,越发觉得对不起csdn的读者们,决定继续加油保持更新,保持一周2-3篇的高频率和高质量文章更新:论文分析.代码讲解.代码实操和训练.优化部署 ...

最新文章

  1. UI控件问题和XCode编译警告和错误解决方法集锦 (持续更新ing)
  2. NIO 之 ByteBuffer实现原理
  3. centos7安装mysql日志空白_centos7安装Mysql爬坑记录 - G
  4. 基于python、虹软实现人脸检测,人脸识别
  5. vo listVO paggerHelper mapper使用原则
  6. java中集合选取怎么选_集合中的可选
  7. 二开微信表情包小程序去授权版+网站后端
  8. Core 3.1中的应用程序设置如何在多环境场景中工作
  9. 注意:不能将文件名叫做email.py,否则会报 ImportError: No module named mime.text
  10. 数据结构基础_二分法查找
  11. Android-将RGB彩色图转换为灰度图
  12. 服务器指令学习记录-----ska暑期训练
  13. org.postgresql.util.psqlexception总结
  14. 制作属于自己的QQ机器人,超详细
  15. 在java中使用JDBC连接mysql数据库时的服务器时区值无法识别或表示多个时区的问题解决方案
  16. Gohead学习笔记
  17. 【图像分割】基于差分进化算法优化模糊熵实现多级图像阈值分割附matlab代码
  18. 第二章:华软代码生成器模板配置
  19. GRPC、WCF、WebAPI性能比较
  20. hough变换连接边缘matlab,matlab图像处理hough变换程序执行问题

热门文章

  1. 【音乐随想】变化,理想与坚持
  2. 软件开发全文档下载(史上最详细版)
  3. 【雷达成像】基于CS算法实现合成孔径星载观测雷达数据成像附matlab代码
  4. PremiumSoft Navicat for MySQL 12.1.19中文版下载安装和注册机激活教程
  5. MYSQL修改报错 You can‘t specify target table ‘表名‘ for update in FROM clause
  6. Trimmomatic
  7. 【Tableau server 】Tableau 如何用javaScript嵌入web前端网页?
  8. 一道有意思的js面试题
  9. UE 命令行创建与使用
  10. GREATEST LEAST