只说了参数量却没有比较速度,此外PA应用在大的网络中会降低性能!
论文地址:https://arxiv.org/pdf/2010.01073.pdf
Github地址:https://github.com/zhaohengyuan1/PAN

Abstract:

这项工作旨在设计一种用于图像超分辨率(SR)的轻量级卷积神经网络。在不考虑简单性的情况下,我们使用新提出的像素注意力方案构建了一个非常简洁有效的网络。像素注意力(PA)类似于公式中的通道注意力和空间注意力。不同之处在于,PA生成3D注意力图而不是1D注意力矢量或2D图。该注意力策略引入了较少的附加参数,但生成了更好的SR结果。在PA的基础上,我们分别为主分支和重建分支提出了两个构造块。第一个-SC-PA块的结构与自校准卷积相同,但具有我们的PA层。由于其双分支架构和注意力方案,该模块块比常规的残差/密集块效率更高。而第二个-UPA块结合了最近邻上采样,卷积和PA层。它以很少的参数成本提升了最终的重建质量。我们的最终模型PAN可以达到与轻量级网络SRResNet和CARN相似的性能,但是参数只有272K(SRResNet的17.92%和CARN的17.09%)。每个提出组件的有效性也通过消融研究得到验证。

PAN:


主要在main分支提出了SC-PA模块(SC+PA)和重建分支的U-PA块。SC是SCNet中的自校准卷积https://blog.csdn.net/weixin_42096202/article/details/105876498,PA就是H X W X C维度的注意力权重,其他网络早已经提出并使用了。

Pixel Attention Scheme(PA):


与通道/空间注意力机制的区别就是:
1.通道注意力生成1x1xC维度的注意力权重
2.空间注意力生成hxwx1维度的注意力权重
3.像素注意力生成hxwxc维度的注意力权重
网络结构也非常简单,就是1x1卷积+sigmoid激活函数

SC-PA Block:

与SCNet中的SCConv有区别,对输入xn-1先使用两个1x1卷积进行分离,然后经过两个分支进行特征提取拼接。其中上分支使用带PA的网络结构。

U-PA Block:

结构比较简单,采用NN+Conv+PA+Conv结构,其中NN是最近邻上采样。

在以前的SR网络中,重构模块基本上由上采样和卷积层组成。 而且,很少有研究者调查过上采样阶段的注意力机制。 因此,在这项工作中,作者在重建模块中采用了PA层。 实验表明,引入PA可以显着提高最终性能,而参数成本却很少。 此外,本文还使用最近邻插值层作为上采样层以进一步节省参数。

Experiments:

1. Ablation Study:

A. CA/SA/PA比较

B. RB-PA/SC-PA比较
C. PA带来增益

2.VS SOTA:


3.应用于大网络,效果会降低

ECCV2020Workshop-PAN-270k参数量SISR网络 | Efficient Image Super-Resolution Using Pixel Attention相关推荐

  1. 以VGG为例,分析深度网络的计算量和参数量

    本文原载于https://imlogm.github.io,转载请注明出处~ 摘要:我第一次读到ResNet时,完全不敢相信152层的残差网络,竟然在时间复杂度(计算量)上和16层的VGG是一样大的. ...

  2. 【Pytorch API笔记3】用torch.numel()来统计网络的参数量

    如何统计网络的大小,可以试一试torch.numel()函数 torch.numel()函数,可以计算出单个tensor元素的个数 一.对单个tensor使用,求tensor元素的个数 x = tor ...

  3. A2F-轻量级SISR网络 | Lightweight Single-Image Super-Resolution Network with Attentive Auxiliary Feature

    SISR领域刷PSNR指标貌似已经没有出路,转而轻量级的超分辨率网络更受欢迎 论文地址:https://arxiv.org/pdf/2011.06773.pdf Github地址:https://gi ...

  4. 性能媲美BERT却只有其1/10参数量? | 近期最火模型ELECTRA解析

    快速传送门   论文链接 https://openreview.net/forum?id=r1xMH1BtvB Google开源地址 https://github.com/google-researc ...

  5. 6种方法计算神经网络参数量Params、计算量FLOPs、Macs简单代码

    方法1:统计模型参数量 total = sum([param.nelement() for param in model.parameters()]) print("Number of pa ...

  6. 【YOLOv5-6.x】模型参数量param及计算量FLOPs解析

    文章目录 前言 参数量param和计算量FLOPs简介 参数量 计算量 YOLOv5计算模型参数 训练和验证输出模型参数不同的原因分析 输出模型参数结果(以YOLOv5s-coco2017为例) 参数 ...

  7. 【pytorch】深度学习所需算力估算:flops及模型参数量

    目录 计算量的要求是在于芯片的floaps(指的是gpu的运算能力) 参数量对应显存大小选型 常见的英伟达显卡的FLOPS和显存规格 pytorch中的floaps与显存计算方法 计算量的要求是在于芯 ...

  8. 【深度学习】深度学习中模型计算量(FLOPs)和参数量(Params)等的理解以及四种在python应用的计算方法总结

    接下来要分别概述以下内容: 1 首先什么是参数量,什么是计算量 2 如何计算 参数量,如何统计 计算量 3 换算参数量,把他换算成我们常用的单位,比如:mb 4 对于各个经典网络,论述他们是计算量大还 ...

  9. 1.9万亿参数量,快手落地业界首个万亿参数推荐精排模型

    2021-02-03 15:24:02 机器之心发布 机器之心编辑部 来,走近快手业界首个万亿参数推荐精排模型的内部构造. 个性化推荐系统旨在根据用户的行为数据提供「定制化」的产品体验,精准的推荐系统 ...

最新文章

  1. [云炬创业基础笔记]第七张创业团队测试8
  2. 7-28 搜索树判断 (25 分)(思路加详解) just easy!
  3. qt sizePolicy属性
  4. PAIP批量改名JS实现
  5. ssl证书不可信 群晖_上海云盾 CDN 网站 SSL 证书过期更新不生效问题排查和解决...
  6. C/C++[codeup 1929,]日期处理
  7. bat命令 延迟执行
  8. python少儿图形编程软件_现在最好的少儿编程软件是什么?
  9. [AndroidO] [RK3399] -- CH341驱动移植
  10. 四川取消英语计算机考试,2020年起,四川将不再承接全国英语等级考试,已有多省份停考!...
  11. 微信小程序弹窗禁止页面滚动
  12. Go语言使用之File操作
  13. css交集选择器的使用
  14. react + zarm 实现账单列表展示页
  15. 一个帮你记住密码的小程序
  16. 【打卡-Coggle竞赛学习2023年4月】图像检索与重复图像识别
  17. 传统大地测量数字考点
  18. 微信小程序picker组件 - 省市二级联动
  19. conda离线安装包
  20. 射影几何----综合射影几何基础英文在线阅读网页

热门文章

  1. Vue3答题问卷H5实战
  2. (三)Kotlin加密/解密之AES和DES
  3. 【开源教程11】疯壳·开源蓝牙心率防水运动手环-整机功能代码讲解
  4. python生成曼德勃罗分形图形
  5. POJ 2455 Secret Milking Machine 二分枚举 + 最大流
  6. 鲑鱼和金枪鱼罐头的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
  7. 母猪公司和沙丁鱼罐头
  8. UDS诊断系列之三 ISO14229协议介绍(下)
  9. Python 通过URL打开图片
  10. 查询选修了95002选修的全部课程的学生学号。