ECCV2020Workshop-PAN-270k参数量SISR网络 | Efficient Image Super-Resolution Using Pixel Attention
只说了参数量却没有比较速度,此外PA应用在大的网络中会降低性能!
论文地址:https://arxiv.org/pdf/2010.01073.pdf
Github地址:https://github.com/zhaohengyuan1/PAN
Abstract:
这项工作旨在设计一种用于图像超分辨率(SR)的轻量级卷积神经网络。在不考虑简单性的情况下,我们使用新提出的像素注意力方案构建了一个非常简洁有效的网络。像素注意力(PA)类似于公式中的通道注意力和空间注意力。不同之处在于,PA生成3D注意力图而不是1D注意力矢量或2D图。该注意力策略引入了较少的附加参数,但生成了更好的SR结果。在PA的基础上,我们分别为主分支和重建分支提出了两个构造块。第一个-SC-PA块的结构与自校准卷积相同,但具有我们的PA层。由于其双分支架构和注意力方案,该模块块比常规的残差/密集块效率更高。而第二个-UPA块结合了最近邻上采样,卷积和PA层。它以很少的参数成本提升了最终的重建质量。我们的最终模型PAN可以达到与轻量级网络SRResNet和CARN相似的性能,但是参数只有272K(SRResNet的17.92%和CARN的17.09%)。每个提出组件的有效性也通过消融研究得到验证。
PAN:
主要在main分支提出了SC-PA模块(SC+PA)和重建分支的U-PA块。SC是SCNet中的自校准卷积https://blog.csdn.net/weixin_42096202/article/details/105876498,PA就是H X W X C维度的注意力权重,其他网络早已经提出并使用了。
Pixel Attention Scheme(PA):
与通道/空间注意力机制的区别就是:
1.通道注意力生成1x1xC维度的注意力权重
2.空间注意力生成hxwx1维度的注意力权重
3.像素注意力生成hxwxc维度的注意力权重
网络结构也非常简单,就是1x1卷积+sigmoid激活函数。
SC-PA Block:
与SCNet中的SCConv有区别,对输入xn-1先使用两个1x1卷积进行分离,然后经过两个分支进行特征提取拼接。其中上分支使用带PA的网络结构。
U-PA Block:
结构比较简单,采用NN+Conv+PA+Conv结构,其中NN是最近邻上采样。
在以前的SR网络中,重构模块基本上由上采样和卷积层组成。 而且,很少有研究者调查过上采样阶段的注意力机制。 因此,在这项工作中,作者在重建模块中采用了PA层。 实验表明,引入PA可以显着提高最终性能,而参数成本却很少。 此外,本文还使用最近邻插值层作为上采样层以进一步节省参数。
Experiments:
1. Ablation Study:
A. CA/SA/PA比较
B. RB-PA/SC-PA比较
C. PA带来增益
2.VS SOTA:
3.应用于大网络,效果会降低
ECCV2020Workshop-PAN-270k参数量SISR网络 | Efficient Image Super-Resolution Using Pixel Attention相关推荐
- 以VGG为例,分析深度网络的计算量和参数量
本文原载于https://imlogm.github.io,转载请注明出处~ 摘要:我第一次读到ResNet时,完全不敢相信152层的残差网络,竟然在时间复杂度(计算量)上和16层的VGG是一样大的. ...
- 【Pytorch API笔记3】用torch.numel()来统计网络的参数量
如何统计网络的大小,可以试一试torch.numel()函数 torch.numel()函数,可以计算出单个tensor元素的个数 一.对单个tensor使用,求tensor元素的个数 x = tor ...
- A2F-轻量级SISR网络 | Lightweight Single-Image Super-Resolution Network with Attentive Auxiliary Feature
SISR领域刷PSNR指标貌似已经没有出路,转而轻量级的超分辨率网络更受欢迎 论文地址:https://arxiv.org/pdf/2011.06773.pdf Github地址:https://gi ...
- 性能媲美BERT却只有其1/10参数量? | 近期最火模型ELECTRA解析
快速传送门 论文链接 https://openreview.net/forum?id=r1xMH1BtvB Google开源地址 https://github.com/google-researc ...
- 6种方法计算神经网络参数量Params、计算量FLOPs、Macs简单代码
方法1:统计模型参数量 total = sum([param.nelement() for param in model.parameters()]) print("Number of pa ...
- 【YOLOv5-6.x】模型参数量param及计算量FLOPs解析
文章目录 前言 参数量param和计算量FLOPs简介 参数量 计算量 YOLOv5计算模型参数 训练和验证输出模型参数不同的原因分析 输出模型参数结果(以YOLOv5s-coco2017为例) 参数 ...
- 【pytorch】深度学习所需算力估算:flops及模型参数量
目录 计算量的要求是在于芯片的floaps(指的是gpu的运算能力) 参数量对应显存大小选型 常见的英伟达显卡的FLOPS和显存规格 pytorch中的floaps与显存计算方法 计算量的要求是在于芯 ...
- 【深度学习】深度学习中模型计算量(FLOPs)和参数量(Params)等的理解以及四种在python应用的计算方法总结
接下来要分别概述以下内容: 1 首先什么是参数量,什么是计算量 2 如何计算 参数量,如何统计 计算量 3 换算参数量,把他换算成我们常用的单位,比如:mb 4 对于各个经典网络,论述他们是计算量大还 ...
- 1.9万亿参数量,快手落地业界首个万亿参数推荐精排模型
2021-02-03 15:24:02 机器之心发布 机器之心编辑部 来,走近快手业界首个万亿参数推荐精排模型的内部构造. 个性化推荐系统旨在根据用户的行为数据提供「定制化」的产品体验,精准的推荐系统 ...
最新文章
- [云炬创业基础笔记]第七张创业团队测试8
- 7-28 搜索树判断 (25 分)(思路加详解) just easy!
- qt sizePolicy属性
- PAIP批量改名JS实现
- ssl证书不可信 群晖_上海云盾 CDN 网站 SSL 证书过期更新不生效问题排查和解决...
- C/C++[codeup 1929,]日期处理
- bat命令 延迟执行
- python少儿图形编程软件_现在最好的少儿编程软件是什么?
- [AndroidO] [RK3399] -- CH341驱动移植
- 四川取消英语计算机考试,2020年起,四川将不再承接全国英语等级考试,已有多省份停考!...
- 微信小程序弹窗禁止页面滚动
- Go语言使用之File操作
- css交集选择器的使用
- react + zarm 实现账单列表展示页
- 一个帮你记住密码的小程序
- 【打卡-Coggle竞赛学习2023年4月】图像检索与重复图像识别
- 传统大地测量数字考点
- 微信小程序picker组件 - 省市二级联动
- conda离线安装包
- 射影几何----综合射影几何基础英文在线阅读网页