[Paper Note] Densely Residual Laplacian Super-Resolution
Abstract
超分辨率卷积神经网络最近证明了单个图像的高质量恢复。然而,现有算法通常需要非常深的架构和长的训练时间。此外,目前用于超分辨率的卷积神经网络无法利用多种尺度的特征并对它们进行相同的权衡,从而限制了它们的学习能力。在本次论述中,我们提出了一种紧凑而精确的超分辨率算法,即Densely Residual Laplacian Network (DRLN))。所提出的网络在残余结构上采用级联残差,以允许低频信息的流动,以此来专注于学习中高级特征。此外,通过密集连接的残差块设置实现深度监督,这也有助于从高级复杂特征中学习。此外,我们建议拉普拉斯注意模拟关键特征,以了解特征映射之间的层间和层内依赖关系。此外,对低分辨率,噪声低分辨率和真实历史图像基准数据集的全面定量和定性评估表明,我们的DRLN算法在视觉和准确方面对最先进的方法表现出色。
Intro
主要贡献有四方面:
- 我们提出了密集连接的残差块和拉普拉斯注意网络,以实现精确的图像超分辨率。 我们的网络通过多快捷连接和多级表示实现了更好的性能
- 我们的新颖设计在残差架构上采用级联残差,可以帮助训练深层网络。 多样化的连接类型和DRLN中残差上的残差的级联有助于绕过足够的低频信息以学习更准确的表示
- 提出了拉普拉斯注意力机制,这个机制主要有两个目的:1)学习多个子带频率的特征,2)自适应不同尺度特征和模型特征依赖性。 拉普拉斯注意力进一步提高了我们网络的特征捕获能力
- 通过大量实验,我们证明DRLN是有效的
有利于实现更好的性能
Model
模型由四部分构成:特征提取,残差上的级联残差,上采样和重建。假设低分辨率输入图像和超分辨率输出图像分别由xxx和y^\hat{y}y^表示。为了正式说明模型实现,设fff为卷积层,τ\tauτ为非线性激活函数; 然后,我们定义了一个特征提取组件,它由一个卷积层组成,从低分辨率输入中提取原始特征。
(1)f0=Hf(x)f_{0}=H_{f}(x) \tag{1} f0=Hf(x)(1)
Hf(⋅)H_{f}(\cdot)Hf(⋅)是应用于低分辨率图像的卷积算子,接下来,将f0f_0f0传递给残差模块上的级联残差,称为HcrirH_{crir}Hcrir
(2)fr=Hcrir(f0)f_{r}=H_{c r i r}\left(f_{0}\right) \tag{2} fr=Hcrir(f0)(2)
其中frf_rfr是估计特征,Hcrir(⋅)H_{crir}(\cdot)Hcrir(⋅)是残差部件上的主要级联残差,它由级联在一起的密集残差拉普拉斯模块组成。 在我们的图像超分辨率知识方面,HcrirH_{crir}Hcrir的输出特征是创新的。与RCAN相比,我们的方法深度并不重要[7]; 然而,它提供了广泛的感受野和最好的结果。 在此之后,从残差模块上的级联残差中提取的深度特征frf_rfr通过上采样部件进行放大,
(3)fu=Hu(fr)f_{u}=H_{u}\left(f_{r}\right) \tag{3} fu=Hu(fr)(3)
Hu(⋅)H_u(\cdot)Hu(⋅) 和fuf_ufu 各自表示上采样操作和上采样后的特征。虽然Hu(⋅)H_u(\cdot)Hu(⋅)有多种选择,例如反卷积层[20],或最近邻上采样卷积[38]; 我们选择ESPCN [39]跟随[5],[7]的脚步。 接下来,fuf_ufu特征传到重建组件,该组件由一个卷积层组成,以预测超分辨RGB颜色通道作为输出,表示为
(4)y^=Hr(fu)\hat{y}=H_{r}\left(f_{u}\right) \tag{4} y^=Hr(fu)(4)
其中y^\hat{y}y^是估计的超分辨率图像,而Hr(⋅)H_r(\cdot)Hr(⋅)表示重建操作。
损失函数采用了l1l_1l1损失
(5)L(W)=1N∑i=1N∥DRLN(xi)−yi∥1L(\mathcal{W})=\frac{1}{N} \sum_{i=1}^{N}\left\|\operatorname{DRLN}\left(x_{i}\right)-y_{i}\right\|_{1} \tag{5} L(W)=N1i=1∑N∥DRLN(xi)−yi∥1(5)
DRLN(⋅)DRLN(\cdot)DRLN(⋅)是网络,WWW是参数集合
残差上的级联残差
在本节中,我们提供了有关残差结构的级联残差的更多细节,它具有分层结构并由级联块组成。 每个级联块有medium skip-connection(MSC)和级联特征链接,并且由dense residual Laplacian modules (DRLM)组成,每个DRLM由密集连接的残差单元,压缩单元和拉普拉斯金字塔注意力单元组成。 图2的下半部分显示了DRLM。
我们介绍了使用中长跳过连接的块的级联。 假设第m个级联块的第n个稠密残差拉普拉斯模块(DRLM)Bm,nB^{m,n}Bm,n给出如下:
(6)fn,m=f([Zu−0;m,Zu−1;m,Bu;m(wu,1;m),bu,1;m)f_{n, m}=f\left(\left[Z^{u-0 ; m}, Z^{u-1 ; m}, B^{u ; m}\left(w^{u, 1 ; m}\right), b^{u, 1 ; m}\right)\right. \tag{6} fn,m=f([Zu−0;m,Zu−1;m,Bu;m(wu,1;m),bu,1;m)(6)
其中fn,mf_{n,m}fn,m是来自第m级联块的第n稠密残差拉普拉斯模块(DRLM)的特征。 每个级联块由k个DRLM组成,因此级联块的输入与k DRLM的输出相加为fn+k,m=fn+k,m+fn,mf_{n + k,m} = f_{n + k,m} + f_{n,m}fn+k,m=fn+k,m+fn,m,即中等跳过连接(MSC),表示为
(7)fg=f0+Hcrir(Ww,b)f_{g}=f_{0}+H_{c r i r}\left(\mathcal{W}_{w, b}\right) \tag{7} fg=f0+Hcrir(Ww,b)(7)
其中Ww,bW_{w,b}Ww,b是在级联块中学习的权重和偏差。 添加中等长度跳过连接可以简化跨DRLM组的信息流,同时添加长跳连接(LSC)有助于通过级联块传输信息。 组特征fgf_gfg被传递到重建层以输出与网络输入相同数量的通道。 接下来,我们提供有关密集残差拉普拉斯模块及其子组件的信息。
稠密残差 拉普拉斯模块
我们采用的残差块具有传统的两个卷积层和两个ReLU结构,然后从残差块的输入中相加。
(8)Ri(wi,bi)=τ(f(τ)(f(wi,1,bi,1);bi,2)+Zi−1)R_{i}\left(w_{i}, b_{i}\right)=\tau\left(f(\tau)\left(f\left(w_{i, 1}, b_{i, 1}\right) ; b_{i, 2}\right)+Z_{i-1}\right) \tag{8} Ri(wi,bi)=τ(f(τ)(f(wi,1,bi,1);bi,2)+Zi−1)(8)
其中Zi−1Z_{i-1}Zi−1是先前卷积层或残差块的输出,而wi,jw_{i,j}wi,j是卷积层的权重,bi,jb_{i,j}bi,j是偏差(j∈{1,2})。 每个密集连接的残差单元具有三个具有密集连接的残差块。
(9)Rc=[Ri−1(wi−1,bi−1);Ri−2(wi−2,bi−2)]fR=Ri(wi,bi)=τ(f(f(fc))+Rc)\begin{array}{l}{R_{c}=\left[R_{i-1}\left(w_{i-1}, b_{i-1}\right) ; R_{i-2}\left(w_{i-2}, b_{i-2}\right)\right]} \\ {f_{R}=R_{i}\left(w_{i}, b_{i}\right)=\tau\left(f\left(f\left(f_{c}\right)\right)+R_{c}\right)}\end{array} \tag{9} Rc=[Ri−1(wi−1,bi−1);Ri−2(wi−2,bi−2)]fR=Ri(wi,bi)=τ(f(f(fc))+Rc)(9)
其中RcR_cRc是先前残差块的串联,fRf_RfR是密集连接的残余单元的最终输出。 然后,fRf_RfR特征通过压缩单元,压缩单元压缩由密集级联产生的大量参数。 压缩单元由单个卷积层组成,内核为1×1。 然后将压缩特征fc转发到拉普拉斯注意单元。
拉普拉斯注意力机制
实际上是把 h x w x c的组,先做全局平均,变成1 x 1 x c
(10)gd=1h×w∑i=1h∑i=1wfc(i,j)g_{d}=\frac{1}{h \times w} \sum_{i=1}^{h} \sum_{i=1}^{w} f_{c}(i, j) \tag{10} gd=h×w1i=1∑hi=1∑wfc(i,j)(10)
然后在这个基础上做核为3,5,7的卷积,相当于获取不同尺度特征,也就是不同的注意力。
(11)r3=τ(Df3(gd))r5=τ(Df5(gd))r7=τ(Df7(gd))\begin{aligned} r_{3} &=\tau\left(D_{f_{3}}\left(g_{d}\right)\right) \\ r_{5} &=\tau\left(D_{f_{5}}\left(g_{d}\right)\right) \\ r_{7} &=\tau\left(D_{f_{7}}\left(g_{d}\right)\right) \end{aligned} \tag{11} r3r5r7=τ(Df3(gd))=τ(Df5(gd))=τ(Df7(gd))(11)
最后展开一维
(12)gp=[r3;r5;r7]g_{p}=\left[r_{3} ; r_{5} ; r_{7}\right] \tag{12} gp=[r3;r5;r7](12)
此外,如等式11所示,拉普拉斯金字塔的输出与下采样算子卷积。 因此,为了对特征映射进行上采样和区分,然后将输出馈送到上采样运算符UfU_fUf,然后进行sigmoid激活,如下所示:
(13)Lp=σ(Uf(gp))L_{p}=\sigma\left(U_{f}\left(g_{p}\right)\right) \tag{13} Lp=σ(Uf(gp))(13)
作为最后一步,通过拉普拉斯注意单元的输入fcf_cfc自适应地重新调整sigmoid函数的输出(即Lp)来利用所学习的统计量:
(14)f^c=Lp×fc\hat{f}_{c}=L_{p} \times f_{c} \tag{14} f^c=Lp×fc(14)
[Paper Note] Densely Residual Laplacian Super-Resolution相关推荐
- 论文阅读 [TPAMI-2022] Densely Residual Laplacian Super-Resolution
论文阅读 [TPAMI-2022] Densely Residual Laplacian Super-Resolution 论文搜索(studyai.com) 搜索论文: Densely Residu ...
- Unfolding the Alternating Optimization for Blind Super Resolution
Unfolding the Alternating Optimization for Blind Super Resolution 论文信息 Paper: [NeurIPS2020] Unfoldin ...
- 漫谈深度学习在Super Resolution(超分辨率)领域上的应用
1.前言 清晨,师兄推荐给我一篇文章,关于利用DeepLearning思想进行图像超分辨恢复的.超分辨这个话题几年之前还是比较火爆的,无论是BiCube.SP.A*都给出了令人振奋的结果.但是细节恢复 ...
- Unsupervised Real-world Image Super Resolution via Domain-distance Aware Training
Unsupervised Real-world Image Super Resolution via Domain-distance Aware Training(基于域距离感知训练的非监督真实图像超 ...
- Google Pixel 超分辨率--Super Resolution Zoom
Google Pixel 超分辨率–Super Resolution Zoom Google 的Super Res Zoom技术,主要用于在zoom时增强画面细节以及提升在夜景下的效果. 文章的主要贡 ...
- CV之SR:超分辨率(Super resolution)的简介、使用方法、案例应用之详细攻略
CV之SR:超分辨率(Super resolution)的简介.使用方法.案例应用之详细攻略 目录 超分辨率(Super resolution)的简介 超分辨率(Super resolution)的使 ...
- 论文翻译:2019_Speech Super Resolution Generative Adversarial Network
博客作者:凌逆战 论文地址:基于GAN的音频超分辨率 博客地址:https://www.cnblogs.com/LXP-Never/p/10874993.html 论文作者:Sefik Emre Es ...
- 论文翻译:Speech Super Resolution Generative Adversarial Network
博客作者:凌逆战 论文地址:https://ieeexplore.ieee.org/document/8682215 博客地址:https://www.cnblogs.com/LXP-Never/p/ ...
- 【Super Resolution】超分辨率——SRCNN
SRCNN 01 闲聊--图像的超分辨率 02 SRCNN--超分和DL的结合 02-1 双三次插值 02-2 SRCNN的网络结构 02-3 Training 训练阶段 03 EXPERIMENTS ...
最新文章
- java有模糊查询吗,到底Java里的模糊查询语句该怎么写
- JS重复引用也会导致错误
- 中国SaaS死或生之五:目标、方法、钱,一个都不能少
- ppp chap 加密摘要_“网络工程师培训”基础教程:一文读懂PPP协议
- 你的项目是否真的需要 DevOps?
- mongo快速翻页方法(转载)
- THINK PHP 学习笔记20171115
- Netty源代码学习——EventLoopGroup原理:NioEventLoopGroup分析
- 设计模式分类以及六大设计原则(汇总篇)
- HiJson 百度网盘下载
- 计算机系统u盘判断,U盘真实容量检测工具
- 实验一 Linux基本操作
- 高德地图获取坐标距离_高德地图计算两坐标之间距离
- 68个Python内置函数详解,进阶必备
- flutter全屏背景图(包括appbar和状态栏)以及沉浸状态栏的设置
- 四川地区办理增值电信经营许可证
- PHP高级计算器的过程,PHP使用栈完成高级计算器-接上文模拟栈
- Linux挂载移动群晖硬盘,通过USB移动硬盘盒挂载群晖格式硬盘的方法
- 美国 计算机与艺术 专业,美国加州大学圣地亚哥分校计算机与艺术专业.pdf
- Java微信公众平台开发之获取地理位置
热门文章
- Power BI--DAX函数高阶
- 高考电子计算机改卷,高考电子阅卷潜规则,看看你的卷子在电脑中成什么样?...
- java课程设计:基于SSM实现个人健康管理系统
- mac os运行routeros路由器管理软件“winbox.exe”(winebottle方式)
- idea中groupid、artifactId、Version的意思
- Python基础--------Python要点
- e580显卡驱动_联想ThinkPad E580笔记本8代CPU如何win10改win7
- Config variable ${APACHE_RUN_DIR} is not defined
- TS使用crypto-js进行加密
- 云上的云:AVOS Cloud在云平台上构建云服务的经验分享