Remote Sensing Image Super-Resolution Using Novel Dense-Sampling Networks

(基于新型密集采样网络的遥感图像超分辨率)

超分辨率技术在提高遥感数据的空间分辨率、克服星载成像系统的物理限制等方面发挥着重要作用。基于卷积神经网络(CNN)的方法虽然取得了很好的性能,但在处理大规模超分辨任务时表现出有限的能力。遥感数据空间分布的复杂性进一步增加了重建的难度。为了探索遥感影像的大尺度超分辨率重建问题,本文提出了一种稠密采样超分辨率网络(DSSR)。具体而言,提出了一种密集采样机制,重用一个升尺度器对多个低维特征进行升采样,使网络在重构时能够联合考虑多个层次的先验信息.为了增强网络的表示能力,引入了一种融合了宽激活和宽注意机制的宽特征注意块(WAB)。此外,提出了链式训练策略,通过借用预先训练好的小规模模型的知识,进一步优化大规模模型的性能。

介绍

超分辨率(SR)重建是遥感领域的一个重要研究方向。它的目标是通过从低分辨率(LR)观测数据中重建高频信息来提高图像分辨率。一般而言,星载成像系统的空间分辨率不可避免地受到轨道高度、重访周期和瞬时视场等因素的限制。这与照相机等普通成像设备有很大不同。因此,一旦卫星发射,SR是进一步提高空间分辨率的最有效的后处理技术。

Convolutional Neural Network-Based Single-Image Super-Resolution

针对图像超分辨率,人们提出了基于插值的方法、基于重构的方法、基于学习的方法,其中基于卷积神经网络(CNN)的单幅图像超分辨率(SISR)已成为主流。根据上采样方式的不同,我们将基于神经网络的SISR方法大致分为两类:早期上采样方法和后期上采样方法。
早期的上采样方法首先使用双三次插值作为上采样算子来将LR图像输入放大以匹配期望的输出大小。超分辨率卷积神经网络(SRCNN)作为一项开创性工作,仅使用卷积层就实现了超分辨率图像。它成功地证明了CNN可以用于学习LR空间和高分辨率(HR)空间之间的端到端映射,并实现了良好的重建性能。然而,它所采用的三层结构依赖于小图像区域的上下文,并且具有有限的表示能力。为了克服这些缺点,Kim等人[8]提出了一种非常深的卷积网络(VDSR),其多次级联小滤波器以实现利用分布在大图像区域上的上下文信息并提高重构能力。然而,简单地添加权重层引入了大量的参数,因此,可能出现过拟合。因此,他们进一步提出了深度递归卷积网络(DRCN)。通过重复使用相同的卷积层,DRCN在不引入额外参数的情况下实现了改进的超分辨性能。类似地,Tai等人后来分别基于使用递归连接的卷积层和递归链接的单元提出了深度递归残差网络(DRRN)和持久记忆网络(MemNet)。尽管相对于SRCNN取得了显著的改进,但他们采用的早期上采样设计被证明是次优的。具体地,在网络的第一层之前或第一层处的插值操作不能带来任何可用的先验信息,并且经常导致可见的重建伪影。此外,为了处理更大尺寸的输入,网络必须在高维特征空间上计算,产生比在LR空间上工作 r 2 r^2 r2倍的计算预算(r指示超分辨因子,即,放大因子)。这种低效率的设计很快被后期上采样方案所取代。
后期上采样方法仅在网络末端将分辨率从低维空间投影到高维空间。这允许网络通过LR空间中的非线性卷积直接执行特征提取。反卷积层和有效子像素卷积层是用于在后期上采样网络中恢复分辨率的普遍选择。快速超分辨率卷积神经网络(FSRCNN)是SRCNN的重新设计版本,首次尝试在网络末端使用反卷积层来聚合和上采样先前学习的特征。其后期上采样结构实现了比SRCNN更高效的重建。最近的其他工作,如SRDenseNet 和信息蒸馏网络(IDN)也选择反卷积层作为其后期上采样算子。高效子像素卷积层首次出现在高效子像素卷积神经网络(ESPCN)中。其核心思想是学习一系列放大滤波器,以便直接从LR特征图生成HR图像,每个特征图使用一个放大滤波器。与去卷积层相比,子像素卷积层引入较少的棋盘状伪像,并且在训练时产生非常小的附加计算成本。ESPCN的工作对后续的研究具有启发作用。Lim等人使用子像素卷积作为后上采样器,优化了He等人的ResNet架构,并证明了表示宽度对于SR网络具有重要意义。尽管他们获得了优异的超分辨性能,但他们使用的特征信息极其有限。为了促进卷积层之间的信息和梯度的传播,级联残差网络(CARN)在其后期上采样结构中构造有效的残差块和级联连接。多尺度残差网络(MSRN)提出了多尺度残差块,并将所有块的输出级联以充分利用分层特征。虽然CARN和MSRN在多个层面上考虑了先验信息,但他们忽略了这些信息之间的差异。对所有特征信息一视同仁,在一定程度上降低了网络的区分学习能力。Choi和Kim 随后提出了一种非线性选择单元来控制重建以区分信息的使用。此外,注意机制可以将可用的处理资源导向信息量最大的特征,通过与后期上采样网络耦合,有效地优化了超分辨过程。在CVPR 2019上发表的最新作品,如常微分方程启发的超分辨率网络(OISR)和自然和现实的超分辨率网络(NatSR),也采用了基于子像素卷积的后期上采样结构。
对于为遥感图像SR设计的网络,类似于早期上采样设计。其他工作,例如局部-全局组合网络、耦合-鉴别生成对抗网络、深度记忆连接网络和多尺度残差神经网络(MRNN)选择通过在网络末端使用一个或多个卷积层来增加分辨率。对于最近的后期上采样网络,高效的子像素卷积是学习上缩放操作的最流行的选择。例如,由Dong等人开发的多知觉注意网络(MPSR)采用子像素卷积作为其多知觉学习框架中的后期升级器。残差密集反投影网络修改了Haris等人提出的交互式上采样和下采样方案,利用子像素卷积也执行后期上采样。其他模型,如基于残差信道注意力的网络、深度蒸馏递归网络和密集残差生成对抗网络都是基于子像素卷积的设计。

Large-Scale Super-Resolution of Remote Sensing Images

从上面的讨论可以看出,早期上采样和后期上采样方法都在一个步骤中提高了分辨率。当在大比例因子下处理重建任务时(例如,×4,尤其是×8),它们表现出有限的容量。为此,拉普拉斯金字塔超分辨率网络(LapSRN)提出了渐进上采样机制。LapSRN通过使用拉普拉斯金字塔结构中的多个转置卷积,渐进地生成具有不同尺度的多个高维中间预测。实际上,LapSRN是三个标度特定的单次上采样网络的堆栈,其依赖于极其有限的LR特性。
在遥感图像的舰船检测、分类等应用中,大幅提高图像分辨率具有重要意义。一般来说,一个舰船目标在一幅图像中只覆盖几个像元,不同类型的舰船具有较小的类间差异。利用较大的上采样率提高图像分辨率可以提高检测和分类的精度。然而,遥感图像SR社区的大多数研究集中在小尺度因子上,如×2、×3和×4。很少有工作试图解决大尺度放大因子下的重建问题。在极端上采样条件下(例如,r = 8),由于LR空间中可用的先验有限,准确预测局部细节变得具有挑战性。另一方面,遥感图像通常具有高度复杂的空间分布,并且缺少高频成分。在重建时,需要恢复大量的缺失信息。这使得遥感图像在大的上采样因子下实现超分辨率更加困难。在超分辨过程中,研究人员总是试图尽可能多地保留特征先验信息。
包括MemNet、SRDenseNet和CARN在内的方法在不同卷积层之间引入了各种跳过连接以重用信息。MSRN、MRNN和MPSR试图学习存在于图像模式中的多级特征表示。事实上,由于他们采用的单一上采样方案,对最终重建做出真实的贡献的上尺度特征仍然有限。如何解决更好的大规模重建以及上采样方式是否可以进一步有助于重建仍有待探索。
从优化上采样方式提高重构性能的思路出发,研究了一种新的稠密采样超分辨率网络(DSSR),用于探索遥感图像的大尺度超分辨率重构。

贡献

1)提出了一种简洁的超分辨模型–DSSR,该模型在高采样率下仍具有较强的重建能力。
2)提出了一种基于子像素卷积的稠密采样机制,该机制重用升尺度器对多水平先验数据进行升采样,并使网络能够联合利用不同类型的高维信息进行重构。
3)为了充分利用宽激活和注意机制的有效性,增强网络的表征能力,构建了宽特征注意块(WAB)。
4)提出了一种链式训练策略,通过借用预先训练好的小规模模型的知识来优化大规模模型的性能。

方法

Network Architecture


如图1所示,所提出的DSSR采用密集上采样框架。它可以进一步分为三个部分:初始特征提取、深度特征提取和重建。设Conv(nc,k,nf)为卷积层,其中nc、k和nf分别为滤波器通道数、核大小和滤波器数。nc = nf在本文的其余部分中使用。对于输入图像 I L R I^{LR} ILR,Conv(3,3,nf)被用于提取初始特征F0。初始特征提取fIF(·)运算可表示为
然后将F0发送到由G个残差组组成的深度特征提取部分。每个组进一步包含G个WAB。设fRGg(·)是第g个群的函数,我们有

其中Fg对应于第g组的输出特征。在不同的水平上提取先验知识,包括F0,F1,…和FG被传送到重构部分。
重构部分fREC(·)由因子特定的上定标器fUP(·|r)和Conv(nc,3,3)组成
其中r是放大因子(r = 2、4、8)。 I S R I^{SR} ISR表示超分离结果。 W ( n c , 3 , 3 ) W^{(nc,3,3)} W(nc,3,3)是大小为nc ×3×3的三个滤波器的权重矩阵。在提出dense-sampling框架中,最初的特性和中间特性都投射到高维空间通过重用一个高档。这使网络有效地利用多个先验当执行重建。
最后,整个超分辨过程可以定义为
其中fDSSR(·)表示DSSR实现的端到端映射。注意,由于在RGB空间中进行实验,所以第一卷积层的nc值是3,并且最后卷积层的nf值是3。

Wide Feature Attention Block


图2(a)所示的WAB是拟议DSSR的基本构件。WAB使用不同空间大小的卷积来在激活之前加宽特征。具体来说,在图2(a)中,ReLU 之前的卷积层由大小为nc× 3 × 3的α · nf滤波器组成。ReLU之后的卷积层包含nf个大小为(α · nc)× 3 × 3的滤波器。
设Fg,b−1为WABg,b(第g个剩余群中的第b个WAB)的输入,则有

其中Xg,B是包含n f个特征图的中间特征。σ(·)= max(0,x)代表ReLU激活。显然,特征映射的数量在激活前从nc扩大到α ·nf,而在激活后又减少到nf。改变α的值实现了加宽特征的灵活性,以增强网络的表示能力,而不引入额外的参数。

然后,引入CA 来提高判别学习能力。如图2(b)所示,CA的机理可简单描述为

其中X’g,b是Xg,b的重新标度版本。 X g , b X^{g,b} Xg,b1,…, X g , b X^{g,b} Xg,bnf是Xg,b的特征映射。 s g , b s^{g,b} sg,b1,…, X g , b X^{g,b} Xg,bnc是sg,b的元素,sg,b是用于重新缩放Xg,b的nc维信道统计量(nc = nf)。sg,b定义为
它通过执行几个操作获得,包括平均全局合并fGP(·)、通道降尺度fD(·)= Conv(nc,1,nf/η)、ReLU激活σ(·)、通道放大fU(·)= Conv(nc/η,1,nf)、和sigmoid 门控 fsigmoid(·),在Xg,b上(η设置为16)。这样的统计量可以作为描述符的集合,其统计量有助于表达Xg,b的特征图之间的差异,并允许WABg,b对其接收到的特征图产生不同的关注。
在数学上,WABg,b的运算可以表示为

Residual Learning Design

B WAB进一步构成残差组,G个残差组构成网络的深层特征提取部分。这种设计得益于局部残差学习,允许我们建立一个深度网络来建模高度复杂的映射。

ResGroupg的结构(即,第g个剩余组)在图3中示出。这里,我们将WABg,b的函数简化为fWABg,b(·)。等式(8)等价于

然后,ResGroupg的操作可以公式化为

如图3所示,局部残差连接将特征Fg−1从浅部转移到深部。因此,残差群只能预测其输入Fg−1和输出Fg之间的残差。这种有效的残差学习设计有助于克服消失梯度,并简化深度网络的训练。此外,这种模块化设计使得所提出的密集采样机制能够灵活地利用在不同级别学习的特征。

Dense-Sampling Mechanism

大多数现有的超分辨模型采用单个上采样方案。这使得它们依赖于有限的特征信息,增加了大规模重建的难度,因为大规模重建往往对低维空间的先验知识有着巨大的需求。在超分辨网络中,在不同深度学习的特征包含不同类型的先验知识,并且在预测高频分量时贡献不同的重要性。然而,随着网络的加深,在网络的浅部学习到的特征被随后的卷积层卷积,并且不能直接参与最终的重构。针对这一问题,提出了一种新的密集采样机制,以更好地利用多层次特征。该算法重用一个尺度提升器将多个先验信息投影到高维空间,并使这些提高了分辨率的信息共同贡献于最终的重建。

如图4所示,在不同级别学习的先验,包括初始特征F0和来自G个残差组的输出特征(即,F1,…FG)都被馈送到上定标器
移除连接到上分频器的跳跃连接,网络变为标准的单次延迟上采样设计。我们将DSSR的这种单次上采样版本表示为DSSR-S。这种情况下,上分频器的输出可定义为:

这种单次上采样结构使得DSSR-S只能依靠极其有限的信息进行重构。与此相反,由于充分利用了多层次信息,所提出的密集采样机制使得网络能够高效地对复杂的LR-HR映射进行建模,有效地优化了大规模模型的超分辨性能。升阶器fUP(·|r)如图5(a)所示。对于因子r,它由ngroup = l o g r log^r logr2个卷积群组成。一组进一步包含一个正常卷积和一个有效的子像素卷积(也称为像素混洗)。
对于包含nc个特征图的输入特征,如图5(b)所示,反向卷积Conv(nc,3, r 2 r^2 r2 ·nf)将特征图的数量增加到 r 2 r^2 r2 ·nf。亚像素卷积PixelShuffle(r )将H × W ×(r2 · nf)LR特征张量的元素重新排列为大小为(r · H)×(r · W)× nf的HR特征张量。我们选择一个包含Conv(nc,3, 2 2 2^2 22 · nf)和PixelShuffle(2)的卷积群作为基本的上尺度算子。因此,×2上定标器fUP(·|2)、×4上定标器fUP(·|4)和×8上定标器fUP(·|8)分别由 l o g 2 log^2 log22 = 1、 l o g 4 log^4 log42 = 2和 l o g 8 log^8 log82= 3个卷积组组成。

Chain Training Strategy

良好的训练策略有助于提高模型性能。一些研究者用预先训练好的×2模型初始化了×3和×4模型的权重。这种预训练策略使× 3和×4模型比从头随机训练的模型收敛更快,性能更好。为了进一步优化大规模模型的超分辨性能,本文提出了一种新的链式训练策略。提出的训练策略使用链式转移从预先训练的小规模模型借用知识。具体而言,上采样因子×2的DSSR从头开始训练。基于预先训练的×2模型训练因子×4的DSSR。在×4 DSSR的基础上训练出×8 DSSR。通过这种方式,×4 DSSR从预先训练的×2模型中借用知识。×8型DSSR可以通过链式迁移从×2模型和×4模型中借用知识。

Loss Function

在训练DSSR时,需要最小化训练样本之间的损失,以获得最优的网络参数集。最小化L2损失通常是优选的,以最大化峰值信噪比(PSNR)。实际上,由于L2损失未能捕获HR补片的潜在多峰分布(即,相同的LR面片可以映射到多个HR面片),超分辨率图像通常被过度平滑并且与图像上的人类视觉感知不耦合。我们选择优化L1损耗,因为它提供了更好的收敛性。给定训练集{ I L R I^{LR} ILRi, I H R I^{HR} IHRi }n i=1,其包含n个HR图像{ I H R I^{HR} IHRi }n i=1和对应的LR版本{ I L R I^{LR} ILRi}n i=1,我们有
其中θ表示DSSR的最优参数集,它包含了所有的权矩阵。该参数集允许DSSR重建图像 I S R I^{SR} ISR = fDSSR( I L R I^{LR} ILRi ;θ),其与地面实况图像 I H R I^{HR} IHR最相似。

【新型密集采样网络:遥感超分】相关推荐

  1. 【多尺度密集递归融合网络:超分】

    A novel image super-resolution algorithm based on multi-scale dense recursive fusion network (基于多尺度密 ...

  2. 图像超分中的深度学习网络

    图像超分中的深度学习网络 质量评估 操作通道 有监督算法 预上采样 后采样超分 逐步上采样 迭代上下采样 上采样的学习方式 残差块 递归学习 多路径学习 密集连接 通道注意力机制 其他卷积 像素递归网 ...

  3. NTIRE2021 视频超分竞赛简要回顾

    编辑:Happy 首发:AIWalker 本文对NTIRE2021视频超分竞赛进行了简单的介绍,总而言之一句话:BasicVSR是最大赢家. Dataset NTIRE2021的视频超分竞赛仍然延续N ...

  4. 计算摄影——图像超分

    这一节主要介绍一下基于单张图的图像超分算法.图像超分,就是要从低分辨率的图像恢复为高分辨率的图像,它在日常的图像和视频存储与浏览中都有广泛的应用. 基于深度学习的图像超分算法 不同的采样结构 图像超分 ...

  5. 画质增强概述-3.1-AI增强实践之超分训练

    三 画质增强的AI增强实践 画质增强处理从方法上可以分为传统方法和深度学习(AI)方法,他们是互相补充的关系,传统方法相对而言性能会好些,AI方法吃GPU.吃算力,很多课题AI方法效果远非传统方法科比 ...

  6. 计算高效,时序一致,超清还原!清华NYU 提出 RRN:视频超分新型递归网络

    原文链接:https://bbs.cvmart.net/articles/3158 专注计算机视觉前沿资讯和技术干货 微信公众号:极市平台 官网:https://www.cvmart.net/ 本文为 ...

  7. 简洁的架构还能高效和准确?清华华为提出新型残差循环超分模型:RRN!

    分享一篇视频超分辨率的论文 Revisiting Temporal Modeling for Video Super-resolution,其为BMVC 2020 论文,该文的结果目前在视频超分的几个 ...

  8. 开源人工智能算法一种新颖的超像素采样网络深层特征来估计任务特定的超像素

    开源人工智能算法一种新颖的超像素采样网络深层特征来估计任务特定的超像素摘要: 超像素提供图像数据的有效低/中级表示,这极大地减少了后续视觉任务的图像基元的数量. 现有的超像素算法无法区分,因此难以集成 ...

  9. IGNN图卷积超分网络:挖掘隐藏在低分辨率图像中的高清纹理

    本文转载自商汤泰坦公开课. 摘要 · 看点 在NeurIPS 2020上,南洋理工大学.商汤和哈工大研究员联合提出了跨尺度的图卷积超分网络IGNN.近些年来,Non-local方法利用同尺度的自相似性 ...

最新文章

  1. 样式集(三)成功页面样式模板
  2. iOS 去除按钮的按下效果(阴影)
  3. HashMap为什么是线程不安全的?
  4. CentOS上使用Docker安装Redis-Cluster (redis6.x)
  5. ue4序列帧ui_UE4入门之路(UI篇):UI性能优化
  6. html5 定位 计算距离,HTML5 地理定位+地图 API:计算用户到商家的距离
  7. WiMAX版图不止3G
  8. 快速搭建Python开发环境
  9. 彼得林奇:全球理财师中的NO.1
  10. 增量学习——文章汇总
  11. 带你了解ae2021版新功能 ae 2021中文直装版
  12. 户外运动耳机如何选择、最优秀的五款户外运动耳机推荐
  13. 接口测试,后端接口还没开发完,如何测?解决看这一篇就够了......
  14. Tensorflow Test1
  15. Altium Designer学习笔记——布线技巧
  16. 金仓数据库 KingbaseGIS 使用手册(8.11. 栅格处理函数)
  17. 如何查看网页元素使用的js
  18. 中国各省份官方报纸数据
  19. java获取前四个季度结束日期_JAVA使用LocalDate获取当前日期所在季度的开始日期和结束日期...
  20. pda扫描枪屏幕_pda扫描器与条码扫描枪的区别是什么?

热门文章

  1. 【超简易】网站ioc图标添加【超详细】
  2. 微信小程序-开放标签
  3. 二叉树的遍历和总结--C和C++
  4. 25.有5个人做在一起, 问第五个人多少岁? 他说比第四个人大2岁. 问第四个人岁数, 他说比第是三个人大2岁. 问第三个人, 又说比第二人大两岁. 问第二个人, 说比第一个人大两岁. 最后问第一个人
  5. JAVA专业课题研究方向有哪些_教师课题研究方向与范围有哪些
  6. 【黑马-python】---学习笔记(1)---Linux基础
  7. 点仙人掌(cactus)
  8. 基于django+mysql的教师教学质量评价系统源代码,教学评价系统源码
  9. python去重计数_用Python做透视表之value_sum和value_countdistinct功能
  10. linux下 解压iso 命令行