Meta- sr:用于超分辨率的放大任意网络

1.motivation

一般的SR都是针对特定scale训练一个network(X2, X3, X4),这与实际需求不相符。该文研究的是超分辨率的放大任意scale的网络。

2.structure

b部分是一个学习feature的过程,用到了RDB,讲白了一个Dense block变式。通过这个较深的network从LR提取feature map。然后文章的novelty是c部分。一般sr upsample 插值、转置卷积,边插值边转置卷积等等。filter只能学到一个scale的weights。

3.novelty

文章加入了一个FC结构去学习不同尺度特征向量v(i,j)的向量的卷积表达。

i,j表示HR中的i,j,r代表scale,之所以加一个1/r,因为完备性考虑。例如,如果我们想用比例因子2和4对图像进行upsample,ISR 2上的像素(i,j)将与ISR 4上的像素(2i,2j)具有相同的权重和相同的投影坐标。这意味着isr2是isr2的子像。这会限制性能。

这样子的话,一张SR的图像HxW。则会有HxW个v(i,j)。如网络结构图中的HxWx3。

这样一个特征矩阵,每一个v(i,j)(length = 3),要生成一个(inC,outC,k,k)的卷积核,原文中inC是64,outC是1(灰度图像),k=3。这非常困难,所以采用的256个hidden neurons 。试出来效果最好。

生成卷积核了以后,计算i,j这个点的像素,就用这么一个对应的卷积核去预测。

4.补充

v(i,j)为什么那个样子

v(i,j)是一种偏移——SR图像的i,j因为scale产生的相对偏移。举例来说r=2,那么v(1,0)=(0.5,0,0.5)代表SR在LR中i方向的相对偏移是0.5.。如下图,r=2,SR为1的坐标实际上对于LR是他的0.5处分数坐标。

LR中的0,决定了SR中的0,1两个位置(1-D)。同理r=1.5

底下是sr,上面是lr。

阅读 Meta-SR:A Magnification-Arbitrary Network for Super-Resolution相关推荐

  1. 论文阅读+实战:SimGNN:A Neural Network Approach to Fast Graph Similarity Computation

    Part 1: 论文阅读 论文链接:SimGNN: A Neural Network Approachto Fast Graph Similarity Computation 1. 摘要 图相似性搜索 ...

  2. 论文阅读 [TPAMI-2022] DE-GAN: A Conditional Generative Adversarial Network for Document Enhancement

    论文阅读 [TPAMI-2022] DE-GAN: A Conditional Generative Adversarial Network for Document Enhancement 论文搜索 ...

  3. 论文翻译:2019_Speech Super Resolution Generative Adversarial Network

    博客作者:凌逆战 论文地址:基于GAN的音频超分辨率 博客地址:https://www.cnblogs.com/LXP-Never/p/10874993.html 论文作者:Sefik Emre Es ...

  4. 论文翻译:Speech Super Resolution Generative Adversarial Network

    博客作者:凌逆战 论文地址:https://ieeexplore.ieee.org/document/8682215 博客地址:https://www.cnblogs.com/LXP-Never/p/ ...

  5. CV之SR:超分辨率(Super resolution)的简介、使用方法、案例应用之详细攻略

    CV之SR:超分辨率(Super resolution)的简介.使用方法.案例应用之详细攻略 目录 超分辨率(Super resolution)的简介 超分辨率(Super resolution)的使 ...

  6. 图像超分辨率:小米低功耗超分,适用于移动端Extreme Low-Power Super Resolution Network For Mobile Devices

    4. ELSR: Extreme Low-Power Super Resolution Network For Mobile Devices 小米的论文,网络很简单很快,训练步骤比较多.

  7. 【论文阅读笔记】Relation Classification via Convolutional Deep Neural Network

    本文发表在Proceedings of COLING 2014,这篇文章发表较早,值得借鉴的是局部特征和全局特征拼接进行分类处理的思路,其实在后续几NLP.CV领域的很多论文都有这种思路的体现,但是是 ...

  8. 自动驾驶轨迹预测论文阅读(二)TPNet: Trajectory Proposal Network for Motion Prediction

    论文链接:https://openaccess.thecvf.com/content_CVPR_2020/papers/Fang_TPNet_Trajectory_Proposal_Network_f ...

  9. 【论文阅读|深读】DRNE:Deep Recursive Network Embedding with Regular Equivalence

    目录 前言 ABSTRACT 1 INTRODUCTION 2 RELATED WORK 3 DEEP RECURSIVE NETWORK EMBEDDING 3.1 Notations and De ...

  10. 【论文阅读|深读】LINE: Large-scale Information Network Embedding

    目录 前言 ABSTRACT 1. INTRODUCTION 2. RELATED WORK 3. PROBLEM DEFINITION 4. LINE: LARGE-SCALE INFORMATIO ...

最新文章

  1. Linux初学(Linux命令行的使用)
  2. Docker查看远端仓库的标签工具
  3. dropdownlist javascript 取得value text
  4. win7中cookie的保存位置
  5. 【数据竞赛】DoubleEnsemble--专治硬样本的神奇集成技术。
  6. Day14作业 二、有两个List集合怎么取两个无重复的并集
  7. python定义函数的命令_Python入门 | 定义函数
  8. tls 使用java生成_同时使用传入和传出连接时,相互TLS身份验证存在Java问题
  9. ZooKeeper学习第四期---构建ZooKeeper应用
  10. 【Python成长之路】python并发学习:多进程与多线程的用法及场景介绍
  11. 目标检测算法之FPN(附FPN代码实现)
  12. 海归|94年的高校女博导,自曝曾两次想退学,如今获国家60万资助!
  13. 群晖NAS教程(十二)、利用Web Station安装Chevereto图床
  14. 传统方法VS深度学习方法
  15. 阿里云CDN边缘图像处理功能内测
  16. XV6源代码阅读-虚拟内存管理
  17. Ztree Fa-Awesome 图标使用
  18. 使用WinDbg —— .NET篇 (一)
  19. 基于Java Swing界面编程教学
  20. python简单入门深学难_[零基础学Python]再深点,更懂list

热门文章

  1. unity中判断字符串字符数量
  2. 冒泡法排序函数c语言,【C语言】冒泡法排序的三种实现方法
  3. IOU GIOU DIOU CIOU
  4. office中word使用过程中字体排版
  5. java while语句打印三角形_Java 循环结构
  6. regexbuddy 教程
  7. ART运行时Foreground GC和Background GC切换过程分析
  8. java计算机毕业设计燕理快递中转站系统设计与实现MyBatis+系统+LW文档+源码+调试部署
  9. mysql-5.6.17-winx64 安装教程
  10. 【Azure Data Platform】Azure Data Lake(1)——简介