Meta- sr:用于超分辨率的放大任意网络

1.motivation

一般的SR都是针对特定scale训练一个network(X2, X3, X4),这与实际需求不相符。该文研究的是超分辨率的放大任意scale的网络。

2.structure

b部分是一个学习feature的过程,用到了RDB,讲白了一个Dense block变式。通过这个较深的network从LR提取feature map。然后文章的novelty是c部分。一般sr upsample 插值、转置卷积,边插值边转置卷积等等。filter只能学到一个scale的weights。

3.novelty

文章加入了一个FC结构去学习不同尺度特征向量v(i,j)的向量的卷积表达。

i,j表示HR中的i,j,r代表scale,之所以加一个1/r,因为完备性考虑。例如,如果我们想用比例因子2和4对图像进行upsample,ISR 2上的像素(i,j)将与ISR 4上的像素(2i,2j)具有相同的权重和相同的投影坐标。这意味着isr2是isr2的子像。这会限制性能。

这样子的话,一张SR的图像HxW。则会有HxW个v(i,j)。如网络结构图中的HxWx3。

这样一个特征矩阵,每一个v(i,j)(length = 3),要生成一个(inC,outC,k,k)的卷积核,原文中inC是64,outC是1(灰度图像),k=3。这非常困难,所以采用的256个hidden neurons 。试出来效果最好。

生成卷积核了以后,计算i,j这个点的像素,就用这么一个对应的卷积核去预测。

4.补充

v(i,j)为什么那个样子

v(i,j)是一种偏移——SR图像的i,j因为scale产生的相对偏移。举例来说r=2,那么v(1,0)=(0.5,0,0.5)代表SR在LR中i方向的相对偏移是0.5.。如下图,r=2,SR为1的坐标实际上对于LR是他的0.5处分数坐标。

LR中的0,决定了SR中的0,1两个位置(1-D)。同理r=1.5

底下是sr,上面是lr。

阅读 Meta-SR:A Magnification-Arbitrary Network for Super-Resolution相关推荐

  1. 论文阅读+实战:SimGNN:A Neural Network Approach to Fast Graph Similarity Computation

    Part 1: 论文阅读 论文链接:SimGNN: A Neural Network Approachto Fast Graph Similarity Computation 1. 摘要 图相似性搜索 ...

  2. 论文阅读 [TPAMI-2022] DE-GAN: A Conditional Generative Adversarial Network for Document Enhancement

    论文阅读 [TPAMI-2022] DE-GAN: A Conditional Generative Adversarial Network for Document Enhancement 论文搜索 ...

  3. 论文翻译:2019_Speech Super Resolution Generative Adversarial Network

    博客作者:凌逆战 论文地址:基于GAN的音频超分辨率 博客地址:https://www.cnblogs.com/LXP-Never/p/10874993.html 论文作者:Sefik Emre Es ...

  4. 论文翻译:Speech Super Resolution Generative Adversarial Network

    博客作者:凌逆战 论文地址:https://ieeexplore.ieee.org/document/8682215 博客地址:https://www.cnblogs.com/LXP-Never/p/ ...

  5. CV之SR:超分辨率(Super resolution)的简介、使用方法、案例应用之详细攻略

    CV之SR:超分辨率(Super resolution)的简介.使用方法.案例应用之详细攻略 目录 超分辨率(Super resolution)的简介 超分辨率(Super resolution)的使 ...

  6. 图像超分辨率:小米低功耗超分,适用于移动端Extreme Low-Power Super Resolution Network For Mobile Devices

    4. ELSR: Extreme Low-Power Super Resolution Network For Mobile Devices 小米的论文,网络很简单很快,训练步骤比较多.

  7. 【论文阅读笔记】Relation Classification via Convolutional Deep Neural Network

    本文发表在Proceedings of COLING 2014,这篇文章发表较早,值得借鉴的是局部特征和全局特征拼接进行分类处理的思路,其实在后续几NLP.CV领域的很多论文都有这种思路的体现,但是是 ...

  8. 自动驾驶轨迹预测论文阅读(二)TPNet: Trajectory Proposal Network for Motion Prediction

    论文链接:https://openaccess.thecvf.com/content_CVPR_2020/papers/Fang_TPNet_Trajectory_Proposal_Network_f ...

  9. 【论文阅读|深读】DRNE:Deep Recursive Network Embedding with Regular Equivalence

    目录 前言 ABSTRACT 1 INTRODUCTION 2 RELATED WORK 3 DEEP RECURSIVE NETWORK EMBEDDING 3.1 Notations and De ...

  10. 【论文阅读|深读】LINE: Large-scale Information Network Embedding

    目录 前言 ABSTRACT 1. INTRODUCTION 2. RELATED WORK 3. PROBLEM DEFINITION 4. LINE: LARGE-SCALE INFORMATIO ...

最新文章

  1. Upload-labs闯关
  2. pip 查看要安装的包所有版本(所有包版本)
  3. 使用xml和java代码混合控制UI界面
  4. 禁用计算机端口,电脑如何关闭445端口
  5. Unity游戏资源逆向工具
  6. python爬漫画,一人*下漫画,多线程快速的下载
  7. LCR电桥测试仪测量原理 | LCR测试仪使用概要
  8. android 带箭头的框,带有工具提示箭头的Android PopupWindow
  9. spectral-cluster聚类算法详解
  10. 自媒体如何多平台发文章?
  11. C/C++刁钻问题各个击破之细说sizeof .
  12. 始终从最不易改变的方面开始
  13. 通信协议学习-485通信(1)
  14. 控制台报400、500内部服务器错误是什么原因?怎么解决?
  15. android开源社区
  16. fpxmocapy linke
  17. Python 多线程曲线救国
  18. 算法之高精度(含实例与详解)C语言
  19. 头顶技术价格两座大山 OLED揠苗助长前景蒙忧
  20. fckeditor编辑器上传漏洞getshell——突破.变_的限制

热门文章

  1. 中鑫优配热点:电力板块+5G概念+智能医疗+生物疫苗
  2. Aleph1堆栈溢出例子调试过程
  3. 计算机学院毕业直接工作绩点,大学的绩点和学分有什么用?不要等大四才知道!...
  4. php表单的隔行变色,php 隔行变色的实现代码
  5. 如何使用MinIO 建立阿里云OSS代理
  6. CS231n课程笔记翻译:线性分类笔记
  7. 机器学习系列(二)ML经典十大算法之一:决策树算法--从代码和统计学角度谈谈cs是如何预测你的行为
  8. [CF145E]Lucky Queries
  9. 【Linux内幕】schedule_work基本流程
  10. SEO优化方法之服务器篇