这篇文章是2017年的ICCV。基于经典的VSR框架,作者在对齐网络和时间融合超分网络上都做了一定的该进。其中对齐网络采用了STN的一个变体;对齐后的SR网络使用了结合注意力机制的,可自动选择时间尺度的时间自适应网络,这个超分结构在当时取得了SOTA的表现力。

Note:

  1. 这篇文章提出的结构没有一个简洁的名字,导致其他文章在引用的时候就直接写作者的名字——“Liu”。因此为了本文后面介绍方便,简称作者提出的这个结构为:LTD。

参考文档:
①视频超分辨论文解读之Rubost Video Super-Resolution with Learned Temporal Dynamis

Robust Video Super-Resolution with Learned Temporal Dynamics

  • Abstract
  • 1 Introduction
  • 2 Related Work
  • 3 Temporal Adaptive Neural Network
    • 3.1 Overview
    • 3.2 Network Architecture
    • 3.3 Training Objective
  • 4 Spatial Alignment Methods
    • 4.1 Rectified Optical Flow Alignment
    • 4.2 Spatial Alignment Network
  • 5 Experiments
    • 5.1 Datasets
    • 5.2 Implementation Details
    • 5.3 Analysis of Network Architecture
    • 5.4 Analysis of Spatial Alignment Methods
    • 5.5 Comparison with State-of-the-Art
    • 5.6 Running Time Analysis
  • 6 Conclusions

Abstract

  1. VSR需要解决2个问题:①如何利用视频帧之间的时间冗余问题?②如何建模运动变化来对齐不同帧的内容?
    Q1Q_1Q1​:如何利用时间冗余
    在SISR中,我们有且仅使用空间冗余;用SISR的超分方法应用于视频,也只是简单独立处理每一帧而已,无法利用视频中的时间冗余(temporal dependency)特性,比如ESPCN等方法就是这样的情况。
    因此在VSR中,我们就需要对不同帧进行融合,去同时提取时间特征信息和空间特征信息,此外作者还设计了一个自动选取时间窗口(也就是时间尺度,指的是每个样本中包含的连续帧个数)的机制,该机制通过训练一个pixel-wise的权重图(注意力机制)来结合多个时间尺度的超分结果,因此最后的超分结果就是多个时间尺度分别超分结果的加权和,这就是Temporal Adaptive Neural Network。
    Q2Q_2Q2​:如何实现时序空间对齐
    由于VSR中相邻帧存在物体的运动变化或者由于相机的运动导致图片中目标的移动,因此如果在融合前不进行对齐的话,会导致同一个卷积核范围内的内容可能在时间和空间上都是不相关的,因此时间冗余和空间冗余就没有利用起来,这会抑制超分网络的表现力。
    因此为了对抗这种变化,作者采用STN来解决,在STN的基础上,结合时间信息设计出一个STN变体,通过训练STN变体网络来完成时序空间对齐,即Spatial Alignment Network。
  2. 此外,对齐网络和融合SR网络是先后串联的关系,他们可以放一起训练,从而让整个LTD成为端对端训练的网络。
  3. LTD在当时的VSR中取得了SOTA的表现力,证明了Spatial Alignment网络和Temporal Adaptive网络对于提升最后视频质量有促进作用。

Note:

  1. LTD和VESPCN一样,对齐都是属于flow-based方法。它两的对齐网络都是基于STN,只是略微有点不一样;融合SR网络是完全不一样的,VESPCN没有注意力机制。

1 Introduction

Temporal Adaptive neural network:就是将SISR的超分网络与注意力机制结合,注意力用来自动选择合适的时间大小,即通过优化网络参数来选择最优时间冗余的范围大小。具体而言,时间自适应网络的输入为对齐网络(或者运动补偿网络,即spatial alignment network)给的NNN种时间尺度,则对于每一种尺度都通过融合SR网络输出参考帧的超分重建结果,最后将NNN个结果通过pixel-wise的加权和,结果就是最终我们想要的当前参考帧。其中权重图是另一个类似的SR网络训练得到的。此外,作者指出这种网络结构和Inception块结构很像,因为我们将连续的相邻帧融合之后,进行卷积的过程,除了空间卷积之外,其实也是在时间上上做卷积,而该网络是个选择时间尺度的过程,因此相当于有NNN个不同大小的时间卷积滤波器,而Inception块就是在块内使用多种不同大小的空间卷积滤波器(Temporal Filters),最后进行合并的子网络。

Spatial Alignment network:就是STN的一个结合时间信息的变体。输入是2帧相邻帧,其中一帧是参考帧,另一帧是支持帧,我们使用STN变体来做two-stage对齐:运动(光流)估计和运动补偿。对齐网络最后输出支持帧的估计值(也就是对齐后的支持帧),它通过优化来不断靠近支持帧来实现内容上的对齐。这种对齐方式基于flow-based(由于其warp直接作用于image,所以它是一种image-wise),它高度依赖于光流估计的准确性。

③对齐网络和融合SR网络可以连起来一起训练,从而将整个模型塑造成end-to-end训练结构。作者在一系列实验中得出结论:Temporal Adaptive Network不同时间窗口的结构比固定时间滤波器的结构能产生更好的表现力。此外,Spatial Alignment network产生的对齐连续帧能提升重建表现力。

2 Related Work

3 Temporal Adaptive Neural Network

3.1 Overview

如上图所示就是时间自适应网络的结构框图。从整体看,这个网络结构就是基于SISR的超分方法(比如ESPCN、SRCNN等)以及一个自动选取最优时间尺度(时间大小、时间窗口)。其本质就是个融合SR网络。
①假设一共有NNN种时间滤波器(比如一帧、连续3帧、连续5帧,这样的话N=3N=3N=3种),那么前者主要分为NNN个SR前向分支{Bi}i=1N\{B_i\}_{i=1}^N{Bi​}i=1N​,对于每一个分支BiB_iBi​,获得各自参考帧的超分结果HtiH_t^iHti​(iii表示第iii个分支)。
②此外还有一个分支为时间调制分支,即用来选择最优时间尺度的,该分支用来输出NNN张feature map,其代表了前面NNN个分支各自应得的注意力权重,其是pixel-wise,故我们将每张权重图和前面分支的输出HtiH_t^iHti​进行元素相乘,最后相加的结果就是最后送入Loss进行优化的HtH_tHt​。
Note:

  1. 之所以说是选择最优时间滤波器,是因为你可以近似把注意力看成是门机制,那么最终输出的结果就是其中一种尺度超分的结果,而决定哪一种尺度,是网络对不同输入序列下网络参数优化的结果。但真实情况是,每个分支都分配一定的权重,最后的结果是各个分支的加权和。
  2. 前向分支是相同的超分网络,但是每一个分支的参数都是不一样的;调制分支和前向分支网络结构相似但参数也是不一样的。
  3. 一个LR video sequence就是一个样本。

接下来我们具体分析下这个时间自适应网络结构。

3.2 Network Architecture

①SR前向分支
SR前向分支在本文中使用ESPCN超分结构,因为在当时相对高效且表现力较好,当然也可以是其他结构,比如SRCNN、FSRCNN等。我们对于NNN种时间尺度中每一种尺度i∈{1,⋯,N}i\in\{1,\cdots,N\}i∈{1,⋯,N}都使用1个SR前向分支来输出参考帧的超分结果HitH_i^tHit​。
作者采用Early fusion来对相邻2i−12i-12i−1帧进行融合,该融合方式下输入格式为(Batch,(2i−1)∗c,H,W)(Batch, (2i-1)*c, H, W)(Batch,(2i−1)∗c,H,W),其中ccc是每一帧的通道数。然后在接下来的2层卷积层后都设置ReLU激活函数,此外不同尺度下的SR前向分支的网络参数都是不一样的,因此当可选尺度较多时,这个融合SR结构的参数量也是很大的。

②时间调整分支
时间调制分支是用来学习一个选择最优时间尺度的SR网络,它具有和SR前向分支相同的网络结构。不同于SR前向分支,该分支输入为前向分支中最长时间序列,即2N−12N-12N−1个连续帧,这样做也是为了更加全面的覆盖前向分支所有的输入情况。该分支的输出是NNN张权重图WiW_iWi​,这些图通过和NNN个SR前向分支的输出HitH_i^tHit​进行元素相乘,故其实pixel-wise的,最后将相乘的NNN个结果相加,最后输出HtiH_t^iHti​,简单表示为:Ht=∑iWi⊙Hit,i∈{1,⋯,N}H_t = \sum_i W_i\odot H_i^t, i\in\{1,\cdots,N\}Ht​=∑i​Wi​⊙Hit​,i∈{1,⋯,N}。

3.3 Training Objective

接下来介绍下时间自适应网络的训练。
整个Temporal adaptive network网络的损失函数,作者使用L2损失:
min⁡Θ∑j∣∣F(y(j);Θ)−x(j)∣∣22.(1)\min_{\Theta} \sum_j ||F(y^{(j)};\Theta) - x^{(j)}||_2^2.\tag{1} Θmin​j∑​∣∣F(y(j);Θ)−x(j)∣∣22​.(1)其中x(j)x^{(j)}x(j)第jjj个参考帧对应的HRHRHR图像,即Ground Truth;yjy^{j}yj代表以第jjj帧参考帧为中心的所有对齐帧,故F(y(j);Θ)F(y^{(j)};\Theta)F(y(j);Θ)表示整个时间自适应网络的输出HtH_tHt​。

我们将式(1)更加细化表示:
min⁡θw,{θBi}i=1N∑j∣∣∑i=1NWi(y(j);θw)⊙FBi(y(j);θBi)−x(j)∣∣22.(2)\min_{\theta_w,\{\theta_{B_i}\}_{i=1}^N} \sum_j ||{\color{tomato}\sum^N_{i=1}W_i(y^{(j)};\theta_w)\odot F_{B_i}(y^{(j)};\theta_{B_i})} - x^{(j)}||^2_2.\tag{2} θw​,{θBi​​}i=1N​min​j∑​∣∣i=1∑N​Wi​(y(j);θw​)⊙FBi​​(y(j);θBi​​)−x(j)∣∣22​.(2)其中WiW_iWi​表示时间调制网络输出的关于第BiB_iBi​个时间尺度下对应的权重图,用参数θw\theta_wθw​表示时间调制网络的参数;FBi(y(j);θBi)F_{B_i}(y^{(j)};\theta_{B_i})FBi​​(y(j);θBi​​)表示第BiB_iBi​个SR前向分支的输出HtiH_t^iHti​,用参数θBi\theta_{B_i}θBi​​表示该前向分支的网络参数;⊙\odot⊙表示元素级相乘。


训练技巧:
实际训练中作者先独立训练NNN个不同时间窗口的SR前向分支,获得了NNN个类似结构的ESPCN网络;然后我们将这些训练好的参数作为时间自适应网络的初始化参数,利用式(2)去训练时间调制分支和在各个SR前向分支上微调。作者指出这种方式可以加速收敛!

4 Spatial Alignment Methods

我们通过对齐网络来增加相邻连续时间帧的内容相关性和时间相关性。在VSR中,时间对齐网络为后续融合SR网络提供了对齐的连续时间帧,是增加VSR表现力必不可少的前处理环节!

4.1 Rectified Optical Flow Alignment

LTD和VESPCN的运动补偿网络都是基于STN来做的,他们两有3个不同,其中之一在于LTD引入了一个Rectified Optical Flow Alignment来作为STN中Localisation网络输出参数的target,这种在中间过程增加额外Loss的过程有点像Inception-v2中的辅助分类器,我们在优化整个TSTN(Temporal-STN)的时候,可以将这个辅助训练作为一个正则化项,但是在本文中,关于对齐网络的损失仅仅只是关于Localisation网络MSE损失,具体如下式(3)所示。

那么这个Rectified Optical Flow Alignment是怎么做的呢?
Rectified Optical Flow Alignment每次操作的对象只是一个patch,我们计算这个patch内参考帧和支持帧之间的光流信息(运动矢量),然后将这个patch内沿着水平和垂直两个方向分别统计所有运动矢量的平均值,我们按四舍五入来将这个平均光流信息取整数,也就是说输入这个patch,输出这个patch对应的2个整数光流信息θSTx、θSTy\theta_{ST}^x、\theta_{ST}^yθSTx​、θSTy​,分别代表水平和垂直方向。那么遍历参考帧和支持帧所有的patch就可以得到所有的整数平均光流。将这些光流作用于支持帧,就可以获得支持帧的一个估计值,从直观上来看,这个估计值应该和支持帧很相似。但我们最后需要的不是这个估计值,而是该过程中得到的2个整数光流信息θSTx、θSTy\theta_{ST}^x、\theta_{ST}^yθSTx​、θSTy​。
Note:

  1. 之所以采用整数光流是因为浮点数势必要加入插值操作,而插值带来的最大的坏处在于会引入模糊或混叠这种artifacts。
  2. LTD和VESPCN中的STN另一个不同在于前者在Localization网络输出2个元素,即一个(2,)(2,)(2,)格式的一维张量,而后者输出的是Image-wise的运动矢量Δ\DeltaΔ。
  3. 每一个patch输出2个变换参数,假设一帧有MMM个patch,最终就输出2M2M2M个变换参数。
  4. 具体如何计算光流,作者采用这篇文章提到的做法。

4.2 Spatial Alignment Network

接下来我们分下这个时间对齐网络的结构:

TSTN网络的输入一般是2个相邻帧,其中一个是固定的参考帧,另一个是时间窗口内的支持帧,输出是支持帧的估计值,也就是和参考帧对齐的支持帧(支持帧的对齐版本)。将输出的对齐连续帧输入给后面的融合SR网络,也就是第3节介绍的时间自适应网络来重建出当前参考帧的高分辨率图像。
具体来看:
①回归变换参数
首先2帧相邻图像通过Early fusion输入Localisation网络(即深度为2×c2\times c2×c),回归出变换参数θ^ST\hat{\theta}_{ST}θ^ST​,这是一个两元素的一维张量,分别代表水平方向的变换和垂直方向的变换。
具体Localisation网络结构如下:

我们将回归出的参数和Rectified Optical Flow Alignment输出的参数标签做MSE损失来辅助优化Localization网络的变换参数。
Note:

  1. 由于Rectified Optical Flow Alignment(ROF)是基于patch的,因此我们在Localisation网络也是基于patch-wise的。

②重采样
和STN不一样的是,TSTN将获取网格和重采样放一起来做。这里和VESPCN中的重采样一样,就是将输出(对齐版本的支持帧)的网格点(xs,ys)(x^s,y^s)(xs,ys)通过变换得到在支持帧上相应的亚像素格点(xm,ym)(x^m,y^m)(xm,ym),通过双线性插值获取对应的像素值作为输出网格点(xs,ys)(x^s,y^s)(xs,ys)上的像素值。由于双线性插值可使得整个网络变得可导,因此整个时间对齐网络可以和后面的融合SR网络组成端对端的训练。

③最后将1个样本中所有支持帧和参考帧组成的输入对按上述TSTN进行对齐,作为后续融合SR网络——时间自适应网络的输入。

我们给出对齐网络和融合SR网络的联合训练损失:
min⁡{Θ,θL}∑j∣∣F(y(j);Θ)−x(j)∣∣22⏟Temporaladaptivenetwork+λ∑j∑k∈Nj∣∣θ^ST(k)−θST(k)∣∣22⏟Spatialalignmentnetwork.(3)\min_{\{\Theta,\theta_L\}} \underbrace{\sum_j ||F(y^{(j)};\Theta)-x^{(j)}||_2^2}_{Temporal\;adaptive\;network} + \lambda \underbrace{\sum_j\sum_{k\in \mathcal{N}_j}||\hat{\theta}_{ST}^{(k)}-\theta_{ST}^{(k)}||^2_2}_{Spatial\;alignment\;network}.\tag{3} {Θ,θL​}min​Temporaladaptivenetworkj∑​∣∣F(y(j);Θ)−x(j)∣∣22​​​+λSpatialalignmentnetworkj∑​k∈Nj​∑​∣∣θ^ST(k)​−θST(k)​∣∣22​​​.(3)其中Nj\mathcal{N}_jNj​表示第jjj个样本中所有的LRLRLR参考帧、支持帧输入对;λ\lambdaλ用来平衡两个部分的Loss。
Note:

  1. 这个损失函数就是LTD和VESPCN在STN上的第3个不同点,它只有优化了Localisation网络的参数。

整个LTD结构由Spatial Alignment network和Temporal Adaptive network先后组成,其网络结构如下:

5 Experiments

5.1 Datasets

训练集:LIVE Video Quality Assessment DatabaseMCL-V DatabaseTUM 1080p Data Set
测试集:6个经典场景calendarcityfoliagepenguintemplewalk;以及4k视频集:Ultra Video Group Database
所有的LRLRLR数据都是从上面数据集中的HRHRHR图像通过Bicubic插值获得的。

5.2 Implementation Details

  1. 所有的实验都基于YCbCr颜色空间,且只处理其中的亮度(Y)通道,即c=1c=1c=1。
  2. SR缩放倍率r=4r=4r=4,因为这个倍率在VSR中很能体现算法的能力。
  3. 时间自适应网络的输入为5×30×305\times 30\times 305×30×30,即有连续的5帧(这个表示最大的连续帧数),每一帧都是一个30×3030\times 3030×30的patch。
  4. 自集成技巧:旋转、镜像、缩放。
  5. Batchsize=64,共训练500W个iterations。
  6. 除了每个分支第一层卷积参数以外,SR前向分支网络的初始参数使用SISR模型的参数;至于第一层,可以对每个时间维度都复制SISR中相同的参数。这种初始化策略可以加速收敛。此外,根据3.3节所说,每个前向分支训练完之后的参数可以继续作为整个时间自适应网络的初始化参数。故总共有2次初始化参数的过程。

5.3 Analysis of Network Architecture

本节是为了继续探究时间自适应网络的特性。
设置关于时间自适应网络的7种结构,设BiB_iBi​表示输入为2i−12i-12i−1帧,且只有1个时间尺度;Bi,jB_{i,j}Bi,j​则表示有2个时间尺度,分别由2i−1、2j−12i-1、2j-12i−1、2j−1帧,依次类推,此外TTT表示时间调制分支。这7种结构分别是:
①B1B_1B1​
②B2B_2B2​
③B3B_3B3​
④B1,2B_{1,2}B1,2​
⑤B1,2+TB_{1,2}+TB1,2​+T
⑥B1,2,3B_{1,2,3}B1,2,3​
⑦B1,2,3+TB_{1,2,3}+TB1,2,3​+T
Note:

  1. 比如B1,2B_{1,2}B1,2​是将两个尺度各自超分结果做平均。
  2. 对齐网络统一采用4.1节提出的ROF做的。

以上7种结果在6种环境下的评测结果如下(PSNR):

实验结论如下:

  1. B1、B2、B3B_1、B_2、B_3B1​、B2​、B3​对比来看,一定范围内,越多的支持帧对SR重建的表现力提升越明显。
  2. B1,2+T↔B1,2B_{1,2}+T \leftrightarrow B_{1,2}B1,2​+T↔B1,2​和B1,2,3+T↔B1,2,3B_{1,2,3}+T \leftrightarrow B_{1,2,3}B1,2,3​+T↔B1,2,3​对比来看,注意力机制产生的权重比简单的平均分配的效果更好。

可视化结果如下:

作者针对B1、B3、B1,2,3+TB_1、B_3、B_{1,2,3}+TB1​、B3​、B1,2,3​+T和Ground Truth三种结构进行来可视化比对。

  1. 其中针对walk这个环境中的2个区域做了重点研究,红色框是行人的耳朵,其运动相对比较缓慢;蓝色框是一只飞翔的鸽子,其运动幅度相对较大,运动估计较难准确实现:可以理解为相机的相邻帧可能很难捕捉精确的运动细节,比如一帧中鸽子是有明确位置的,下一帧鸽子就到了另一个地方,由于幅度较大,很难知道中间具体做了什么运动,因此网络在学习的时候就很可能会学错(运动估计的出错会导致后续融合SR网络也会出现问题),这样在测试的时候,对于其他运动的物体就会判定错误的运动方式,从而出现各种artifacts。比如针对蓝色框,B1B_1B1​的表现会比B3B_3B3​更好,有更少的artifacts,说明了多帧下运动估计出了问题,而B1B_1B1​不需要对齐,自然不需要进行运动估计,所以避免了这个问题。因此,大运动下的对齐是很多VSR网络急需解决的问题(EDVR就针对这个问题提出了新的网络结构)。
  2. 对于红色框这种慢性运动,B3B_3B3​倒是表现得比B1B_1B1​更好,恢复了更多的细节,证明了LTD对于慢性运动的对齐做的还是可以的,它利用了视频帧时间冗余的特点,更好的提高VSR的表现力。
  3. B1,2,3+TB_{1,2,3}+TB1,2,3​+T比2个单SR前向分支在红框和蓝框的表现都要好,说明了注意力机制的引入对VSR表现力的提升还是可观的。

为了更进一步研究时间调制分支中注意力机制的作用,作者可视化了foliagetemple两个环境下时间调制分支产生的权重图。实验对象是B1,2,3+TB_{1,2,3}+TB1,2,3​+T中关于3个前向分支B1、B2、B3B_1、B_2、B_3B1​、B2​、B3​各自对应在时间调制分支输出中的权重图。权重图也是色彩为0−2550-2550−255的灰度图(255代表白色,0代表黑色)。此外我们将3张权重图中,每个像素位置最大的权值提取出来,形成一张Max label map,在这张图中,我们用黄色、蓝绿色、深蓝色分别表示B1、B2、B3B_1、B_2、B_3B1​、B2​、B3​属于各自权重图的部分。实验结果如下:

需要注意的是:foliage中运动较大的物体为汽车,运动较慢的是背景;temple中运动较大的物体为灯笼顶部,运动较慢的是天空。
实验结论如下:

  1. 对于运动较大的物体,多帧下的融合重建往往无法展现较好的表现,这起源于运动估计的不准确。故在B3B_3B3​中时间调制会给与汽车和灯笼顶部近乎0的权值;而单帧下B1B_1B1​不需要运动估计,就可以展现出较好的表现效果,故给与的权值近乎255,即在Max label map中汽车和灯笼顶部都是属于B1B_1B1​权值图的黄色。
  2. 对于运动较小的物体,多帧下的融合重建往往展现较好,这起源于对齐带来的优势,使得融合时候可以更好的利用帧的连续以及内容时间对齐带来的更多特征信息,有助于超分网络更好的展现重建效果。

5.4 Analysis of Spatial Alignment Methods

接下来分析时间对齐网络的相关特性研究,对于ROF的光流计算,我们采用这篇文章的方法。

首先展示的是ROF相较于其他传统flow-based对齐方法的优势,实验结果如下:

上述展现了ROF的准确的运动估计,因此作者将他作为Spatial Alignment network中localisation网络回归的变换参数的target值。对于LTD的时间对齐网络,我们输入60×6060\times 6060×60的patch,在对齐之后只要中间的30×3030\times 3030×30区域输送给融合SR网络——时间自适应网络,其余部分丢弃。此外,我们设置式(3)中λ=−103\lambda=- 10^{3}λ=−103,具体可视化结果如下:

实验结论如下:

  1. 我们的时间对齐网络的输出,即对齐版本的参考帧很不错的完成了和参考帧的对齐。

接下来我们来体现时间对齐网络在PSNR上的提升效果,实验结果如下:

我们设置了r=4r=4r=4,且对于融合SR网络均只是使用B3B_3B3​,即输入帧为连续对齐的5帧,实验结论如下:

  1. 我们的时间对齐网络表现力仅低于ROF,说明了其对齐的有效性。
  2. ROF自然是可以取得最佳的表现,这也为我们将它作为SAN中Localisation网络的标签提供了有力的证明。

5.5 Comparison with State-of-the-Art

这一节作者使用目前最佳性能的B1,2,3+TB_{1,2,3}+TB1,2,3​+T以及使用ROF作为target构成的整个LTD来和其他SR方法做对比。
实验结果如下:

实验结论如下:

  1. 从可视化来看,LTD展现了更少的artifacts。
  2. 从PSNR来看,LTD提升了最大的表现力。

对于高清数据集上的表现力结果如下:

实验结论如下:

  1. LTD在高清数据集上仍然取得了SOTA的表现力。

超分往往可以作为一些识别任务的前处理,故接下来作者就要展现LTD在高级计算机任务中展现的能力。作者将超分应用于人脸识别任务,使用YouTube Face数据集,SR缩放倍率r=4r=4r=4,每张图片裁剪成60×6060\times 6060×60的patch输入对齐网络,实验结果如下:

实验结论如下:

  1. LTD展现了最高的Top-1和Top-5表现,这证明了LTD的有效性,以及超分不仅可以提升人眼视觉的可观性,同时也可以用来提升很多高级计算机任务的性能。

5.6 Running Time Analysis

LTD主要由2部分组成,那么自然时间消耗就在时间对齐网络和时间自适应网络上。
①对于Spatial Alignment network,作者指出对于4k4k4k视频的重建,传统flow-based对齐需要15s来对齐5帧540×960540\times 960540×960(r=4r=4r=4),而SAN只需要0.8s!
②对于Temporal Adaptive network,B1B_1B1​需要0.3s去重建一张4k4k4k的高分辨图下,而B1、B2、B3B_1、B_2、B_3B1​、B2​、B3​只是输入维度不同,故时间相差不大。此外,所有的特征提取都基于LRLRLR层级且所有分支都是并行执行的,故其计算效率也是可行的。

6 Conclusions

  1. 作者主要提出了一种新的SOTA表现得VSR方法——LTD。它由Spatial Alignment network和Temporal adaptive network两部分组成。前者用于对齐,后者利用对齐的连续视频帧重建出HRHRHR图像帧。时间对齐网络基于STN,使用ROF作为target来优化变换参数;时间自适应网络基于注意力机制,通过使用NNN个并行的SR前向分支和时间调制分支产生用于自动选择最佳时间尺度(窗口、大小、滤波器、冗余)的SR网络,该网络可以是之前任意的SISR网络,比如ESPCN、SRCNN等。作者通过实验证明这两个网络都具备提升超分表现力的能力!
  2. LTD的缺陷主要在于时间对齐网络:一方面是其本质是flow-based方法,高度依赖于光流估计的准确性,一旦运动估计出错,就会导致大量的artifacts出现,且会直接影响后续融合SR网络。第二个方面是对于大运动,LTD仍欠缺可以应对的能力,这一点从实验中也可以看出。

超分之Robust VSR with Learned Temporal Dynamics相关推荐

  1. 超分之SR-LUT源码解析

    SR-LUT是2021年的一篇SISR领域的CVPR论文.SR-LUT以较快的执行速度,可脱离CNN在移动端也能快速实现超分的特点,此外其在重建表现力上也具有一定的能力.因此这篇文章很是有必要阅读一番 ...

  2. 超分论文笔记2020CVPR视频超分:Zooming Slow-Mo- VSR with Temporal Group Attention-TDAN

    Space-Time Video Super-Resolution (STVSR) 问题定义: 从一个低像素低帧率恢复出高帧率高分辨率的视频. 1.Zooming Slow-Mo: Fast and ...

  3. 论文笔记:Revisiting Temporal Modeling for Video Super-resolution(重新审视视频超分辨率的时间建模) Part1 系咁嘅啦

    ** 摘要: 视频超分辨率在监控视频分析和超高清视频显示中起着重要的作用,在研究界和工业界都引起了广泛的关注.尽管已经提出了许多基于深度学习的VSR方法,但是由于不同的损失函数和训练数据集对超分辨率结 ...

  4. 【论文精读】Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting

    [论文精读]Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting 针对未来的一个多步 ...

  5. 【论文导读】Time-Series Representation Learning via Temporal and Contextual Contrasting(时间和上下文对比的时间序列表示学习)

    Time-Series Representation Learning via Temporal and Contextual Contrasting(通过时间和上下文对比的时间序列表示学习) 论文信 ...

  6. 论文研读:Automatic Temporal Segment Detection and Affect Recognition From Face and Body Display

    摘要:情感的呈现包含一系列的时域分割:开启(onset).峰值(apex).结束(offset).在过去15年中(论文发表于2009年),计算机界对情感识别进行了大量的研究,但是大多数方法都有两点局限 ...

  7. 【CVPR2020视频超分辨率】Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video Super-Resolution 阅读笔记

    paper:Zooming Slow-Mo: Fast and Accurate One-Stage Space-Time Video Super-Resolution code:Zooming-Sl ...

  8. ECCV2020|图像重建(超分辨率,图像恢复,去雨,去雾等)相关论文汇总(附论文链接/代码/解析)

    转载自https://zhuanlan.zhihu.com/p/180551773 原帖地址: ECCV2020|图像重建/底层视觉(超分辨率,图像恢复,去雨,去雾,去模糊,去噪等)相关论文汇总(附论 ...

  9. Know-Evolve: Deep Temporal Reasoning for Dynamic Knowledge Graphs

    Know-Evolve: Deep Temporal Reasoning for Dynamic Knowledge Graphs Rakshit Trivedi 1 Hanjun Dai 1 Yic ...

最新文章

  1. 二叉树为空意味着二叉树_程序员的进阶课-架构师之路(8)-二叉树
  2. Define change document object
  3. centos文件服务器软件,seafile服务器端的centos8的快速部署
  4. anaconda下载太慢怎么办_BBTIME我爱上了 Anaconda
  5. python编程快速上手-----让繁琐工作自动化_Python编程快速上手让繁琐工作自动化--逗号代码和字符图网格...
  6. VSCODE远程连接服务器,远程开发。
  7. 【离散数学】二元关系的性质
  8. 基于SQL Server策略的管理-更改时评估模式
  9. c语言程序一些常见的不足,C语言常见错误分析及解决方法
  10. Emacs Lisp程序单步调试
  11. 局域网系统设计的主要内容
  12. PHP开发苍穹DDOS压力测试页端源码
  13. 玩转接口测试工具fiddler 教程系列1
  14. Linux Shell学习-第二讲(进阶篇)
  15. sh_10_嵌套打印小星星
  16. word论文参考文献字体间空隙
  17. RStudio介绍及入门
  18. 智原领先推出网通ASIC专用28纳米28G可编程SerDes
  19. 博士年薪22-40万,重点大学博士给100㎡产权房,安家费30-40万,省会城市高校 | 留言送书...
  20. 硬件开源编程利器MyHDL简介

热门文章

  1. Android中的事件处理之点击事件
  2. oppo装鸿蒙系统,针对华为鸿蒙系统,小米、OPPO相继表态,魅族的态度截然相反...
  3. STM32模拟I2C时序读写EEPROM精简版
  4. python pop函数里有数字_python中pop()函数如何使用
  5. c语言getchar的不赋任何变量,c语言getchar的用法
  6. ksd文件怎么导入存档_高考恋爱一百天存档修改说明
  7. 出现ERROR 17错误的对策
  8. 大学计算机基础电子板报实验,大学计算机基础实验.doc
  9. 521我发誓读完本文,再也不会担心Spring配置类问题了
  10. 用JAVA实现P2P网络通信