简介

近几年,Anchor-free的目标检测方法受到了很大的关注,究其原因,该类方法不需要像Anchor-base方法那样受限于anchor的配置(anchor的设置要求开发者对数据很了解)就可以获得不错的检测结果,大大减少了数据分析的复杂过程。Anchor-free方法中有一类方法是基于关键点的,它通过检测目标的边界点(如角点)来配对组合成边界框,RepPoints系列就是其代表之作,这包括了RepPoints、Dense RepPoints和RepPoints v2。不过,回顾更久远的历史,从模型的几何形变建模能力的角度来看,RepPoints其实也是对可变形卷积(Deformable Convolutional Networks,DCN)系列的改进,所以本文会从DCN开始讲起,简单回顾这几个工作对几何建模的贡献,其中,DCN系列包括DCN和DCN v2。

  • DCN(ICCV2017)
  • DCN v2(CVPR2019)
  • RepPoints(ICCV2019)
  • Dense RepPoints(ECCV2020)
  • RepPoints v2(暂未收录)

DCN

首先,我们来看DCN v1。在计算机视觉中,同一物体在不同的场景或者视角中未知的几何变化是识别和检测任务的一大挑战。为了解决这类问题,通常可以在数据和算法两个方面做文章。从数据的角度看来,通过充分的数据增强来构建各种几何变化的样本来增强模型的尺度变换适应能力;从算法的角度来看,设计一些几何变换不变的特征即可,比如SIFT特征。

上述的两种方法都很难做到,前者是因为样本的限制必然无法构建充分数据以保证模型的泛化能力,后者则是因为手工特征设计对于复杂几何变换是几乎不可能实现的。所以作者设计了Deformable Conv(可变形卷积)和Deformable Pooling(可变形池化)来解决这类问题。

可变形卷积

顾名思义,可变形卷积的含义就是进行卷积运算的位置是可变的,不是传统的矩形网格,以原论文里的一个可视化图所示,左边的传统卷积的感受野是固定的,在最上层的特征图上其作用的区域显然不是完整贴合目标,而右边的可变形卷积在顶层特征图上自适应的感受野很好的捕获了目标的信息(这可以直观感受得到)。

那么可变形卷积是如何实现的呢,其实是通过针对每个卷积采样点的偏移量来实现的。如下图所示,其中淡绿色的表示常规采样点,深蓝色的表示可变卷积的采样点,它其实是在正常的采样坐标的基础上加上了一个偏移量(图中的箭头)。

我们先来看普通的卷积的实现。使用常规的网格R\mathcal{R}R在输入特征图xxx上进行采样,采样点的值和权重www相乘加和得到输出值。举个例子,一个3x3的卷积核定义的网格R\mathcal{R}R表示如下式,中心点为(0,0)(0,0)(0,0),其余为相对位置,共9个点。

R={(−1,−1),(−1,0),…,(0,1),(1,1)}\mathcal{R}=\{(-1,-1),(-1,0), \ldots,(0,1),(1,1)\} R={(−1,−1),(−1,0),…,(0,1),(1,1)}

那么,对输出特征图yyy上的任意一个位置p0p_0p0​都可以以下式进行计算,其中pn\mathbf{p}_npn​表示就是网格R\mathcal{R}R中的第nnn个点。

y(p0)=∑pn∈Rw(pn)⋅x(p0+pn)\mathbf{y}\left(\mathbf{p}_{0}\right)=\sum_{\mathbf{p}_{n} \in \mathcal{R}} \mathbf{w}\left(\mathbf{p}_{n}\right) \cdot \mathbf{x}\left(\mathbf{p}_{0}+\mathbf{p}_{n}\right) y(p0​)=pn​∈R∑​w(pn​)⋅x(p0​+pn​)

而可变形卷积干了啥呢,它对原本的卷积操作加了一个偏移量{Δpn∣n=1,…,N}\left\{\Delta \mathbf{p}_{n} \mid n=1, \ldots, N\right\}{Δpn​∣n=1,…,N},也就是这个偏移量使得卷积可以不规则进行,所以上面的计算式变为了下式。不过要注意的是,这个偏移量可以是小数,所以偏移后的位置特征需要通过双线性插值得到,计算式如下面第二个式子。

y(p0)=∑pn∈Rw(pn)⋅x(p0+pn+Δpn)\mathbf{y}\left(\mathbf{p}_{0}\right)=\sum_{\mathbf{p}_{n} \in \mathcal{R}} \mathbf{w}\left(\mathbf{p}_{n}\right) \cdot \mathbf{x}\left(\mathbf{p}_{0}+\mathbf{p}_{n}+\Delta \mathbf{p}_{n}\right) y(p0​)=pn​∈R∑​w(pn​)⋅x(p0​+pn​+Δpn​)

x(p)=∑qG(q,p)⋅x(q)\mathbf{x}(\mathbf{p})=\sum_{\mathbf{q}} G(\mathbf{q}, \mathbf{p}) \cdot \mathbf{x}(\mathbf{q}) x(p)=q∑​G(q,p)⋅x(q)

至此,可变卷积的实现基本上理清楚了,现在的问题就是,这个偏移量如何获得?不妨看一下论文中一个3x3可变卷积的解释图(下图),图中可以发现,上面绿色的分支其实学习了一个和输入特征图同尺寸且通道数为2N2N2N的特征图(NNN为卷积核数目),这就是偏移量,之所以两倍是因为网格上偏移有x和y两个方向。

可变形RoI池化

理解了可变形卷积,理解可变形RoI就没有太大的难度了。原始的RoI pooling在操作时将输入RoI划分为k×k=Kk\times k = Kk×k=K个区域,这些区域叫做bin,偏移就是针对这些bin做的。针对每个bin学习偏移量,这里通过全连接层进行学习,因此deformable RoI pooling的输出如下式(含义参考上面的可变卷积即可)。

y(i,j)=∑p∈bin⁡(i,j)x(p0+p+Δpij)/nij\mathbf{y}(i, j)=\sum_{\mathbf{p} \in \operatorname{bin}(i, j)} \mathbf{x}\left(\mathbf{p}_{0}+\mathbf{p}+\Delta \mathbf{p}_{i j}\right) / n_{i j} y(i,j)=p∈bin(i,j)∑​x(p0​+p+Δpij​)/nij​

至此,关于DCN的解读就完成了,下图是一个来自原论文对的DCN效果的可视化,可以看到绿点标识的目标基本上被可变形卷积感受野覆盖,且这种覆盖能够针对不同尺度的目标。这说明,可变形卷积确实能够提取出感兴趣目标的完整特征,这对目标检测大有好处。

DCN v2

DCNv1尽管获得了不错的效果,然而还是存在着不少的问题,DCNv2中进行了一个可视化,对比了普通卷积、DCNv1和DCNv2的区别,下图中每个图片都有从上到下三个可视化,分别是采样点、有效感受野、有效分割区域。可以看出来,DCNv1虽然能覆盖整个目标,但是这种覆盖不够“精细”,会带来不少的背景信息的干扰。

为此,DCNv2提出了一些改进,总结下来就是:

  1. 使用更多的可变卷积层
  2. Modulated Deformable Modules(调制变形模块)
  3. RCNN特征模仿指导训练

更多的可变卷积层

DCNv1中,只在ResNet50的conv5中使用了3个可变形卷积,DCNv2认为更多的可变形卷积会有更强的几何变化建模效果,所以将conv3到conv5都换为了可变形卷积。之前之所以没有采用更多的可变形卷积,是因为当时没有在大型检测数据集上进行验证,致使精度提升不高。

调制可变卷积模块

这才是本文比较大的突破之一,设计了调制可变卷积来控制采样点权重,这样就可以忽略掉不重要甚至有负效果的背景信息。下式是引入偏移量的可变卷积输出特征图的计算式,这是DCNv1的思路。

y(p0)=∑pn∈Rw(pn)⋅x(p0+pn+Δpn)\mathbf{y}\left(\mathbf{p}_{0}\right)=\sum_{\mathbf{p}_{n} \in \mathcal{R}} \mathbf{w}\left(\mathbf{p}_{n}\right) \cdot \mathbf{x}\left(\mathbf{p}_{0}+\mathbf{p}_{n}+\Delta \mathbf{p}_{n}\right) y(p0​)=pn​∈R∑​w(pn​)⋅x(p0​+pn​+Δpn​)

上面我们不是发现DCNv1采样了很多无效区域吗,DCNv2则认为,从输入特征图上不仅仅需要学习偏移量,还需要学习一个权重来表示采样点区域是否感兴趣,不感兴趣的区域,权重为0即可。所以原来的计算式变为下式,其中我们所说的权重Δmk∈[0,1]\Delta m_{k} \in [0,1]Δmk​∈[0,1]称为调制因子。结构上的实现就是原来学习的offset特征图由2N个通道变为3N个通道,这N个通道的就是调制因子。

y(p)=∑k=1Kwk⋅x(p+pk+Δpk)⋅Δmky(p)=\sum_{k=1}^{K} w_{k} \cdot x\left(p+p_{k}+\Delta p_{k}\right) \cdot \Delta m_{k} y(p)=k=1∑K​wk​⋅x(p+pk​+Δpk​)⋅Δmk​

相应的,可变形池化也引入这样的调制因子,计算式变为下式,结构上的实现类似上面的调制可变卷积,这里就不详细展开了。

y(k)=∑j=1nkx(pkj+Δpk)⋅Δmk/nky(k)=\sum_{j=1}^{n_{k}} x\left(p_{k j}+\Delta p_{k}\right) \cdot \Delta m_{k} / n_{k} y(k)=j=1∑nk​​x(pkj​+Δpk​)⋅Δmk​/nk​

RCNN特征模仿

作者发现,RCNN和Faster RCNN的分类score结合起来,模型的表现会有提升。这说明,RCNN学到的关注在物体上的特征可以解决无关上下文的问题。但是将RCNN融入整个网络会降大大降低推理速度,DCNv2这里就采用了类似知识蒸馏的做法,把RCNN当作teacher network,让DCNv2主干的Faster RCNN获得的特征去模拟RCNN的特征。

整个训练设计如上图,左边的网络为主网络(Faster RCNN),右边的网络为子网络(RCNN)。用主网络训练过程中得到的RoI去裁剪原图,然后将裁剪到的图resize到224×224作为子网络的输入,最后将子网络提取的特征和主网络输出的特征计算feature mimicking loss,用来约束这2个特征的差异(实现上就是余弦相似度)。同时子网络通过一个分类损失(如下式)进行监督学习,因为并不需要回归坐标,所以没有回归损失。推理阶段因为没有子网络,所以速度不会有缺失。

Lmimic⁡=∑b∈Ω[1−cos⁡(fRCNN(b),fFRCNN(b))]L_{\operatorname{mimic}}=\sum_{b \in \Omega}\left[1-\cos \left(f_{\mathrm{RCNN}}(b), f_{\mathrm{FRCNN}}(b)\right)\right] Lmimic​=b∈Ω∑​[1−cos(fRCNN​(b),fFRCNN​(b))]

很多人不理解RCNN的有效性,其实RCNN这个子网络的输入就是RoI在原输入图像上裁剪出来的图像,这就导致不存在RoI以外区域信息(背景)的干扰,这就使得RCNN这个网络训练得到的分类结果是非常可靠的,以此通过一个损失函数监督主网络Faster RCNN的分类路线训练就能够使网络提取到更多RoI内部特征,而不是自己引入的外部特征。这是一种很有效的训练思路,但这并不能算创新,所以DCNv2的创新也就集中在调制因子上了。而且,从这个训练指导来看,DCNv2完全侧重于分类信息,对采样点没有监督,因此只能学习分类特征而没有几何特征。

DCNv2对DCNv1进行了一些粗暴的改进并获得了卓有成效的效果,它能将有效感受野更稳定地聚集在目标有效区域,尽管留下了一些遗憾,不过前人的坑总会被后人解决,那就是RepPoints的故事了。

RepPoints

这篇文章发表于ICCV2019,新颖地提出使用点集的方式来表示目标,这种方法在不使用anchor的前提下取得了非常好的效果。很多人认为RepPoints是DCNv3,这是由于RepPoints也采用了可变形卷积提取特征,不过它对采用点有相应的损失函数(追求更高的可解释性),可以对DCN的采样点进行监督,让其学习有效的RoI内部信息。此外,它也弥补了之前DCNv2的遗憾,可以学习到目标的几何特征,,而不仅仅是分类特征。

总结一下,个人觉得,RepPoints主要针对了之前DCNv2的offset(偏移量)学习过于black box,难以解释,所以采用了定位和分类损失直接监督偏移量的学习,这样定位和识别任务会更加“精致”一些。从这个角度来看(如果仅仅是将RepPoints看作一种新的目标表示法未免太低估其价值了),它其实是对DCNv2的改进,至于作者是不是这个出发点,,可以参考作者的知乎回答,,总之,其对DCNv2的改进可以总结如下:

  1. 通过定位和分类的损失直接监督可形变卷积的偏移量的学习,使得偏移量具有可解释性;
  2. 通过采样点来直接生成伪框 (pseudo box),不需要另外学习边界框,这样分类和定位建立起了联系。

当然,上面这些看法是从DCNv2的角度来看的,下面我们回归作者论文的思路来看看RepPoints是如何实现的。

首先,RepPoints(representative points,表示点)具体是怎样表示目标的呢,其实就像下图这样。显然,这和传统的bbox表示法(bounding box,边界框)不同。在目标检测任务中,bbox作为描述检测器各阶段的目标位置的标准形式。然而,其虽然容易计算,但它们仅提供目标的粗略定位,并不完全拟合目标的形状和姿态(因为bbox是个矩形,而目标往往不可能如此规则,所以bbox中必然存在冗余信息,这会导致特征的质量下降从而降低了检测器性能)。对此,提出了一种更贴合目标的细粒度目标表示RepPoints,其形式是一组通过学习自适应地置于目标之上的点,这种表示既限制了目标的空间位置又捕获了精确的语义信息。

RepPoints是一种如下的二维表示(我们一般用2D表示和4D表示来区分anchor-free和anchor-base方法),一个目标由nnn个点确定,在该论文中nnn设置为9。

R={(xk,yk)}k=1n\mathcal{R}=\left\{\left(x_{k}, y_{k}\right)\right\}_{k=1}^{n} R={(xk​,yk​)}k=1n​

这种点表示可以通过转换函数T\mathcal{T}T转换为伪框(pseudo box),三种转换函数具体可以参考原论文3.2节。然后就是RepPoints的监督学习了,这里也不难实现,通过pseudo box就可以和GT的bbox进行定位监督了,而分类监督和之前的方法没有太大的区别。

借此,作者设计了一个anchor-free检测框架RPDet,该框架在检测的各个阶段均使用RepPoints表示。通过下图的Pipeline其实就能理解这个网络架构:首先,通过FPN获得特征图;不同于其他单阶段方法一次分类一次回归得到最终结果,RPDet通过两次回归一次分类得到结果(作者自称1.5阶段),分类和第二次回归均采用可变形卷积,可变形卷积可以很好的和RepPoints结合。因为它是在不规则点上进行的。可形变卷积的偏移量是通过第一次回归得到的,也就意味着偏移量在训练过程中是有监督的,而第一次回归的偏移量通过对角点监督得到。采用这种方式,后续的分类和回归特征均是沿着目标选取的,特征质量更高。

Dense RepPoints

Dense RepPoints是RepPoints之后的一个成果,它将RepPoints拓展至实例分割任务,而方法就是采用更加密集的点集表示目标,如下图。

Dense RepPoints在RepPoints的基础上进行了如下拓展,使用了更多的点并赋予了点属性。而在表示物体方面,Dense RepPoints采用上图第四个边缘掩码的方式表示目标,它综合了轮廓表示(表示边缘)和网格掩码(前后景区分,利于学习)的优点。

R={(xi+Δxi,yi+Δyi,ai)}i=1n\mathcal{R}=\left\{\left(x_{i}+\Delta x_{i}, y_{i}+\Delta y_{i}, \mathbf{a}_{i}\right)\right\}_{i=1}^{n} R={(xi​+Δxi​,yi​+Δyi​,ai​)}i=1n​

最后pipeline和常规的思路很类似,唯一的问题就是采用点集在目标检测中尚可,用于分割会因为点数太多导致计算量大增,所以设计Group pooling;、Shared offset fields;、Shared attribute map来减少计算量,此外还发现点集损失比点损失更加合适等问题,具体可以查阅论文。

RepPoints v2

最后,我们来看看最新的RepPoints v2,这是对原本RepPoints目标检测任务上的改进。验证(这里指的是分割任务)和回归是神经网络两类通用的任务。验证更容易学习并且准确,回归通常很高效并且能预测连续变化。因此,采用一定的方式将两者组合起来能充分利用它们的优势。RepPoints v2就是在RepPoints的基础上增加了验证模块,提升了检测器性能。

这篇文章细节不少,这里不展开了,直接对着上面的pipeline讲讲整体的思路。RepPoints V2在RepPoints方法基础上添加了一个验证(分割)分支,该分支主要包含两部分,一部分是角点预测,另一部分是目标前景分割。

如上图所示,训练阶段得到分割heatmap后,这个分割图和原始特征相加,作为回归特征的补充。不过,在推理阶段,在回归分支获取到目标位置后,利用该分割heatmap来对结果进行进一步修正。

总的来说,这个分支的添加对任务提升不小:一方面多任务往往会带来更好的效果;另一方面,利用分割图增强特征确实可以增强回归效果。

RepPoints v2工作有一定的可拓展性,它证明了在基于回归的方法上加上这个模块确实可以提升性能,后人要做的就是权衡精度和速度了。

总结

从DCN到RepPoints,本质上其实都是更精细的特征提取演变的过程。点集(RepPoints)方式只是显式的表现了出来而已,不过其确实能在精度和速度上取得非常好的平衡。以RepPoints或者类似的思路如今已经活跃在目标检测和实例分割任务中,推动着计算机视觉基础任务的发展,,这是难能可贵的。而且,跳出bbox的范式也诠释着,有时候跳出固有的范式做研究,会获得意想不到的效果。

DCN RepPoints解读相关推荐

  1. 搜索和CTR预估入坑指南

    简介 搜索小白.CTR小白,整理了一份入坑指南,一些比较好的博客和论文.本文适用于有一定的机器学习和深度学习基础,但是不懂搜索和CTR的同学. 注:后续会不定时更新. 基础 主要是一些经典的语言模型( ...

  2. CTR 模型之 Deep Cross (DCN) 与 xDeepFM 解读

    CTR 系列文章: 广告点击率(CTR)预测经典模型 GBDT + LR 理解与实践(附数据 + 代码) CTR经典模型串讲:FM / FFM / 双线性 FFM 相关推导与理解 CTR深度学习模型之 ...

  3. RepPoints(本质是可变形卷积DCN)再理解

    虽然在之前学习过RepPoints这个网络,但当时理解较为浅显,现在再看论文和一些博客解释,感觉又有了新的收获. RepPoints是一种anchor-free网络,说的是使用具有一组代表性的点来表示 ...

  4. 【论文解读】DCN-M:Google提出改进版DCN,用于大规模排序系统的特征交叉学习(附代码)...

    " 本文结合DeepCTR-Torch中的代码实现,介绍了DCN的改进版--DCN-M.该模型能更有效地学习特征交叉,并通过低秩矩阵分解对参数矩阵进行降维,降低计算成本.受MOE结构启发,作 ...

  5. 当Swin Transformer遇上DCN,效果惊人!

    来源:机器之心 Transformer 近来在各种视觉任务上表现出卓越的性能,感受野赋予 Transformer 比 CNN 更强的表征能力.然而,简单地扩大感受野会引起一些问题.一方面,使用密集注意 ...

  6. 当Swin Transformer遇上DCN,清华可变形注意力Transformer模型优于多数ViT

    ©作者 | 小舟 来源 | 机器之心 本文中,来自清华大学.AWS AI 和北京智源人工智能研究院的研究者提出了一种新型可变形自注意力模块,其中以数据相关的方式选择自注意力中键值对的位置,使得自注意力 ...

  7. 近期有哪些值得读的QA论文?| 专题论文解读

    作者丨徐阿衡 学校丨卡耐基梅隆大学硕士 研究方向丨QA系统 知乎专栏丨徐阿衡-自然语言处理 FastQA ■ 论文 | Making Neural QA as Simple as Possible b ...

  8. SQuAD文本理解挑战赛十大模型解读

    在斯坦福大学发起的 SQuAD(Stanford Question Answering Dataset)文本理解挑战赛中,微软亚洲研究院和阿里巴巴的 R-NET 模型和SLQA 模型在 EM 值(表示 ...

  9. yolov4论文_YOLOv4论文详细解读

    大家好,本次分享的是YOLOv4的那篇论文我将主要从这几个部分对该论文进行详细的解读首先来看论文的主要内容YOLOv4这篇论文主要是介绍如何使用一些通用的新方法达到了最先进的实验结果,他们在COCO数 ...

最新文章

  1. SharePoint 2010 单点登录
  2. Python 2 中文乱码解决方案:
  3. RMI、JNDI、LDAP介绍+log4j漏洞分析
  4. C语言 泛型链表的实现
  5. (mysql) EXPLAIN语法
  6. 【安全系列之跨域】跨域解决方案
  7. 基于ZooKeeper的分布式Session实现
  8. TensorFlow 2.X中的动手NLP深度学习模型准备
  9. python---统计列表中数字出现的次数
  10. Python写简单的TCP服务器
  11. win32开发(添加菜单)
  12. 最经典沙盒游戏《我的世界》部分开源:微软出手,称人人可用
  13. 数据大屏可视化展示系统有什么作用
  14. openssh常用命令记录
  15. C3P0连接池配置参数讲解
  16. IDC运维工程师的基本要求
  17. 星之卡比镜之迷宫机器人_星之卡比镜之迷宫boss全方位攻略
  18. SecureCRT 不能输入命令及回车键不能用
  19. python plt绘制柱状图形+柱状图增加数字标注
  20. 58同城一面【前端】

热门文章

  1. RocketMQ消息支持的模式-OrderProducer(顺序)
  2. MybatisPlus实现条件查询
  3. 依赖注入_set方法注入_构造器注入
  4. 接口中也可以有方法了
  5. Filter_快速入门
  6. mysql的电话面试题_以往百度电话面试题
  7. 天津市职高高一计算机试题及答案,职高(中职)数学(基础模块)上册题库.doc
  8. linux7配置开启防火墙,CentOS7防火墙设置
  9. ts watch路由 参数变化_vue watch 监听路由变化
  10. 04 数据操作 + 数据预处理【动手学深度学习v2】