目录
  • 广义交并比-GIOU(回归检测的一种指标和Loss)

    • 注释
    • 1. 摘要
    • 2. 介绍
    • 3. 相关工作
    • 4. 广义交并比
    • 5. GIOU作为目标检测的LOSS
    • 6. 实验结果
    • 7. 个人理解
    • 单词汇总

广义交并比-GIOU(回归检测的一种指标和Loss)

注释

  • 本系列《论文翻译》仅代表个人观点
  • 目的提高英文阅读能力
  • 错误之处较多,欢迎读者修正,在此感谢

1. 摘要

  目标检测的评价指标最常使用的是交并比进行度量。然而在优化(经常使用距离参数对边界框进行回归)和最大化(最大化这个度量参数)之间存在一些缺陷(这里指代价函数和优化目标之间存在不对等情况,具体看后文就会明白)。度量的最优目标就是其本身。在轴对称的情况下,IOU可以直接当做回归损失。然而,在不想交的情况下,IOU是不能当做度量值的。在本文中,我将通过介绍一种新的度量(GIOU)和LOSS计算方法来解决IOU的缺点。通过把GIOU融合进当前最先进的网络之中(数据集使用当前最流行的基准PASCAL VOC、COCO等),对比GIU和IOU,展示出GIOU一致的优于IOU的表现。

2. 介绍

  框回归是2D、3D计算机视觉任务中最重要的组成部分之一。任务包括:目标定位、多目标检测、目标跟踪、依靠高精度的框回归实例级分割。 使用深度神经网络去提高应用的性能,占主导地位的方法是提出一个更好的基础架构或者更好的策略来提取更精确的特征。然而一个很好的提高方法被忽视,使用损失的度量方法IOU去代替回归损失(L1--LOSS、L2--LOSS)。

  IOU又被称为Jaccard索引,常用来作为两个任意形状目标相似性对比。IOU对目标的形状属性进行编码,长宽高位置等,然后对他们的区域计算一个标准的度量。由IOU的计算属性,具有尺度不变性。由于这个良好的属性,所以被广泛的应用在分割和目标检测中进行性能评价。

  然而,IOU没有表现出很好的相关性,对于 \(l_n-norms\) 等损失最小化(2D、3D中两个框参数化)和提高他们IOU值。例如:在图1(a)中,假设LOSS采用\(l_2-norm\)进行表示,则每个LOSS的大小相同。相同的论述可以推广到其他的loss(图b和图c)。直观上,一个好的目标局部最优不一定是IOU局部最优。和IOU相反,\(l_n-norm\) 是不具有尺度不变性的。为了这个目的,一些具有透视变换的区域(同一水平),那么他们计算出的LOSS就不相同。此外,一些不同的参数化类型表述之间可能缺少标准化。比如使用中心点和大小表示的\((x,y,w,h)\),随着更多参数(旋转、或者增加一个维度表示)的合并,复杂度也会增加。为了解决上述的问题,一些优秀的检测器提出了的概念,来做一个初始化的假设。又定义一个非线性的参数来对尺度进行补偿。即使做了这些手动改变,也不无弥补优化器和IOU之间的差别。注释:这是表达的意思是我们进行训练最小化的东西A,评价的指标B,A和B之间没有统一(标准化)。例如,最小二乘法,我们最小化和评价的指标都是一个(平均垂直到线的距离最小)。而在目标检测的时候我们使用的是L1-LOSS,而评价的时候使用IOU。作者给出的图一发现这两个不统一。Anchor的出现是为了简化目标得表示方式,尺度参数的出现(SSD里面是编解码)是为了解决多尺度问题

  在这篇文章中,我们发现一种与流行方法不同的可计算IOU,在两个轴对齐的情况下,可以直接得到解,并且此方式可以反向传播。也可以使用优化器进行优化得到最优值。在2D、3D的目标检测中可以非常好的使用IOU进行计算。这样IOU既可以当做优化函数,也可以作为度量函数。然而,IOU同时作为度量和LOSS存在一个重要问题:如果两个框不想交,那么就无法衡量两个框的距离,同时值为0,当计算梯度的时候就无法使用优化器进行传播。

  在这篇文章中,我们通过扩充IOU的概念(范围)去解决不想交的情况。我们确保具有以下性质:(a)和IOU的定义一样,对边界进行编码。(b)保持尺度不变性。(c)在相交的情况和LOSS有很强的相关性。我们介绍的方法称为GIOU,作为解决两个任意形状的几何相关性。我们也提供了一种计算GIOU的分析方案,在两个轴对齐的情况下,让它称为计算LOSS的一种途径。在当前最先进的检测网络合并入GIOU,可以达到比之前都有提升的结果。。。(后面都是和摘要相同)。

  这篇文章最主要的贡献总结如下(都是废话):

  • GIOU用于对比两个任意形状的框
  • 提供计算方案
  • 在网络进行了实验

3. 相关工作

  目标检测精度测量:IOU作为基础,当IOU大于0.5时候作为计算输入,使用mAP作为衡量基准。

  边界框的表现和LOSS计算:说了一些传统论文的计算方法。。。。

  使用近似IOU或一个替代函数:在语义分割任务中,他们做了一些努力,使用近似或另外的函数替代LOSS的计算。在当前的目标检测中,部分论文已经开始使用IOU作为LOSS的计算,但是在不想交的情况下如何应用还是个未解决的问题。

4. 广义交并比

  IOU用来衡量两个任意形状的相关性:

\[IOU=\frac{|A\bigcap B|}{A\bigcup B} \]

  IOU作为2D、3D目标检测评价函数最广泛的使用,主要包括两个优点:

  • IOU表示一个距离,假设\(L_{IOU}=1-IOU\)为一个指标,也就意味着\(L_{IOU}\)满足所有的属性,包括难以辨认的、对称的、不等三角等。
  • IOU具有尺度不变性,这也就意味着,在\(S\)空间中,A和B的关系对于尺度具有不变性。

然而,IOU存在一个主要的缺点:

  • 当\(|A\bigcap B|=0\),\(IOU(A,B)=0\)。在这种情况下,IOU无法反应出两个形状在附近还是非常远。

为了解决这个问题,我们提出一个扩充的IOU来解决这个问题,命名为GIOU。

。。。说了一段计算GLOU的话,就是如下公式:

GIOU具有如下的优点:

  • 和IOU类似
  • 尺度不变
  • GIOU <= IOU
  • 0 =< IOU <= 1

5. GIOU作为目标检测的LOSS

这部分很简单,IOU怎么计算的,GIOU同样计算

  下面放一张原论文的计算图即可:

  LOSS的稳定性分析:当出现一些极端情况的时候,哪个度量方式会使LOSS更稳定?

6. 实验结果

不进行分析,直接看结果即可

7. 个人理解

  本文的思想非常简单,就是说LOSS和评估函数得相等,不然LOSS学到的东西不等于评价结果。主语如果做得论文说的很清楚,这里不再赘述。

关于网上说的几个问题,这里个人回答一波

  1. 为什么 \(、L_1、L_2\) 作为LOSS可以得出不错的结果?

其实回答这个问题很简单,因为\(、L_1、L_2\)的计算在一定情况下是符合优化目标的

试想一下,SSD的框定义那么多,总有一个符合计算模式的(而且是精心设计的框)

如果按照作者说的,把anchor和GroundTrue全部不想交试试?gradient=0怎么计算?

  1. 为什么GIOU的效果不明显,有的反而不好?

不明显?

效果不明显是因为SSD这种框太多了,很多都符合\(、L_1、L_2\)的计算模式了。

可以试试把SSD框降低,同时一张图像中的目标增加

反而不好?

按照理论分析基本不可能

单词汇总

  • metric:度量
  • optimal: 最优
  • plateau: 平面
  • infeasible: 不可行
  • adress: 解决
  • incorporating:合并
  • consistent:一致的
  • instance level segmentation:实例级分割
  • dominate:占统治地位
  • utilizing:利用
  • surrogate:取代、代替
  • arbitrary:任意的
  • appealing:吸引人的(appeal呼吁、吸引)
  • significant:明显的
  • intuitive:直观上
  • to this end:为了这个目的
  • alleviate:减轻
  • compensate:补偿
  • prevailing:流行的
  • maintains:保持
  • remedy:修正
  • crucial:重要的
  • volumes:容器
  • fulfill:满足
  • discern:辨认、识别
  • symmetry:对称
  • vicinity:附近
  • ellipse:椭圆
  • tighter:紧
  • protocol:协议

《论文翻译》 GIOU相关推荐

  1. Sparse R-CNN: End-to-End Object Detection with Learnable Proposals论文翻译

    Sparse R-CNN: End-to-End Object Detection with Learnable Proposals论文翻译 摘要 1.介绍 2.相关工作 3.Sparse R-CNN ...

  2. ECCV2020 Piou Loss论文翻译

    ECCV2020 Piou Loss论文翻译 摘要 1. 介绍 2 相关工作 2.1 定向目标检测器 2.2 回归损失 3 Pixels-IoU (PIoU) Loss 4.Retail50K 数据集 ...

  3. Spatial As Deep: Spatial CNN for Traffic Scene Understanding论文翻译

    Spatial As Deep: Spatial CNN for Traffic Scene Understanding论文翻译 Abstract摘要 Convolutional neural net ...

  4. 论文翻译_论文翻译的注意事项有什么?

    针对不同题材的文稿有不同的翻译标准,论文翻译是比较严谨的一种翻译类型,下面小编给大家分享论文翻译的注意事项有什么? 注意"从一而终" 所有的论文,在权威平台上发布的时候都必须译为英 ...

  5. 转:经典论文翻译导读之《Google File System》

    首页 所有文章 资讯 Web 架构 基础技术 书籍 教程 Java小组 工具资源 - 导航条 -首页所有文章资讯Web架构基础技术书籍教程Java小组工具资源 经典论文翻译导读之<Google ...

  6. 论文翻译_做论文翻译需要知道哪些翻译技巧?知行翻译:这3个技巧

    论文,在古代是指交谈辞章或交流思想.而现代常用来指进行各个学术领域的研究和描述学术研究成果的文章.论文不仅是探讨问题进行学术研究的一种手段,也是描述学术研究成果进行学术交流的一种工具.常见的种类包括学 ...

  7. php 谷歌翻译api_科研福音,论文翻译神器系列!

    参考文献很大程度上反映了一篇论文的水平.对于研究生来说,自己动手写论文前的第一步工作就是阅读大量高水平.前沿的文献,而这些论文大多是英文写就. 人工翻译一般比较耗时且需要扎实的语言功底,对于初学者来说 ...

  8. Arcface v1 论文翻译与解读

    神罗Noctis 2019-10-13 16:14:39  543  收藏 4 展开 论文地址:http://arxiv.org/pdf/1801.07698v1.pdf 最新版本v3的论文翻译:Ar ...

  9. 【转】分布式一致性算法:Raft 算法(Raft 论文翻译)

    编者按:这篇文章来自简书的一个位博主Jeffbond,读了好几遍,翻译的质量比较高,原文链接:分布式一致性算法:Raft 算法(Raft 论文翻译),版权一切归原译者. 同时,第6部分的集群成员变更读 ...

最新文章

  1. 简述python程序执行原理_Python程序的执行原理(1)
  2. MAC 压测工具Webbench
  3. 云原生全球最大峰会之一KubeCon首登中国 Kubernetes将如何再演进?
  4. 深入浅出WPF之Binding的使用(一)
  5. Circulation:吃鸡蛋量多,死亡风险增加?
  6. 卖程序的小女孩(转)
  7. python脚本-记录Python脚本的运行日志的方法
  8. 驱动——K7-DMA-PCIe
  9. 中国公司的「强」盛、拼多多「翻车」和吃不了的播 | 极客一周
  10. QTableWidgetItem
  11. Edge浏览器主页被hao123劫持怎么办?
  12. lic文件用计算机程序打开,LIC 文件扩展名: 它是什么以及如何打开它?
  13. 我的专业我的梦作文计算机,我的创新我的梦优秀作文
  14. 数字图像处理实验之伽马变换
  15. Redis源码初探(1)简单动态字符串SDS
  16. 《新学期,新FLAG》——如梦初醒
  17. mysql ud83cudf19__如何转义emoji表情,让它可以存入utf8的数据库?
  18. 启动/关闭oracle服务有三种方式
  19. 用JAVA正则表达式轻松替换JSON中大字段
  20. c语言应用论文英文,c语言中英文翻译资料 本科毕业论文(设计).doc

热门文章

  1. 亚马逊cdn使用教程_如何使用亚马逊车库找到适合您汽车的零件
  2. 怎么快速将PDF文件转换格式?这几个方法完美解决!
  3. Win10 cmd 切换磁盘路径
  4. 未在本地计算机上注册 microsoft.jet.oledb.4.0 提供程序
  5. 埋点数据mysql分析_用户行为分析-埋点实时数仓实践(附用户关联源码)
  6. svn安装端口冲突解决
  7. python中pyecharts怎么设置坐标轴两边留白_《Python数据可视化之Matplotlib与Pyecharts》之双坐标轴图...
  8. 2021年Java春招面试经历,Java进阶:什么是TCP-IP
  9. vue: v-for在表格标签的tr标签里不能使用情况
  10. mysql 命令行启动服务_mysql在windows下命令行启动与关闭服务