标签:Pose Errors;3D Detection; Motion Forecasting;Intermediate Collaboration;

论文标题:Learning to Communicate and Correct Pose Errors
发表会议/期刊:4th Conference on Robot Learning (CoRL 2020), Cambridge MA, USA
数据集:V2V-Sim

问题:在协同自动驾驶中,每个车辆的精确定位(pose信息)将用于对特征图进行空间对齐。但是,在实际应用中,车辆定位通常存在噪声( pose噪声),通过无线通信传输车辆可能会接收到的错误信息。所以,在存在 pose噪声的情况下,会损害协同自动驾驶系统的性能,甚至可能比单车感知的性能还差。

本文方法

本文基于V2VNet协同感知预测框架,提出了一个通信可学习的神经网络模型用于校正 Pose Errors,车辆之间通过分享中间特征图,以协作的方式联合进行目标检测和motion预测。

Motion预测:对感知模块所检测到的运动物体进行未来一段时间内行为意图的预测,并将预测的结果转化为时间维度和空间维度的轨迹。

1 Pose Errors纠正

本文研究了V2VNet中提出的设置,即附近的自动驾驶车辆以协作的方式联合进行目标检测和motion预测。本文遵循V2VNet的设置,通过分享中间特征图,因为它实现了更好的性能和更有效的通信。

1.1 V2VNet

带pose噪声的V2V通信设置下的V2VNet

1)V2VNet将LiDAR点云体素化为15cm3的体素,并沿着高度维度将它们串联起来,形成一个鸟瞰视角的输入表示。
2)通过一个二维CNN(F)处理,生成空间特征图。
3)每个自动驾驶车辆(SDV)压缩并向附近的SDV广播这些空间特征图。
4)当接收车辆收到来自其他车辆的特征图时,使用自己的pose和发送车辆的pose来计算相对pose以将接收到的特征图从发送车辆的视角转换到自己的视角下,然后通过图神经网络(GNN)G将特征图进行汇总聚合。
5)融合后的特征经过一个CNN(H)预测最终的输出(目标检测:用3D位置、宽度、高度和方向表示,motion预测:未来time steps的目标位置)。

由于在特征信息共享和聚合的过程中,pose噪声会导致特征空间对齐错位,最终影响目标检测和motion预测精度。因此,V2VNet容易受到pose噪声的影响,在现实的噪声存在的情况下,V2VNet的性能可能比单车感知预测更差。

Pose notation:由于输入LiDAR点云处理是以鸟瞰视图进行的,这里将每个pose表示为由两个平移分量和一个旋转角度组成的一个矢量。

1.2 抗pose噪声的鲁棒通信

为了提高V2VNet对pose噪声的鲁棒性,在特征图空间对齐步骤之前,提出了一个 end-to-end可学习模块,主要由3部分组成,其中,pose回归模块consistency模块用来修复pose errors。在特征聚合之前,注意力模块将学习预测一个二进制注意力权重,用于特征信息的加权平均以过滤掉噪声信息。(相比之下,V2VNet在GNN步骤中执行的是统一平均,而不是加权平均。)

1. Pose回归模块:预测一对车辆之间的相对pose噪声。
2. Consistency模块:为了保证同一Object的pose信息的全局一致性,提出了一个基于 Markov random field with Bayesian reweighting 的consistency模块。(pose一致性:一个object的pose从多个agent的角度来看应该是一致的。)通过在所有的SDV中找到一组全局一致的绝对poses来完善回归模块输出的相对pose估计,让SDV对彼此的绝对pose达成全局共识,以进一步减少pose error。
3. 注意力聚合模块:在通信信息聚合步骤中,使用通过预测得到的注意力权重来减弱(过滤)车辆之间的异常信息(噪声)。
这些模块采用end-to-end的联合学习方式,以改善目标检测和motion预测性能。

1.2.1 pose回归模块

每个自动驾驶车辆的pose都有一个pose噪声估计ξ~i\tilde{\xi }_iξ~​i​,并且会接收附近车辆发送的带有噪声的pose,以用于计算从发送车辆到接收车辆的pose相对变换ξ~ji\tilde{\xi}_{ji}ξ~​ji​(含噪声)。

  1. 将接收车辆捕获的特征mim_imi​和经过坐标系转换后的发送车辆捕获的特征mjim_{ji}mji​进行拼接,输入一个CNN来学习接收车辆和发送车辆捕获的特征图之间的差异c^ji\hat{c}_{ji}c^ji​;
  2. 基于pose相对变换ξ~ji\tilde{\xi }_{ji}ξ~​ji​(含噪声),计算真实相对变换:ξ^ji=c^ji∘ξ~ji\hat{\xi}_{ji}=\hat{c}_{ji}\circ \tilde{\xi }_{ji}ξ^​ji​=c^ji​∘ξ~​ji​(注:对每条有向edge进行独立的预测,所以ξ^ji≠ξ^ij−1\hat{\xi}_{ji}\neq\hat{\xi}^{-1}_{ij}ξ^​ji​=ξ^​ij−1​)。

1.2.2 consistency模块

将consistency 拟定为 Markov随机场(MRF),其中,每个车辆的pose为一个节点。
1)由于pose回归模块预测的相对pose误差会有很多异常值,这里假设每个pose ξi\xi_iξi​服从一个以相对pose为条件的均值为 ξi∈R3\xi_i\in\mathbb{R}^3ξi​∈R3 scale为Σi∈R3×3Σ_i\in R^{3 \times 3}Σi​∈R3×3的多变量 student t-distribution。
2)对edge potentials进行重新加权,来减少错误的pose回归输出的权重,从而减少低权重的项对估计值的影响。
3)对每个权重wjiw_{ji}wji​使用一个均值为两个特征图之间的空间重叠率的 Gamma先验分布,那么如果两个特征图之间有更多的空间重叠,pose预测的置信度就更高。

二元势(pairwise potentials)由三部分组成:似然、权重和权重预设

似然项p(ξ^ji◦ξj)p(\hat{ξ}_{ji}◦ξ_j )p(ξ^​ji​◦ξj​)和p(ξ^ij−1◦ξj)p(\hat{ξ}_{ij}^{-1} ◦ξ_j)p(ξ^​ij−1​◦ξj​),都是以ξiξ_iξi​为中心的t分布。二元势鼓励从发送车辆处获得的pose (ξjξ_jξj​) 经过相对pose变换后,接近于目标车辆的pose (ξiξ_iξi​)。

通过使所有二元势(pairwise potentials) 的乘积最大化,来优化绝对pose ξi\xi_iξi​,scale参数ΣiΣ_iΣi​,以及权重wjiw_{ji}wji​:
然后,使用这些估计的poses来更新空间对齐所需的相对变换。

1.2.3 注意力聚合模块

经过pose回归模块预测和consistency模块完善后的相对pose变换可能仍有一些信息存在噪声。为了进一步过滤噪声信息,提出了一个简单的attention机制,给每个特征分配一个权重。
1)采用一个CNN 来学习权重sji∈Rs_{ji}∈\mathbb{R}sji​∈R,并对其进行归一化:

2)基于权重,对自车和所有接收到的信息进行聚合:

3)聚合信息再经过一个CNN来预测目标检测的边界框和未来一段时间内目标物体的行动轨迹。

1.3 训练

  1. Supervising attention:训练V2VNet和attentipn网络
    为了判别样本是否带有噪声,把样本噪声识别当作一个有监督的二元分类任务。
    对于训练数据和标签,在一个场景中对一些车辆的样本添加强pose噪声,对其他车辆添加弱pose噪声。跟pose一样,噪声有两个平移分量和一个旋转分量(x,y,θ)(x,y,θ)(x,y,θ)。中心位置(x,y)(x,y)(x,y)的强和弱噪声分别从μ=0,σ=0.4和σ=0.01的高斯分布中提取;rotational强噪声和弱噪声分别从μ=0,σ=4∘4^\circ4∘和σ=0.1∘0.1^\circ0.1∘的von Mises分布中提取。
    当考虑一个协同感知信息时,如果两个agent都有来自弱分布的噪声,则认为该协同感知信息是不存在噪声的;而当其中任何一个agent有来自强分布的噪声时,则认为是有噪声的,即:

    由此产生smoot标签用来调节注意力模块的权重预测,所以注意力的权重不只是0或1。联合训练任务的损失定义如下:

    其中LCEL_{CE}LCE​是二元交叉熵损失。
  2. Pose回归
    V2VNet和attention训练好之后,将其冻结,只使用pose的每个坐标的损失之和LcL_cLc​来训练pose回归模块(在这个阶段,所有的SDV都从强噪声分布DsD_sDs​中获得噪声):

    λ=[λpos,λpos,λrot]λ=[λ_{pos}, λ_{pos}, λ_{rot}]λ=[λpos​,λpos​,λrot​],Lsl1L_{sl1}Lsl1​为smooth L1损失。最后,用组合损失L=Lc+LtaskL = L_c + L_{task}L=Lc​+Ltask​对整个网络进行end-to-end微调。

2 实验

在各种噪声环境下,对所提出的方法的检测、预测和pose correction进行了评估。

2.1 实验设置

  1. 数据集
    在V2V-Sim仿真数据集上训练模型,该数据集从多个自动驾驶车辆的视角模拟LiDAR点云,每个场景最多包含7辆SDV。火车/测试部分有46,796/4,404帧,其中每帧包含5个LiDAR扫描。
  2. 评价指标
    目标检测性能:IoU为0.7的平均精度(AP)
    motion预测性能:物体中心位置在未来时间步长(例如,未来3s)的l2l_2l2​位移误差对true positives的测量。true positives是一个检测,其中IoU阈值为0.5,置信度阈值设置为召回率为0.9(如果不能达到0.9,选择最高召回率)。
    pose correction性能:平均绝对误差(MAE)和均方根误差(RMSE)。
  3. 噪声模拟
    在训练过程中,position强和弱噪声分别从μ=0,σ=0.4和σ=0.01的高斯分布中提取;rotational强噪声和弱噪声分别从μ=0,σ=4∘4^\circ4∘和σ=0.1∘0.1^\circ0.1∘的von Mises分布中提取。
  4. Competitive method
    将所提出的方法与Learn2Sync相比较,后者在寻找全局一致的pose时考虑深度图对来迭代地重新权衡pairwise registrations。在评估过程中,Learn2Sync被用来代替本文提出的consistency模块。
  5. 数据增强baseline
    V2VNet作为一个简单baseline在有pose噪声的情况下训练,作为一种输入数据增强的形式,这要求网络隐含地处理姿势噪声,而不是明确地纠正噪声。

3 总结

基于V2VNet协同感知框架,在其特征图空间对齐步骤之前,提出了一个 end-to-end可学习模块,以提高在存在pose errors的情况下的协同自动驾驶系统中感知和motion预测的鲁棒性。在相同的带pose errors的数据集上与原始V2VNet对比,所提出的模型在较大的pose噪声下可以保持相同的性能。

局限:还可利用传入信息中pose error的时间一致性来提高性能。目前考虑的pose噪声服从高斯分布,可能无法纠正更普遍的通信噪声类型。训练数据中需要ground-truth pose,但是ground-truth 在现实中不存在。

基于against pose noise的V2V协同感知(3D Detection, Motion Forecasting)相关推荐

  1. DiscoNet:基于Distilled Collaboration Graph的V2V协同感知

    论文标题:Learning Distilled Collaboration Graph for Multi-Agent Perception 发表期刊/会议:NeurIPS 2021 开源代码:htt ...

  2. SyncNet:基于Latency-Aware 的V2V协同感知

    论文标题:Latency-Aware Collaborative Perception 发表期刊/会议:ECCV 2022 开源代码:https://github.com/MediaBrain-SJT ...

  3. V2X-ViT:基于Vision Transformer的V2X协同感知

    论文标题:V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision Transformer 发表期刊/会议:ECCV 2022 ...

  4. ICRA2022 | OPV2V: 首个大型自动驾驶协同感知数据集+代码框架已开源

    作者丨叶小飞 编辑丨极市平台 导读 本篇文章提出了首个大型自动驾驶协同感知数据集, 并提供了多达16个模型的综合Benchmark以及一套完整的代码框架,为协同感知这个新领域提供了基准. OPV2V: ...

  5. 详解协同感知数据集OPV2V: An Open Benchmark Dataset and Fusion Pipeline for Perception with V2V Communication

    在<详解自动驾驶仿真框架OpenCDA: An Open Cooperative Driving Automation Framework Integrated with Co-Simulati ...

  6. MPDA:基于Domain Adaption的V2X协同感知(3D目标检测)

    标签:Domain gap:CP without sharing the model information:Intermediate Fusion:3D Object Detection: 论文标题 ...

  7. 基于车载无线通信和车辆远程传感器融合的V2X协同感知(目标跟踪/轨迹预测)

    论文标题:Driving Environment Perception Based on the Fusion of Vehicular Wireless Communications and Aut ...

  8. 协同感知综述:从异质单体到分层合作

    论文标题:A Survey and Framework of Cooperative Perception: From Heterogeneous Singleton to Hierarchical ...

  9. V2V协同多目标跟踪——目标尺寸和位置估计

    论文标题:Collaborative Automated Driving: A Machine Learning-based Method to Enhance the Accuracy of Sha ...

最新文章

  1. 直播写代码|英伟达工程师亲授如何加速YOLO目标检测
  2. [转]微服务(Microservice)那点事
  3. CC2431 代码分析③-忍辱负重的CC2430
  4. 爱创课堂每日一题第二天8/24日 Quirks模式是什么?它和Standards模式有什么区别?...
  5. [转]关于HTTP服务器每个客户端2个连接的限制
  6. 任意手机虚拟按键增加方法
  7. Ogre1.7的地形、天空与雾
  8. 序列的修改、散列和切片
  9. VS2013配置PDFLib 9.1.2的环境
  10. 海南大学信号与系统838考研经验(3)
  11. 海洋科学导论知识点总结
  12. android 图片加载 软引用_Android 异步加载网络图片并缓存到本地 软引用 学习分享(转)...
  13. Pytorch优化器Optimizer
  14. 百度质量部面试体验之 三面
  15. 把一根木棍折成三段,求这三段能组成一个三角形的概率
  16. Java知识整理(Netty/索引/锁/JMM)-增强篇
  17. coffeeScript demo
  18. 某强人对几款杀毒软件的形容
  19. 将本地文件复制到Linux系统盘中
  20. 即将直播 | Pulsar Summit Asia 2022 峰会最新议程

热门文章

  1. 图片合成视频 linux,ffmpeg安装在Linux下,并将图片合成视频
  2. 阻塞队列(BlockingQueue)
  3. 使用PHP的GD库绘制电商小程序的商品分享海报
  4. 英国电信官宣入华,三大运营商慌不慌?
  5. 比尔总动员小炎觉醒任务攻略
  6. 威纶通触摸屏如何在报警的同时,显示出异常数据的当前值?
  7. 前苏联科技那么强大,俄罗斯的芯片产业为什么也没有发展起来?
  8. idea实用与炫酷的插件推荐
  9. Java选择与循环语句
  10. Mysql基于binlog日志恢复数据