赶工读文章(2)— Radar-Camera Sensor Fusion for Joint Object Detection and Distance Estimation in AV

从这个阅读量和展现量看是挨爬虫爬了吗……
如有错漏,还望指正。

Radar-Camera Sensor Fusion for Joint Object
Detection and Distance Estimation in Autonomous Vehicles (2020)
作者:Ramin Nabati, Hairong Qi
原文传送门:paper


介绍:据作者说,对于一个two-stage的网络,proposals生成的网络比较影响检测精度,所以他们提出的这个网络尝试用雷达点去提高proposals生成的准确程度。具体来说,作者把基于radar和基于camera生成的proposals融合,然后再交给Fast R-CNN去做分类。

一、网络结构

在这里插入图片描述
作者把网络里生成proposals的地方成三个部分:
Radar Proposal Network + Image Proposal Network + Distance Refinement
在这里插入图片描述

二、Radar Proposal Network

下图红框就是radar proposal network:
在这里插入图片描述
步骤:

  1. 对每一个radar点生成2n个3D锚框

    (

    x

    ,

    y

    ,

    z

    ,

    w

    ,

    l

    ,

    h

    ,

    r

    )

    (x,y,z,w,l,h,r)

    (x,y,z,w,l,h,r),其中:

    (

    x

    ,

    y

    ,

    z

    )

    (x,y,z)

    (x,y,z)——中心点坐标;

    (

    w

    ,

    l

    ,

    h

    )

    (w,l,h)

    (w,l,h)——3D锚框大小,由训练集每个类别的标注框平均大小得到;

    (

    r

    )

    (r)

    (r)——汽车的相对坐标系的转角,在这篇论文里,

    r

    =

    0

    °

    ,

    90

    °

    r=0°, 90°

    r=0°,90°

    n

    n

    n——数据集中种类数。

  2. 用找最小包围框的办法把3D锚框画到图像平面上;
  3. 依靠雷达点生产的2D proposals和图片卷积以后的特征图一起输入到Radar Proposal Refinement(RPR)里面去。RPR里面的Box Regressor会用在radar proposal里面的图像特征来对proposal的中心点进行回归(具体怎么做还没看代码);Box classification会为每一个radar proposal估计一个表示proposal里面的物体是前景还是背景的objectness score。该文中正负例子的区分阈值和R-CNN系列的是一样的。
    在这里插入图片描述

三、Image Proposal Network

在这里插入图片描述
图像的proposals生成还是沿用RPN,不过在卷积层的顶上加了一层fully connected distance regression layer用来简单估计深度。基于图像生成的proposals有两个好处:一个相比radar proposals,更不容易遗漏像行人这样的小物体;第二个是用两种不同的传感器生成proposals的话,结合起来可能可以互补一下,让结果更好。

四、Distance Refinement

这里先用NMS把多余的proposals过滤掉,具体来说是先算radar proposals和image proposals的IOU,然后把IOU高于阈值radar proposals的深度覆盖image proposals,然后再在下一步对所有proposals做NMS。

五、Loss Function

同Faster R-CNN。
在这里插入图片描述

版权声明:本文为CSDN博主「实在懒得起名」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_44596312/article/details/121560924

我还没有学会写个人说明!

暂无评论

发表评论

相关推荐

【目标检测】YOLO、SSD、CornerNet原理介绍

目标检测是计算机视觉中比较简单的任务,用来在一张图篇中找到某些特定的物体,目标检测不仅要求我们识别这些物体的种类,同时要求我们标出这些物体的位置。其中类别是离散数据,位置是连续数据。 目

目标检测篇之---YOLO系列

YOLO系列 首先先说一下目标检测之one-stage和two-stage网络是什么意思?有什么区别? 刚开始看目标检测的时候总能看见单阶段(one-stage)和两阶段(

分享 | 物体检测和数据集

因为最近学习任务比较紧(但也不妨碍元旦摆烂三天),所以中间有几个实战Kaggle比赛就跳过了,等以后有时间再回头来看看。物体检测和数据集这一节花了有一天的时间,一直有一个bug困扰,后来改了代码把box