FCOS3D Fully Convolutional One-Stage Monocular 3D Object Detection 论文学习

news/2024/7/10 2:40:16 标签: 目标检测, 3d, mono3d

论文地址:Fully Convolutional One-Stage Monocular 3D Object Detection
Github地址:Fully Convolutional One-Stage Monocular 3D Object Detection

1. 解决了什么问题?

单目 3D 目标检测由于成本很低,对于自动驾驶任务非常重要。但是由于天然缺乏深度信息,它要比传统的 2D 场景更加困难。虽然 2D 目标检测取得一些进展,但要把它们适配到 3D 任务上没那么轻松。现有的 3D 检测算法背后都有一个基础问题,即如何使用 2D-3D 的对应关系,将 3D 目标分配到 2D 空间,然后做预测。

2. 提出了什么方法?

FCOS3D 是一个全卷积、单阶段的检测器,首先将 7 自由度的 3D 目标框投影到 2D 图像空间,得到所谓的 3D 中心点,区别于之前的 2D 中心点。有了这个投影后,3D 中心点就包括了 2.5D 信息,即 2D 位置和深度信息。2D 位置可以简化成距离图像上某一点的 2D 偏移,作为 2D 属性使用。3D 属性则包括了深度、3D 尺寸和朝向信息。然后依据它们的 2D 尺度分配这些目标到不同的特征层级,训练时只根据投影后的 3D 中心点来给每个样本分配回归目标。FCOS 用点到四条边的距离来计算 centerness,而 FCOS3D 则基于 3D 中心的位置,使用 2D 高斯分布来重新定义 3D 的 centerness。
单目 3D 检测需要预测 3D 边框,需要将其解耦、转换到 2D 图像平面上。

2.1 架构概述

全卷积单阶段检测器一般包括三个组成:用于特征提取的主干网络、多层级分支的 necks 和做密集预测的 heads。

主干网络

使用带可变形卷积的预训练的 ResNet-101 来提取特征,平衡准确率和效率,固定第一个卷积模块的参数来降低内存占用。

Neck

FPN 能帮助模型在不同的尺度上检出目标。作者延续了 FCOS 的设计,使用 P3 到 P5 层级,用 2 个卷积模块对 P5 层级做下采样得到 P6 和 P7。这 5 个特征图负责不同尺度的预测。

检测 Head

共享的检测 head 有两个亟需解决的问题。第一个是如何分配目标到不同的特征层级和不同的点。第二个是如何设计网络结构。作者遵循了 FCOS 和 RetinaNet,每个共享 head 包括 4 个共享的卷积模块,以及实现不同目标的小型 heads。从经验来讲,解耦后的 heads 对回归目标更加有效,因此每个任务都有一个小 head,如下图所示。
为了充分利用 2D 特征提取器,作者延续了 2D 检测器的主干和 neck 设计。在检测 head 内,首先用 center-based 范式重新表示 3D 目标,解耦为多任务学习。此外,作者改进了多层级目标分配和中心采样,使该框架能更好地处理重叠 GT 框和尺度变化问题。
在这里插入图片描述

回归目标

作者首先回顾了 anchor-free 检测算法 FCOS。给定主干网络的第 i i i层特征图,记做 F i ∈ R H × W × C F_i\in \mathbb{R}^{H\times W\times C} FiRH×W×C,基于该特征图的每个点来预测目标,这些特征点对应着原输入图像上均匀分布的像素点。对于特征图 F i F_i Fi的每个点 ( x , y ) (x,y) (x,y),假定到第 i i i层的总步长是 s s s,那么输入图像上对应的位置就是 ( s x + ⌊ s 2 ⌋ , s y + ⌊ s 2 ⌋ ) (sx+\lfloor\frac{s}{2}\rfloor,sy+\lfloor\frac{s}{2}\rfloor) (sx+2s,sy+2s⌋)。FCOS 没有用到 anchor,它评判一个点是前景还是背景不是依靠 anchors 和 GT 框的 IoU。只要一个点距离边框中心点足够近,FCOS 就认为它是前景样本。
如下图,在 2D 任务中,模型预测点到四条边的距离 t , b , l , r t,b,l,r t,b,l,r。而在 3D 任务中,回归点到 3D 框六个面的距离是很麻烦的。一个更加直观的办法就是将 7 自由度的回归目标转换为 2.5D 中心点和 3D 尺寸。使用相机内参矩阵,很容易将 2.5D 中心点转换回 3D 空间。2.5D 中心点回归可以进一步简化为某一前景点到边框中心点的偏移 Δ x , Δ y \Delta_x,\Delta_y Δx,Δy 及对应的深度值 d d d
在这里插入图片描述

为了进一步预测目标的朝向,将它分为两个部分:周期为 π \pi π的角度 θ \theta θ和 2-bin 方向分类。第一部分自然地建模了预测框和 GT 框的 IOU,第二部分则关注两个框具有相反朝向的场景。这种角度编码对模型很有帮助,朝向准确率高于 CenterNet。下图展示了该旋转角度编码。在 2-bin 边界上,方向相反的两个目标有着相同的旋转偏移量。为了区分开它们,回归分支额外预测一个方向类别。
在这里插入图片描述

除了这些与目标坐标和朝向相关的回归目标,作者也回归一个二值目标 centerness c c c。它作为一个软二值分类器来判断哪些点离中心点近一些,从而抑制低质量预测框。
回归分支需要预测 Δ x , Δ y , d , w , l , h , θ , v x , v y \Delta_x,\Delta_y,d,w,l,h,\theta,v_x,v_y Δx,Δy,d,w,l,h,θ,vx,vy、方向类别 C θ C_\theta Cθ和 centerness c c c,分类分支需要输出目标的类别标签和属性标签。

Loss

对于回归和分类目标,分别定义其损失,加权得到总的损失。首先,分类损失使用 Focal Loss:
L c l s = − α ( 1 − p ) γ log ⁡ p L_{cls}=-\alpha(1-p)^\gamma \log p Lcls=α(1p)γlogp
p p p是预测框的类别概率,采取既有的设定 α = 0.25 , γ = 2 \alpha=0.25,\gamma=2 α=0.25,γ=2。对于属性分类,使用一个简单的 softmax 分类损失,记做 L a t t r L_{attr} Lattr
对于回归分时,使用加权的 smooth L1 损失,
L l o c = ∑ b ∈ ( Δ x , Δ y , d , w , l , h , θ , v x , v y ) SmoothL1 ( Δ b ) L_{loc}=\sum_{b\in(\Delta_x,\Delta_y,d,w,l,h,\theta,v_x,v_y)}\text{SmoothL1}(\Delta_b) Lloc=b(Δx,Δy,d,w,l,h,θ,vx,vy)SmoothL1(Δb)
其中, Δ x , Δ y , w , l , h , θ \Delta_x,\Delta_y,w,l,h,\theta Δx,Δy,w,l,h,θ的权重是 1 1 1 d d d的权重是 0.2 0.2 0.2 v x , v y v_x,v_y vx,vy的权重是 0.05 0.05 0.05。使用 exp ⁡ ( x ) \exp(x) exp(x)来预测深度,在原始的深度空间计算损失,而非 log ⁡ \log log空间,这样预测的深度更加准确。方向分类使用 softmax 分类损失,记做 L d i r L_{dir} Ldir。centerness 回归使用 BCE 损失,记做 L c t L_{ct} Lct。整体损失为:
L = 1 N p o s ( β c l s L c l s + β a t t r L a t t r + β l o c L l o c + β d i r L d i r + β c t L c t ) L=\frac{1}{N_{pos}}(\beta_{cls}L_{cls}+\beta_{attr}L_{attr}+\beta_{loc}L_{loc}+\beta_{dir}L_{dir}+\beta_{ct}L_{ct}) L=Npos1(βclsLcls+βattrLattr+βlocLloc+βdirLdir+βctLct)
其中 N p o s N_{pos} Npos是预测的正样本个数, β c l s = β a t t r = β l o c = β d i r = β c t = 1 \beta_{cls}=\beta_{attr}=\beta_{loc}=\beta_{dir}=\beta_{ct}=1 βcls=βattr=βloc=βdir=βct=1

推理

推理时,将给定的图片输入网络,得到边框及类别得分、属性得分、centerness 预测。将类别得分与 centerness 相乘,作为每个预测结果的置信度,在 BEV 视角做 NMS 得到最终的结果。

2.2 2D 引导的多层级 3D 预测

要想训练一个带金字塔网络的检测器,我们需要设计如何分配目标到不同的特征层上。FCOS 研究了两个问题:

  • 如何使 anchor-free 检测器取得与 anchor-based 检测器相似的召回率;
  • 消除 GT 框重叠引发的歧义。

FPN 能提升召回率,取得比 anchor-based 方法更好的效果。该方法也能应用在 3D 场景。第二个问题就要牵扯入回归目标的具体设定。
原 FCOS 在不同的特征层级检测不同大小的目标,将不同大小的 GT 框分配到不同层级的特征图。首先计算每个特征层级上每个位置的 2D 回归目标 l ∗ , r ∗ , t ∗ , b ∗ l^*,r^*,t^*,b^* l,r,t,b。那些满足 max ⁡ ( l ∗ , r ∗ , t ∗ , b ∗ ) > m i \max(l^*,r^*,t^*,b^*)>m_i max(l,r,t,b)>mi max ⁡ ( l ∗ , r ∗ , t ∗ , b ∗ ) < m i − 1 \max(l^*,r^*,t^*,b^*)<m_{i-1} max(l,r,t,b)<mi1的点将作为负样本, m i m_i mi表示第 i i i个特征层级最大的回归范围。FCOS3D 也延续了该设计,但 2D 检测框只用于标签分配时过滤无效目标。完成目标分配之后,回归目标就只剩下 3D 相关的了。根据投影后的 3D 边框的外矩形框,就能计算得到 2D 框,因此不再需要 2D 检测标注或先验知识。
下面介绍如何消除歧义。一个点若处在同一特征层级的多个 GT 框内,这个点应该分配到哪一个 GT 框呢?常用的方法是根据 2D 框的面积选择。面积小的框作为该点回归的目标框。这种机制叫做 area-based 标准,有着明显的缺陷:这样处理后,大目标得到的注意力就少许多。于是,作者提出了 distance-based 标准,选择中心点离回归目标近的边框。该机制与定义回归目标的 center-based 机制是一致的。距离目标中心点越近,局部特征就越全面、均衡,越容易产生高质量预测框。如下图,该机制能明显提升大目标的召回率和 mAP,也能提升整体 mAP。
[图片]
除了使用 center-based 方法,作者也使用了 3D 中心点来判断前景点,距离中心点足够近的点才被看作为正样本。作者定义了一个超参半径来定义中心区域。距离目标中心点小于 radius × stride \text{radius}\times \text{stride} radius×stride的点都是正样本,本文中 radius = 1.5 \text{radius}=1.5 radius=1.5
将不同回归分支的输出 x x x替换为 s i x s_i x six,区分不同特征层级的共享 heads。这里 s i s_i si是一个可训练标量,调节层级 i i i exp ⁡ \exp exp函数,能带来表现的小幅提升。

2.3 2D 高斯分布表示 3D Centerness

在原 FCOS,centerness c c c定义为:
c = min ⁡ ( l ∗ , r ∗ ) max ⁡ ( l ∗ , r ∗ ) × min ⁡ ( t ∗ , b ∗ ) max ⁡ ( t ∗ , b ∗ ) c=\sqrt{\frac{\min(l^*,r^*)}{\max(l^*,r^*)}\times \frac{\min(t^*,b^*)}{\max(t^*,b^*)}} c=max(l,r)min(l,r)×max(t,b)min(t,b)
l ∗ , r ∗ , t ∗ , b ∗ l^*,r^*,t^*,b^* l,r,t,b是 2D 回归的目标。由于回归目标变为了 3D 中心的范式,使用 2D 高斯分布来定义 centerness,原点是投影后的 3D 中心点。2D 高斯分布简化为:
c = e − α ( Δ x 2 + Δ y 2 ) c=e^{-\alpha(\Delta_x^2+\Delta_y^2)} c=eα(Δx2+Δy2)
α = 2.5 \alpha=2.5 α=2.5用于调节从中心点到外围的衰减强度。将 c c c作为 centerness 的 GT 值,用回归分支来预测它,过滤掉低质量的预测框。Centerness 阈值在 0 0 0 1 1 1之间,于是采用 BCE 损失训练该分支。


http://www.niftyadmin.cn/n/287006.html

相关文章

一道2023年数学分析真题

这道题是这样的&#xff1a; f ( x ) sin ⁡ 6 x cos ⁡ 6 x f(x)\sin^6x\cos^6x f(x)sin6xcos6x&#xff0c;求 f ( n ) ( x ) f^{(n)}(x) f(n)(x).   计算过程比较简单&#xff1a; sin ⁡ 6 x cos ⁡ 6 x ( sin ⁡ 2 x cos ⁡ 2 x ) ( sin ⁡ 4 x cos ⁡ 4 x − si…

15个创新世界119座城:1~10章音频

感恩每一个喜欢我文字的朋友&#xff0c;感恩每一次遇见。 最近后台总有朋友留言&#xff0c;能不能每一章配上音频&#xff0c;这样平时开车或挤地铁时也能听听。 谢谢你们在开车和挤地铁的时候都会产生听这本书的冲动。 五一抽空先把前十章的音频转录出来&#xff0c;希望你们…

制造企业如何跨越大规模定制鸿沟?中国最大减速机企业的答案来了

导读&#xff1a;传统制造企业如何深度用云&#xff1f; 在中国制造向中国智造的转型中&#xff0c;长三角地区一直扮演着急先锋的角色。总部位于常州的江苏国茂减速机股份有限公司(简称国茂股份)&#xff0c;就是中国制造上云转型的典型代表。 国茂股份成立于1993年&#xff0…

自动驾驶TPM技术杂谈 ———— I-vista验收标准(试验规程)

文章目录 术语介绍试验准备场地要求环境要求精度要求边界车辆&路沿石 试验方法能力试验双边界车辆平行车位白色标线平行车位双边界车辆垂直车位白色标线垂直车位方柱垂直车位双边界车辆斜向车位白色标线斜向车位 新功能评价平行车位远程操控泊入泊出试验垂直车位远程操控泊…

恺撒密码太简单?这样一改,秒变地狱级难度(37)

小朋友们好&#xff0c;大朋友们好&#xff01; 我是猫妹&#xff0c;一名爱上Python编程的小学生。 欢迎和猫妹一起&#xff0c;趣味学Python。 今日主题 看过上一篇文章的朋友&#xff0c;可能觉得这样加密&#xff0c;未免太简单了吧&#xff1f; 一共26个字母&#xf…

Kali2022 如何生成M马,渗透Windows 10

环境: 1.攻击者IP:192.168.1.35 系统: KALI2022(vmware 16.0) 2.靶机IP:192.168.1.16 系统: Windows10 3.USB无线网卡 问题描述: Kali如何生成M马,渗透Windows 10 解决方案: 一、准备 1.KALI虚机设置用外置无线网卡(预防反查到你本机) 2.制作脚本,社工用于…

GAT1400-视图库标准

一、简述&#xff1a; GA/T 1400是于2017年首次发布关于图片、视频片段、文件等属性对象的传输协议。 GA/T 1400《公安视频图像信息应用系统》分成4个部分&#xff1a; 第一部分–通用技术要求&#xff1b; 第二部分–应用平台技术要求&#xff1b; 第三部分–数据库技术要…

leetcode 剑指 Offer 13. 机器人的运动范围

题目描述解题思路执行结果 leetcode 剑指 Offer 13. 机器人的运动范围. 题目描述 解题思路 剑指 Offer 13. 机器人的运动范围 地上有一个m行n列的方格&#xff0c;从坐标 [0,0] 到坐标 [m-1,n-1] 。一个机器人从坐标 [0, 0] 的格子开始移动&#xff0c;它每次可以向左、右、上、…