收藏 分销(赏)

基于原始点云网格自注意力机制的三维目标检测方法.pdf

上传人:自信****多点 文档编号:2343264 上传时间:2024-05-28 格式:PDF 页数:13 大小:4.94MB
下载 相关 举报
基于原始点云网格自注意力机制的三维目标检测方法.pdf_第1页
第1页 / 共13页
基于原始点云网格自注意力机制的三维目标检测方法.pdf_第2页
第2页 / 共13页
基于原始点云网格自注意力机制的三维目标检测方法.pdf_第3页
第3页 / 共13页
亲,该文档总共13页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、2023 年 10 月 Journal on Communications October 2023 第 44 卷第 10 期 通 信 学 报 Vol.44 No.10 基于原始点云网格自注意力机制的三维目标检测方法 鲁斌1,2,孙洋1,2,杨振宇1,2(1.华北电力大学计算机系,河北 保定 071003;2.复杂能源系统智能计算教育部工程研究中心,河北 保定 071003)摘 要:为了增强感兴趣区域(RoI)的特征表达,包括空间网格特征编码模块和软回归损失,提出了一种基于原始点云网格自注意力机制的三维目标检测方法 GT3D。网格特征编码模块用于通过自注意力机制对点的局部特征和空间特征进行有效

2、加权,充分考虑点云之间的几何关系,以提供更准确的特征表达;软回归损失用于改善数据标注过程中由于标注不准确而产生的回归歧义问题。将所提方法在公开的三维目标检测数据集 KITTI 上进行实验。结果表明,所提方法相比其他已公开的基于点云的三维目标检测方法检测准确率提升明显,并提交了 KITTI官方测试集进行公开测试,对简单、中等和困难 3 个难度等级的汽车检测准确率分别达到 91.45%、82.76%和79.74%。关键词:三维目标检测;点云;自注意力机制;空间坐标编码;软回归损失 中图分类号:TP391.4 文献标志码:A DOI:10.11959/j.issn.1000436x.2023189

3、Grid self-attention mechanism 3D object detection method based on raw point cloud LU Bin1,2,SUN Yang1,2,YANG Zhenyu1,2 1.School of Control and Compute Engineering,North China Electric Power University,Baoding 071003,China 2.Engineering Research Center of Intelligent Computing for Complex Energy Syst

4、ems,Ministry of Education,Baoding 071003,China Abstract:To enhance the feature representation of region of interest(RoI),which incorporated a spatial context encoding module and soft regression loss,a grid self-attention mechanism 3D object detection method based on raw point cloud,named GT3D,was pr

5、oposed.The spatial context encoding module was designed to effectively weight the local and spa-tial features of points through the attention mechanism,considering the contribution of different point cloud features for a more accurate feature representation.The soft regression loss was introduced to

6、 address label ambiguity arising during the data annotation phase.Experiments conducted on the public KITTI 3D object detection dataset demonstrate that the proposed method achieves significant improvements in detection accuracy compared to other publicly available point cloud-based 3D object detect

7、ion methods.The detection results of the test set are submitted to the official KITTI server for public evaluation,achieving detection accuracies of 91.45%,82.76%,and 79.74%for easy,moderate,and hard diffi-culty levels in car detection,respectively.Keywords:3D object detection,point cloud,self-atten

8、tion mechanism,spatial coordinate encoding,soft regression loss 0 引言 近年来,三维目标检测技术作为机器人和自动驾驶感知系统的关键技术之一,已经取得了显著的进步。该技术利用由激光雷达捕获的点云数据来描绘物体的三维结构,估计其姿态,并感知空间距离。因此,激光雷达成为三维目标检测的首选传感器。基于原始点云的三维目标检测旨在利用这些点云数据来识别收稿日期:20230615;修回日期:20230905 通信作者:孙洋, 基金项目:国家自然科学基金资助项目(No.62371188);河北省在读研究生创新能力培养基金资助项目(No.CXZZ

9、BS2023153)Foundation Items:The National Natural Science Foundation of China(No.62371188),Hebei Province Postgraduate InnovationCapability Training Project(No.CXZZBS2023153)第 10 期 鲁斌等:基于原始点云网格自注意力机制的三维目标检测方法 73 环境中物体的类别、位置、大小和方向,为深入理解场景提供基础。然而,与图像不同,点云数据是无序且不均匀的,这使无法直接使用卷积神经网络(CNN,convolutional neura

10、l network)来学习特征,从而增加了基于点云的三维目标检测技术的挑战性。目前,大多数检测方法采用两阶段范式,以获得更好的检测效果。例如,PV-RCNN1使用 SECOND(sparsely embedded convolutional detection)2和PointNet+3作为其基础网络,以分别提取点和体素的特征,并在第二阶段通过采用最大池化方法对点特征进行聚合。Voxel R-CNN4则省略了 PV-RCNN 中的点采样步骤,并在第二阶段同样基于最大池化方法聚合多尺度的体素特征,来学习点云的局部特征。目前,现有算法大都基于 PointNet5及其变种3对点云进行特征提取和基于置换

11、不变特性的最大池化法聚合局部点云特征,没有充分考虑点云之间的几何关系。当遇到点云稀疏情况,例如距离较远时,仅依靠局部特征聚合难以学习到更鲁棒的目标特征。为了进一步提高特征的表达能力以改善检测效果,需要对点和点之间的关系进行建模。Transformer6架构在自然语言处理领域取得了显著成功,其将输入的文本序列切分成多个单独的词或字符,然后通过自注意力机制来学习每个词或字符之间的关系。其置换不变的特性适于对无序的点云数据进行编码。PCT(point cloud transformer)7和Point transformer8将Transformer 应用于点云的分类和分割任务,取得了较好的效果。本

12、文将Transformer 引入点云目标检测领域,以更好地处理点云数据的无序性和点之间的关联信息,学习更鲁棒的点云特征。另一方面,在实际复杂环境中,检测效果往往受到多种因素的影响,例如遮挡和噪声等,这些因素可能导致点云数据的质量不稳定,而提升性能的关键在于从稀疏点云中提取更鲁棒的特征。此外,点云的稀疏性导致在人工标注数据时易受到环境因素影响,从而使数据标签含有模糊信息,并对学习目标点云的鲁棒特征造成影响。传统方法9通常把回归目标当作一个固定值,而忽略了标签不确定性可能造成的影响,限制了检测性能的进一步提升。同时,如果目标包含的点较少,那么围绕目标的候选框位置的不确定性就会增加,如图 1 所示。

13、对于尺寸相同的目标,由于其包含的点云的稀疏性,可能会产生不同的回归目标,从而对检测性能产生不利影响。为解决标签不确定性问题,本文引入了一种基于概率分布的软回归损失。通过检测模块预测候选框位置的不确定性,并将其作为回归损失的一部分,在训练过程中重新量化预测框与其对应标签的相似度,从而提升模型的检测性能。图 1 数据标注中的不确定性 综上所述,本文提出了一种基于原始点云网格自注意力机制的二阶段三维目标检测方法 GT3D。该方法在第二阶段采用基于 Transformer 的自注意力机制来对第一阶段得到的感兴趣区域(RoI)内部的点云进行上下文编码,能够更有效地学习点云之间的依赖关系,提取更鲁棒的目标

14、特征。同时,考虑到数据标注过程中的不确定性对回归任务的影响,使用基于概率分布的回归损失重新度量预测框和真实标签的相似性,降低由数据标注过程带来的标签歧义问题。在公开的三维目标检测数据集KITTI10上对本文所提方法进行评估,结果显示,本文所提方法比现有目标检测方法具有竞争力的性能优势。此外,本文将 KITTI 测试集检测结果提交至 KITTI 官网进行验证,并公开实验结果。1 相关工作 按照从非结构化点云中提取特征的方式划分,现有的三维目标检测方法主要分为三类:基于体素74 通 信 学 报 第 44 卷 的方法、基于点的方法以及点和体素融合的方法。基于体素的方法通过将点云划分成规则网格,并利用

15、三维卷积技术来提取特征。例如,Zhou 等9提出 VoxelNet,首先将点云进行体素化,然后对这些体素进行特征编码,并应用三维卷积来提取特征,最后将这些特征压缩到鸟瞰视角(BEV,birds eye view)以生成候选框。Yan 等2提出 SECOND,通过设计专门针对点云特征提取的三维稀疏卷积模块,有效地提升了三维卷积的处理效率。为了进一步提高三维目标检测的效率,Lang 等11提出PointPillars,该方法直接将特征压缩至 BEV 中来生成候选框,从而避免了三维卷积的过程。然而,基于体素的方法在进行体素特征编码的过程中可能会丢失点云的精确位置信息,限制了方法性能的提升。基于点的方

16、法使用原始点云进行检测,并且由于点的数量众多,它们通常采用多层次的采样和特征聚合。PointNet5和 PointNet+3通常被用作这类方法的基础网络。PointRCNN12将点云分为前景点和背景点,并在前景点上生成高质量的候选框。3DSSD13利用欧氏距离和特征距离进行分层点采样,以获取更多的前景点,并去除了效率较低的上采样和细化步骤,从而在准确性和效率之间取得了良好的平衡。BADet14通过将每个候选区域视为一个节点来构建局部图,从而显式地利用边界间的相关性来优化候选框。CIA-SSD15引入了一个置信度修正模块,以解决目标定位精度与类别置信度之间的不一致问题,从而获得更加精确的边界框和

17、类别置信度预测。PDV(point density-aware voxel)16则为点云引入密度信息,并使用 Transformer 对点进行编码。基于点的方法需要在原始点云中进行分层采样,这通常会导致较低的处理效率。有很多研究尝试融合点和体素各自的优势来进行检测。例如,CT3D17在使用三维体素特征生成区域建议的同时,利用逐通道的 Transformer 从原始点中提取特征。同样,PV-RCNN 引入了体素集抽象模块,使用三维体素特征生成建议后,利用点特征进行特征精细化。后续的工作尝试通过引入新的特征提取方法来改进第二阶段,例如 RefinerNet18和 VectorPool19。然而,将

18、点和体素的特征相融合在加强检测性能的同时,不可避免地增加了内存的占用,并对检测效率产生影响。在这种将点和体素相结合的主干网络中,特征的整合通常取决于具体的特征转换机制,这可能会导致额外的计算负担。需要注意的是,这类方法虽然在检测精度上往往超过纯粹基于体素的方法,但通常以增加推理过程的时间开销为代价。Transformer 架构在自然语言处理领域已取得显著成功,其核心模块自注意力机制能够对输入序列间的相关性进行建模。DETR20将 Transformer 应用到图像目标检测领域,并把目标检测当作集合预测问题来处理,为使用 Transformer 进行目标检测建立了新的范式。接着,DETR 的一个

19、变种Deformable DETR21,引入了可变形注意力模块,以提升 DETR的训练效率。文献7-8则将 Transformer 应用于点云的特征提取。但是,由于点的数量较多,直接将Transformer 应用到点云中可能会导致计算复杂度过高、检测效率难以提高的问题。2 本文模型 GT3D 是一个两阶段的三维目标检测模型,第一阶段用于生成 RoI,第二阶段则利用原始点云来精细化特征,以充分保留点云的空间信息。图 2 展示了GT3D 的框架,输入为原始点云。首先,通过三维主干网络生成包含目标的 RoI。然后,对每个 RoI 进行网格化,并对 RoI 内部的原始点云进行采样。接着,对采样点的空间

20、信息进行建模,并输入多头Transformer 中进行上下文编码。最后,将编码后的RoI 特征输入检测头中,以进行候选框的分类和回归。2.1 基于体素法的三维主干网络 虽然体素化会带来点云空间信息的损失,但是检测方法在第一阶段主要关注如何快速找到包含目标的 RoI。考虑到体素法具有较高的处理效率,本文使用基于体素法的 SECOND 作为第一阶段的主干网络,并基于多尺度体素特征生成 RoI。具体来说,输入原始点云=,iiiiipx y z r,1,in,其中 xi、yi、zi为点云的三维空间坐标,ri为反射率,n为点的数量。然后将点云进行体素化处理,对点云空间进行等间距划分。对于每个体素所包含的

21、点,使用PointNet对其进行升维处理,记作(,1)(,2),),iiii mfaaa(,1,in,1,mk,其中k为点映射到高维空间后的维度。接着,通过最大池化函数对每个体素内的点进行特征聚合。最后,使用多层子流形卷积和稀疏卷积2对体素进行特征提取,如图3所示,并将提取到的特征fv沿z轴压缩到BEV,输入区域建议网络(RPN,region proposal network)中生成RoI,其中,k 为卷积核尺寸,pad为填充操作,s 为步长。第 10 期 鲁斌等:基于原始点云网格自注意力机制的三维目标检测方法 75 图 3 三维主干网络结构 2.2 网格特征编码 为了更准确地提取点云的局部特

22、征,本文采用两步策略对点云进行有效编码。第一步,采用最远点采样对RoI内的点进行采样,并对RoI进行网格化处理。计算采样点到每个网格中心的距离,以增强采样点的空间信息。第二步,对网格中心点的局部特征进行聚合。通过使用PointNet+来聚合网格中心点附近的多尺度局部特征,能够进一步增强中心点的特征表达能力。2.2.1 网格中心点位置编码 本文对每个RoI应用最远点采样策略。值得注意的是,目标的真实框与RoI之间可能在角度和位置上有差异。在特定情况下,例如当目标位于树木下或紧邻突出的建筑物时,如果不限制采样空间的高度,可能会导致目标的采样点数量减少,从而对检测结果产生不利影响。为了在最大程度上采

23、样到真实框内的点,同时减少对检测效果不利的背景点的采样,本文采用圆柱体空间结构来对RoI进行采样,如图4所示。图 4 RoI 点采样 图4中,圆形点表示采样区点,方形点表示非采 样 区 点。圆 柱 体 的 底 部 半 径 为2222rrwlr,高度为rhh,其中,rw、图 2 GT3D 的框架 76 通 信 学 报 第 44 卷 rl、rh分别表示RoI的宽、长和高,和表示柱体的扩张比例参数。在这个区域内对点云进行采样,本文设定采样点的数量为256。如果RoI内的点数少于256,则重复进行随机采样,直到达到256个点。本文将设置为1.1,设置为1。定 义231,nnPp pppR,其 中ip(

24、1,in)表示点云中的点坐标,nR表示通过RPN生成的RoI。那么,该区域内点ip到任意点jp的距离为 2()(),fijijdpppp(1)首先,从点云中随机选取一个点0p作为起始点,然后利用式(1)计算其他1n个点与0p的距离12(1),nd dd,并将距离0p最远的点mp放入采样点集合S中。然后,计算剩余点与采样点集合S中所有点的距离,选择到所有采样点的距离最远的点加入采样点集合S中。重复这个过程,直到采样点的数量达到预定值。通过实验发现,对空间点的几何特征进行建模可以增强点的特征表达能力。基于此,本文提出一种新的坐标位置编码方法,用于精细化点的空间位置信息,如图5所示。首先,将RoI划

25、分为均匀网格,网格数量设置为666(长、宽、高3个方向),则每个RoI包含216个网格。然后,定义每个网格的中心点为mg(m表示RoI内的网格索引),并计算 每 个 网 格 中 心 点 到 采 样 点 的 相 对 距 离,1,216imidgpm,1,256i。使用id对网格点的空间位置进行建模并统一位置编码的坐标尺度,最终得到mg的位置特征df。具体计算方式为 (,1)(,2)(,),diii mfgddd(2),i mi mi mi mi mdxyzf (3)其中,()g表示特征变换函数(这里使用前馈神经网络(FFN,feed forward network)将距离特征映射到高维特征空间)

26、,,i mx、,i my和,i mz分别表示点ip到每个网格中心点的欧氏距离的3个分量,,i mf表示点的额外特征,包括反射率等。与PointPillars所采用的柱体特征编码(PFE,pillar feature encoding)方法不同,本文通过将采样区域网格化,并计算采样点到每个网格中心点的相对距离,以实现对点的空间位置信息更精细的表达,而PFE则是通过计算点与每个柱体的中心点的相对距离来强化点坐标的空间位置信息,精细程度有所欠缺。图 5 网格中心点坐标编码 2.2.2 网格中心点多尺度局部特征编码 考虑到原始点云包含更准确的空间信息,本文利用原始点云对网格点进行多尺度局部信息编码。具

27、体而言,对于每个网格的中心点mg,查询其周围半径为r的球形区域内的点,并使用PointNet对这些点进行升维处理,以获得该网格中心 点 在 指 定 半 径 内 的 所 有 点 的 特 征 集 合12,rrkrgrffff,其中k表示该半径范围内的点的数量,如图6所示。为了满足置换不变性要求,本文使用最大池化函数对特征进行聚合,从而得到该中心点在特定半径下的特征。图 6 网格中心点多尺度局部特征编码 第 10 期 鲁斌等:基于原始点云网格自注意力机制的三维目标检测方法 77 maxpool(),1,*rirgfG fik(4)其中,()G 表示聚合函数,这里采用向量拼接来进行处理。然后,通过调整

28、球查询半径大小,获得中心点在不同尺度下的特征表达。最后,将多尺度特征进行拼接处理,得到最终的中心点局部特征 *(),1,irggfG fin(5)多尺度局部特征编码模块如图7所示。本文设定了多个不同尺寸的半径来对点进行聚合。由于不同半径内的点数量可能不同,本文对每个半径内的点的数量进行统一限制:如果点的数量超过规定值,则进行随机选取;如果点的数量低于规定值,则使用点坐标的平均值进行填充;如果该半径内没有点,则使用0进行填充。然后,通过三层FFN对聚合后的坐标进行升维,并利用最大池化函数对各个尺度的特征进行聚合。最终,通过FFN调整gf的维度,并将位置编码特征与多尺度局部特征进行相加,得到网格中

29、心点特征 gridReLUFFN()dgfff(6)其中,gridf表示RoI的空间几何特征和点云多尺度局部特征。图 7 多尺度局部特征编码模块 2.2.3 空间上下文编码 虽然每个网格编码了目标的空间特征和多尺度局部特征,但仍然缺乏对网格点之间相互依赖关系的建模。为解决此问题,本文引入自注意力机制来捕捉网格点间的远程依赖关系,为网格点的特征赋予不同的权重。这使算法能够捕捉到网格点特征与RoI之间更加复杂的关系。图8展示了通过自注意力机制加权后的网格点特征对RoI特征的贡献度,其中亮度较高的区域表示对RoI特征的贡献权重较大。图 8 自注意力机制对网格点特征加权 Transformer在处理点

30、云数据方面展现出显著的效果,但由于包含大量线性运算,常常伴随较高的计算成本和内存消耗。针对这个问题,本文选择不对RoI内的原始点云直接进行注意力编码,而是采纳局部注意力策略,即通过在网格中心点聚合点云的空间和局部特征以降低输入特征的维度。此外,这种策略也使本文提出的两阶段细化方法能够适于不同密度的点云数据。在Transformer的编码阶段,本文对网格点的特征进行注意力编码计算。假设输入特征为12gridgridgrid,Giffff,1,in,且grid0if。没有特征的空网格则不参与注意力编码,仅保留其位置编码。本文采用网格中心点的原始坐标作为位置编码 posgridifg p,1,im(

31、7)接着,使用标准Transformer编码器计算特征注意力矩阵 gridposiiiFff(8)ikiWFK(9)iqiWFQ(10)iviWFV(11)TsoftmaxiiiqAdQ K(12)其中,kW、qW和vW分别为线性映射函数,qd为矩阵iQ的特征维度,为点乘运算。本文采用多头自注意力机制来处理iK、iQ和iV,以捕获RoI更丰富的特征。多头注意力的计算式为 gridFFN concatiiiAAV(13)其中,concat()用来将多头注意力特征进行拼接,78 通 信 学 报 第 44 卷 FFN用来对特征进行维度变换。接着,在网格空间位置编码与注意力编码之间构建类似于残差连接的

32、结构,将点的空间位置编码和注意力特征进行拼接,以增强特征的表达能力。经过FFN处理后,得到最终的RoI特征 girdFFN ReLUiiidfAf(14)最后,将if输入检测头进行候选框的分类和回归。2.3 软回归损失 本文提出的软回归损失函数可用于量化预测候选框与其对应的标签之间的相似度,以减轻点云数据标注过程中的不确定性。首先,用高斯分布来表示预测框的位置,并将其所对应的标签视为该分布中的概率,计算式为 (|)(|(,)Rp G Dp G N (15)其中,G=,lwxzhygggg ggg表示候选框所对应的真实标签值;p为概率密度;()N 为二维高斯分布,可表示为 22()21(,)e2

33、xN (16)其中,和表示高斯分布中的均值和方差。本文 将 检 测 头 对 候 选 框 位 置 的 预 测,yzlwhx 作为,并在检测头部增加一个额外的分支来预测不确定性得分,可表示为,xyzlwh ,分别对应中每个位置的不确定分数。在计算出真实标签在预测框分布中的概率后,使用softmax函数对这些概率进行归一化处理 softm|axsRp GpD(17)最后,使用sp对回归目标进行加权。值得一提的是,本文所提出的软回归损失仅在训练阶段使用,以辅助训练检测头的回归分支,而不会在推理阶段增加额外的计算成本。2.4 检测头与损失 算法的损失分为RPN损失rpnL和细化阶段损失rcnnL两部分,

34、其中rpnL包括框的置信度损失clsL和位置回归损失regL。框的编码格式为,()x y z w l h,其中,x、y、z表示框的中心点坐标,w、l、h、分别表示框的宽、长、高、朝向角度。真实框与候选框之间位置的误差*,xyzxyz ddd为*,lg,lg,lg,rgrgrgrzgggxyzgrrrrxxyyzzxyzdddwlhdddwlh(18)其中,下标g表示训练集中真实框的参数,下标r表示候选框参数,22()()aadwl。对于rpnL,使用交叉熵函数来计算置信度损失,以平衡正、负样本对损失的贡献程度 clslg()(1)lg(1)bbbbccLcc (19)其中,bc为预测置信度,b

35、c为真实标签值。框位置回归使用smooth-L1损失函数 regsmooth-L1,isbbLp L(20)其中,b表示边界框的预测残差值,b表示预测框距离真实框位置的残差值,i表示正样本的数量。最后得到总的rpnL损失为 rpn1cls2regLLL(21)其中,1和2为损失的权重系数,用于平衡分类和回归对rpnL的贡献程度。rcnnL的计算方式和rpnL类似,最后得到算法总损失为 lossrpnrcnnLLL(22)3 实验结果与分析 为验证本文所提方法的有效性,使用公开的自动驾驶数据集KITTI对其进行验证,并进行充分的消融实验,以分析GT3D各模块的有效性。KITTI数据集包含7 48

36、1个训练样本和7 518个测试样本。与Chen等22的工作保持一致,将训练样本划分为3 712个训练样本集和3 769个验证样本集。本文分别在验证集和测试集中对简单、中等和困难3个难度等级的目标进行实验,使用平均准确率(AP,average accuracy)衡量所提方法性能。3.1 实验硬件环境 表1为实验所需的软硬件环境及其参数配置。第 10 期 鲁斌等:基于原始点云网格自注意力机制的三维目标检测方法 79 表 1 实验所需的软硬件环境及其参数配置 环境 参数 CPU AMD EPYC 7543 32-Core Processor 15 核 GPU NVIDIA A40 显存 48 GB

37、操作系统 Ubuntu 20.04 Python 版本 3.8 深度学习框架 PyTorch 1.8.1 CUDA 版本 11.1 cuDNN 版本 8.0 代码编辑环境 Visual Studio Code 1.66.1 3.2 实验细节 对于KITTI数据集,其x轴检测范围为0,70.4 m,y轴为40.0,40.0 m,z轴为3.0,1.0 m,每个体素块在x、y、z这3个方向上的大小设置为0.05,0.(05,0.1)m。每个体素在3个方向上的大小均为0.05 m,体素数量在训练阶段设置为16 000,推理阶段设置为40 000。为避免目标包含点云数量太少以至于难以提取到特征,对点数少

38、于20的目标进行过滤2。本文采用与SECOND相同的数据增强方法,具体包括:1)增加场景中待检测目标的数量;2)对点云场景中的点按照范围在0.95,1.05内的随机倍数进行缩放,范围在,4 4内的随机角度进行旋转;3)对所有真实框在,2 2范围内进行随机角度旋转来模拟目标转向;4)将点云沿x轴进行随机翻转。RoI网格数量设置为666,网格点的球形查询半径0.2,0.4,0.6r m,以此来聚合多尺度的 局 部 特 征,每 个 半 径 内 采 样 点 数 量 为32,32,64,分别被编码为32,32,64维向量,最后每个网格中心点的局部特征编码共128维。Transformer的头部数量为4,

39、dropout设置为0.1,隐含层数量为3。在训练阶段,使用8个NVIDIA A40 GPU对整个网络进行端对端训练,对于KITTI数据集,batch size设置为6,使用Adam_onecycle优化器训练80 个epoch,学习率最大值为0.001,使用one-cycle策略和余弦退火策略23对学习率进行更新。在训练阶段,RoI数量设置为128,测试阶段设置为100。算法的损失由基于Focal Loss24的分类损失和基于smooth-L1的回归损失组成。其中,分类损失和回归损失的权重比例设置为1:1。在后处理阶段,使用非极大值抑制算法来去除冗余框,交并比(IoU,intersectio

40、n over union)阈值设置为0.1,置信度阈值为0.3。其他网络参数选择OpenPCDet工具箱中提供的默认值。训练损失曲线如图9所示,其中,rpn_loss表示第一阶段损失,rcnn_loss表示第二阶段损失。第一阶段、第二阶段以及总训练损失的曲线在训练初期下降较快,但随着迭代次数的增加,损失的下降速度逐渐变慢,最后趋于平稳,这表示模型已经收敛。图 9 训练损失曲线 3.3 与其他算法对比 本文在KITTI验证集和测试集上将GT3D方法与其他先进的三维目标检测方法进行了比较和分析。对于汽车类别,设定IoU阈值为0.7,本文分别给出了所提方法在11个和40个召回位置上的平均准确率。此外

41、,将GT3D的测试结果提交至KITTI在线测试服务器,并将结果公开,如表2所示,所有实验结果均来自KITTI官方基线。为保证公平,本文基于40个召回位置来计算测试集的平均准确率。在KITTI测试集上,GT3D在3种 不 同 难 度 等 级 上 分 别 达 到 了91.45%、82.76%和79.74%的检测准确率,特别是在简单和困难等级汽车检测上显示出优势。这说明本文所提方法在检测准确性和泛化能力上表现良好。在评估方法的推理速度时,本文采用每秒帧数(FPS,frame per second)作为评价标准,本文所提方法达到了每秒15帧的检测速度,这显示GT3D在检测准确率和推理效率之间实现了良好

42、的平衡(表2中,表示该方法未公开代码和推理速度)。80 通 信 学 报 第 44 卷 表 2 不同方法在 KITTI 测试集上 对汽车的检测性能对比 模式 方法 简单 中等 困难 FPS Image+Point Cloud F-PointNet25 82.19%69.79%60.59%5.9 ContFuse26 83.68%68.78%61.67%16.7 PointSIFT+SENet27 85.99%72.72%64.58%UberATG-MMF28 88.40%77.43%70.22%12.5 3D-CVF at SPA29 89.20%80.05%73.11%13.3 CLOCs30

43、 88.94%80.67%77.15%Point-based PointRCNN12 86.96%75.64%70.70%10 STD31 87.95%79.71%75.09%12.5 3DSSD13 88.36%79.57%74.55%26.3 CT3D17 87.83%81.77%77.16%14.3 PV-RCNN1 90.25%81.43%76.82%8.9 Voxel-based VoxelNet1 77.47%65.11%57.73%4.4 SECOND2 83.34%72.55%65.82%30.4 PointPillars11 82.58%74.31%68.99%42.4 Vo

44、xel R-CNN4 90.90%81.62%77.06%25.2 FV2P32 88.17%81.81%77.43%8 Focals Conv33 90.20%82.12%77.50%8.9 GraR-Vo34 91.29%82.77%77.20%25.6 PDV16 90.43%81.86%77.36%10 SA-SSD35 88.75%79.79%74.16%25 3D Cascade RCNN36 90.46%82.16%77.31%14.2 GT3D 91.45%82.76%79.74%15 表3展示了不同方法在KITTI验证集上对汽车的检测性能对比,其中检测结果基于11个召回位置计

45、算,IoU阈值为0.7。实验结果表明,GT3D在3种不同难度汽车类别检测中分别达到了89.78%、86.31%和79.22%的准确率,相比其他先进方法表现出显著的提升,进一步验证了GT3D的有效性。这是因为Transformer在特征提取方面具有强大的能力,使模型能够有效地学习不同点云稀疏度下目标的特征。为了进一步评估GT3D的性能,表4展示了不同方法在KITTI验证集上对自行车的检测性能对比,其中准确率基于40个召回位置计算。实验结果表明,本文所提方法在检测效果上具有较强的竞争力,展示出良好的性能。表 3 不同方法在 KITTI 验证集上 对汽车的检测性能对比 模式 方法 简单 中等 困难

46、Point-based PointRCNN12 88.88%78.63%77.38%STD31 89.70%79.80%79.30%3DSSD13 89.71%79.45%78.67%CT3D17 89.54%86.06%78.99%PV-RCNN1 89.35%83.69%78.70%Voxel-based VoxelNet1 81.97%65.46%62.85%SECOND2 88.61%78.62%77.22%PointPillars11 86.62%76.06%68.91%Voxel R-CNN4 89.41%84.52%78.93%Focals Conv33 89.52%84.93%

47、79.18%PDV16 89.52%84.93%79.18%SA-SSD35 90.15%79.91%78.78%GT3D 89.78%86.31%79.22%表 4 不同方法在 KITTI 验证集上 对自行车的检测性能对比 方法 简单 中等 困难 CT3D17 91.99%71.60%67.34%Voxel R-CNN4 91.28%72.54%68.46%PV-RCNN1 88.88%71.95%66.78%PDV16 92.72%74.23%69.60%GT3D 92.93%74.65%69.71%表5展示了不同方法在参数量方面的对比,并提供了不同模型在KITTI测试集上对汽车的检测平均

48、准确率,其中,mAP为KITTI测试集上对汽车的检测平均准确率。从表5可以看出,尽管GT3D的参数量在两阶段方法中处于中等水平,但其平均准确率明显优于其他方法。这表明GT3D在有效提升检测效果的同时,没有显著增加参数规模。表 5 不同方法在参数量方面的对比 阶段数 方法 mAP 参数量 单阶段 SECOND2 73.90%5.33106 PointPillars11 75.29%4.83106 两阶段 PointRCNN12 77.77%4.04106 3DSSD13 80.83%7.56106 CT3D17 82.25%7.83106 PV-RCNN1 82.83%13.12106 Voxe

49、l R-CNN4 83.19%7.59106 GT3D 84.65%7.95106 第 10 期 鲁斌等:基于原始点云网格自注意力机制的三维目标检测方法 81 3.4 可视化分析 本文对GT3D方法的检测效果进行了可视化分析,如图10所示。通过比较方法输出的预测框(虚线)与真实框(实线)的位置来验证模型的检测效果。为了清晰展示,在3个场景中分别展示了相机和点云的视角。第一行展示场景的相机视角,第二行展示场景的点云视角和检测结果,第三行展示将检测到的目标框映射回相机视角的效果。由可视化结果可知,GT3D在汽车类别上的检测准确率较高,如场景所示,所有汽车都被成功检测到。在场景中,尽管距离较远的汽车

50、包含的点云数量较少,但仍然能被准确地检测到,甚至检测到了数据集中没有标注的汽车。对于场景,该场景较复杂,包含的背景点较多,然而,GT3D依然能够正确识别被遮挡的远处汽车。这表明本文通过使用均匀网格点来描述点云的空间特征,以及利用多尺度局部特征,对遮挡区域进行了有效的特征增强。图11展示了模型检测到的汽车点云。其中,x轴、y轴和z轴表示以激光雷达传感器为原点的坐标系,坐标轴上的数值表示点云场景中的全局坐标。从图11可以看出,左上角、右上角和左下角的汽车的点云较密集,而右下角的汽车包含的点云较 图 10 GT3D 可视化结果 图 11 模型检测到的汽车点云 82 通 信 学 报 第 44 卷 少。

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服