收藏 分销(赏)

基于卷积神经网络的非合作目标两阶段位姿估计方法_苏迪.pdf

上传人:自信****多点 文档编号:292216 上传时间:2023-07-10 格式:PDF 页数:10 大小:3.96MB
下载 相关 举报
基于卷积神经网络的非合作目标两阶段位姿估计方法_苏迪.pdf_第1页
第1页 / 共10页
基于卷积神经网络的非合作目标两阶段位姿估计方法_苏迪.pdf_第2页
第2页 / 共10页
基于卷积神经网络的非合作目标两阶段位姿估计方法_苏迪.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基于卷积神经网络的非合作目标两阶段位姿估计方法苏迪,张成,王柯,孙凯(北京理工大学 宇航学院,飞行器动力学与控制教育部重点实验室,北京100081)摘 要:针对空间非合作目标在轨服务中的位姿估计问题,提出了一种基于卷积神经网络的两阶段相对位姿视觉估计算法.该算法在阶段 1 中结合位置回归和检测模块,将检测后的图像输入阶段 2 中,并对任务过程中的绕飞和接近两种情况分别设计姿态估计模型,绕飞时采用分类代替回归的间接方法,接近时采用直接回归方法估计姿态,实现了对非合作目标在轨服务过程的位姿估计.充足的消融实验验证了各阶段模型的有效性,仿真实验位置精度可达 0.183 6 m,姿态精度可达 2.94

2、8 9,表明了基于卷积神经网络的单目视觉方法应用于非合作目标在轨服务中位姿估计的可行性.关键词:卷积神经网络;非合作目标;位姿估计;单目视觉;目标检测中图分类号:TP183;V448.2 文献标志码:A 文章编号:1001-0645(2023)07-0734-10DOI:10.15918/j.tbit1001-0645.2022.185A Two-Stage Pose Estimation Method for Noncooperative TargetsBased on Convolution Neural NetworkSU Di,ZHANG Cheng,WANG Ke,SUN Kai(K

3、ey Laboratory of Dynamics and Control of Flight Vehicle,Ministry of Education,School of Aerospace Engineering,BeijingInstitute of Technology,Beijing 100081,China)Abstract:A two-stage relative pose estimation algorithm based on convolutional neural network was proposed tosolve the problem of pose est

4、imation for space noncooperative targets in orbit service.The detection module wascombined with translation regression module in the first stage,and the detected image was input into stage two.An attitude estimation model was designed for flight around and flight approach during the mission.The indi

5、rectmethod of classification instead of regression was used in flying around,and the direct regression method wasadopted to estimate the attitude when approaching,so as to realize pose estimation of noncooperative targets inorbit service process.A large-scale dataset is introduced,which can be utili

6、zed as a benchmark for pose estima-tion methods.Abundant ablation studies verified the effectiveness of each module.The position accuracycould reach 0.183 6 meters and attitude accuracy could reach 2.948 9 degrees,which shows the feasibility ofmonocular vision method based on convolutional neural ne

7、twork to estimate the pose of noncooperative targetsin orbit service.Key words:convolutional neural network;noncooperative target;pose estimation;monocular vision;object de-tection 近年来人类在发展空间技术的同时,也在外太空滞留了大量的太空垃圾,根据 CelesTrak 调查报告,截至 2022 年 4 月,环绕地球周围的有效载为 12 518个,其中 5 613 个仍在运行,这意味地球轨道上有大 收稿日期:2022

8、 08 25作者简介:苏迪(1995),男,博士生,E-mail:.通信作者:张成(1973),男,研究员,博士生导师,E-mail:.第 43 卷第 7 期北 京 理 工 大 学 学 报Vol.43No.72023 年 7 月Transactions of Beijing Institute of TechnologyJul.2023量失效载荷,同时另有 39 695 个碎片1,造成了卫星轨道的拥挤,增加了碰撞的风险,对未来航天器发射和目前在轨航天器正常运行都构成了巨大挑战2.为了太空环境安全,对在轨服务(on-orbit servicing,OOS)技术支持下的任务需求逐渐凸显,如延长卫星

9、的寿命、捕获空间碎片和失效卫星等.这些任务都要求能准确估计出空间目标的位置和姿态3.大多数空间目标处于非合作状态,不同于合作目标具有合作标识或通信线路等辅助装置,非合作目标缺乏航天器间的相互通信,但对于己方发射的失效卫星,通常具有已知的三维模型等先验信息.因此,如何利用空间目标的自然特征和已有的先验信息进行位姿估算是在轨服务中的关键问题.与立体相机、雷达和红外相机相比,单目相机具有质量轻、功率低、硬件简单成熟等特点.然而,单目相机不能直接获取深度信息,这是在算法设计中需要考虑的问题.传统方法通常利用基于手工设计和先验位姿信息的图像处理方法4 5.近年随着深度学习技术取得的巨大突破6,推动了多个

10、领域的发展7 9.计算机视觉领域对位姿估计产生极大兴趣,特别是在机器人上的应用10.一些研究试图通过卷积神经网络,以端到端的形式学习到二维图像和位姿之间的非线性映射关系.这给单目视觉结合卷积神经网络在非合作目标的位姿估计研究提供了一种可行思路.北京控制工程研究所的徐云飞11提出一种基于卷积神经网络的视觉测量方法,利用预训练的网络模型,在自身构建的数据集上通过迁移学习直接回归姿态.2019 年由欧洲航天局的先进概念小组(ad-vanced concepts team,ACT)和斯坦福大学的空间交会实验室(space rendezvous laboratory,SLAB)共同举办的开尔文卫星姿态估

11、计挑战赛(the Kelvins satellitepose estimation challenge)极大推动了深度学习在非合作目标位姿估计领域中的进展,并公开了训练数据集(satellite pose estimation dataset,SPEED)12.来自泰国先皇理工大学的 THAWEERATH13利用修改的预训练 GoogLeNet 模型作为姿态预测网络,利用四元数表示相对姿态,直接回归位姿矢量.斯坦福大学的SUMANT 等14提出了 spacecraft pose network(SPN),通过 3 个神经网络分支结构估计相对位姿,包括准确度由粗到细的回归方法估计相对姿态,利用目

12、标检测框估计相对位置.PROENA 等15提出了基于深度学习的方向软分类架构,将姿态方向用混合的高斯分布表示.北京航空航天大学的张浩鹏等16提出结合核函数学习的方法,提取卫星数据集中图像特征,估计卫星姿态角.哈尔滨工业大学的李想17利用深度学习的方法对空间非合作目标进行三轴姿态估计,修改 InceptionNetV3 模型扩充了网络深度,建立模型提取特征和姿态角的映射关系,估计相对姿态.以上方法大多是探索深度学习在非合作目标位姿估计中的可行性,并没有考虑到实际在轨任务中绕飞和接近情况下图像姿态特征分布的差异,以及如何针对性应用深度学习相关技术的问题.因此,针对在轨服务不同任务需求,针对性的设计

13、非合作目标位姿估计方法有助于进一步推动深度学习技术在位姿估计领域的发展.本文提出一种适用于己方失效卫星等几何模型已知的非合作目标位姿估计方法,建立深度学习模型,将位置估计和姿态估计分为两阶段进行,在阶段1 中估计相对位置,阶段 2 中针对绕飞和接近情况下图像姿态特征分布的差异,设计对应模型估计相对姿态,实现了对非合作目标在轨服务中靠近任务的位姿估计.构建大规模数据集用于全过程的训练和验证,充足的消融实验验证了各阶段模型的有效性,表明了基于卷积神经网络的单目视觉方法应用于几何模型已知的非合作目标在轨服务中位姿估计的可行性.1 非合作目标位姿估计流程 1.1 非合作目标位姿估计定义=R|tt图 1

14、 为采用单目视觉的非合作目标位姿估计示意图,描述了空间目标本体坐标系 S 和相机的本体坐标系 C,估计每幅图像 I 中目标相对于相机的相对位姿,其中 R 表示相对姿态,表示相对位置.对于单幅图像的相对位姿估计,本文基于卷积神经网络设计了两阶段的相对位姿估计模型,分阶 相机本体坐标系C目标星本体坐标系S目标星tscRsc图 1 坐标系示意图Fig.1 Schematic diagram for the coordinate systems第 7 期苏迪等:基于卷积神经网络的非合作目标两阶段位姿估计方法735段的估计相对位置和相对姿态,模型输入为相机采集的 RGB 图像,输出为估计的相对位姿.同时

15、,本文针对在轨服务中接近非合作目标的任务过程,绕飞和接近情况下采集图像分布差异的问题,分情况设计了绕飞姿态估计模型和接近姿态估计模型,模型具体设计在第 2 节中进一步说明.1.2 两阶段位姿估计算法流程追踪星(相机)靠近目标星的任务过程可分为远距离绕飞和近距离接近两种情况,对空间非合作目标而言通常是追踪星由远及近的过程.近距离接近情况在远距离绕飞后进行,即远距离绕飞寻找有利接近方向,切换近距离接近.在远距离绕飞情况下,由于不知道空间目标初始状态,要求估计模型具有对全范围状态的估计能力,对估计模型的泛化性要求更高.在近距离接近情况下,通常选择相机和目标星惯量主轴平行作为有利方向,空间目标的相对位

16、姿分布比较集中,对估计模型的精度要求更高.因此,添加相机和目标星惯量主轴是否平行的判断条件,切换不同的估计模型对非合作目标进行位姿估计.估计流程如图 2 所示.开始位姿估计后,采集原始非合作目标图像并对图像预处理,预处理包括图像缩放、转化为张量格式、归一化 3 个步骤,将处理后的图像输入至两阶段位姿估计模型的阶段 1 中进行相对位置估计,输出相对位置和检测框,将检测框内图像输入至阶段 2 中进行相对姿态估计,根据指令调用绕飞或接近姿态估计模型,估计的相对位姿用于设置切换模型指令,并判断目标星和追踪星距离是否满足要求,决定位姿估计是否结束.2 两阶段位姿估计模型 2.1 模型总体框架图 3 为两

17、阶段位姿估计模型结构图,本文将 6 自由度位姿估计分为 2 个阶段:阶段 1 包含目标检测模块和位置参数回归模块,2 个模块共用一个特征提取网络 ResNet5018;阶段 2 分为绕飞姿态估计和接 原始图像采集估计模型切换指令切换不切换是否继续估计位姿是开始否结束图像预处理绕飞姿态估计模型接近姿态估计模型估计的相对位姿设置切换模型指令 阶段1位置估计阶段2姿态估计图 2 位姿估计流程图Fig.2 Flowchart of pose estimation T放大区域F CResNet50Tanh2 04811GAPResNet50RClass姿态求解器2 04811GAPRPN检测框2 048

18、1010Conv-BN-ReLU最大池化层Residual 单元GAP 层特征图分类层Tanh 激活函数RPN全连接层单位化层33203202 04810102 04810103320320ResNet50R2 04811GAPF CTanhNorm 阶段1阶段2图 3 两阶段位姿估计模型结构图Fig.3 Overview of two stage pose estimation model736北 京 理 工 大 学 学 报第 43 卷近姿态估计两种情况.网络模型输入均为检测后的目标区域图像.绕飞分支包含姿态求解器,求解器通过模型输出的多角度类别权重计算姿态.接近分支包含姿态参数回归模块,回

19、归的姿态经过标准化层输出单位四元数作为姿态.总体来看,两阶段位姿估计模型在估计非合作目标位姿过程中经过 3 个环节:目标检测、位置估计、绕飞/接近的姿态估计.2.2 目标检测和位置回归模块如图 3 所示,在阶段 1 中,将目标检测模块和位置参数回归模块融合在一个模型中,这是由于二者具有强相关性,某种程度上,目标检测框的位置和大小反映了目标的位置信息.目标检测模块部分参考Faster R-CNN19,采用区域候选网络(RPN)作为检测模块.位置回归模块采用全连接层回归位置参数.骨干网络输出的特征图输入至 RPN 生成检测框的同时,另外通过全局平均池化层(GAP)、位置回归模块和Tanh 激活函数

20、输出位置参数.目标检测和位置回归模块二者共用一个骨干网络,逻辑上二者属于并行结构,共同训练.RPN 将任意尺寸的特征图作为输入,生成一系列矩形候选框,并对每个候选框打分,用来判断框内图像是前景还是背景.在本文应用场景中,只有空间目标一个类别.采用预先设置的锚框和边界框回归损失.由于 RPN 是已经提出的技术,并且在本文中可以替换,其细节不过多描述.针对空间目标尺度变化的情况,本文预设 anchor 包含 3 种面积(3232,6464,128128),每种面积包含 3 种长宽比(0.5,1.0,2.0).RPN 的作用为提供一个包含空间目标的检测框.t=txtytzTttz如图 1 所示,相对

21、位置是空间目标质心相对于相机坐标系的三维坐标.由于直接从图像特征中回归 的泛化性不好,并且在实际使用中估计精度不高,本文中将位置参数分为目标的三维质心在二维投影的位置和目标与相机的距离.tc=cxcyczTttc具体来说,可以通过定位目标在像素坐标系下的中心和三维质心的距离来估计相对位置.阶段 1回归归一化的位置参数,通过投影方程将 转化为:|cx=tx/(tztan(HF/2)cy=ty/(tztan(VF/2)cz=tz/Mz(1)HFVFMztz式中:和分别为水平和垂直视场角;为 的最大值.2除了对位置回归参数的设置外,损失函数的设计对估计模型的优化也十分重要.在阶段 1 中,首先使用基

22、于最小化欧氏距离的损失优化回归参数:|Lx=E cx cx2Ly=E cy cy2Lz1=E cz cz2(2)式中 和 分别为预测值和真实值.2绝对误差作为评价指标在近距离和远距离的影响是不平衡的,这导致模型在近距离的位置估计中不够准确.因此还添加了基于损失的相对损失,提升距离的估计精度:Lz2=E cz cz2/cz2(3)阶段 1 训练过程中,采用对各个损失项加权和的方式联合训练目标检测模块和位置回归模块:Lst1=dLd+xy(Lx+Ly)+aLz1+rLz2(4)Lddxyar式中:为检测损失项;、为控制对应损失项的权重.在阶段 1 中,主要对位置回归参数进行设置,利用目标检测模块获

23、取的检测框用于阶段 2.阶段 1 的设计可以将检测的特征信息和位置回归的特征信息进行融合,这提高了位置估计的精度.2.3 姿态求解模块12如图 3 所示,在阶段 2 中实现对绕飞/接近情况下相对姿态的估计.利用阶段 1 得到的检测框,裁剪原图像中目标区域,并使用其作为阶段 2 的输入.现有的方法大多直接利用或损失来回归姿态,该方案主要的缺点是其不能准确表示任意方向的角差,并且对较大范围姿态情况的泛化性不好,但其优点是在小范围姿态情况下的准确度很高.因此,阶段 2根据接近非合作目标的不同情况,针对绕飞和接近分别采用间接和直接的方法估计相对姿态.其中,绕飞情况对姿态精度要求不高,对模型泛化能力要求

24、较高,采用间接法估计姿态.间接法引入了权重的概念,将单个四元数用多个四元数类别表示,并计算对应类别的权重,把回归的问题转化为分类的问题,可以通过最小化加权最小二乘估计来求解相对姿态.接近情况对姿态精度要求较高,姿态分布范围较小,采用直接法估计姿态.直接法设置姿态回归参数为单位四元数,模型通过单位化层保证输出为单位四元数,设计对应损失函数,保证模型估计精度.在阶段 2 的输入要求为检测的目标图像,考虑第 7 期苏迪等:基于卷积神经网络的非合作目标两阶段位姿估计方法737到由于位置和姿态之间的独立性,相同姿态下不同位置的图像具有较大差异.如图 4 所示,近距离的图像中空间目标占比较大,而远距离的图

25、像中空间目标占比较小.(a)近距离图像(b)远距离图像图 4 相同姿态不同位置图像Fig.4 Different translation in the same rotation 图 5 比较了不同位置缩放后的检测图像,二者理论上只有清晰度的差异,实际中二者相似度极高,但由于缩放过程中插值函数补全像素时存在一定误差,使其并不完全符合缩放原理.(a)近距离图像(b)远距离图像图 5 放大后的检测图像Fig.5 Detected image after zooming 因此,阶段 2 将缩放后的检测图像作为输入,这在一定程度上保证了相同姿态下图像输入的一致性,缓解了由于输入差异导致姿态估计的误差.

26、此外,与位置参数回归一样,在姿态估计中对回归参数和损失函数的设计也十分重要.通常使用单位四元数作为回归参数.但在直接回归四元数时存在一定问题,当姿态范围过大时,在任意方向的表示精度不高11,但在小范围情况下精度较高.2.3.1 绕飞姿态估计模型在处理绕飞时姿态范围较大的情况,阶段 2 通过对多个角度类别分类并赋予权重的方法估计姿态,这把连续的姿态变量转为离散,把回归问题转为分类问题,在牺牲部分精度的情况下,提升了模型估计的泛化能力,更适用于绕飞的情况.该方法优点在于避免了 CNN 训练对多个蒙特卡洛样本的需求,引入了权重,改变了网络的映射关系,将单个角度的映射变为多个角度类别的映射,提升了估计

27、的泛化性和精度.根据模型估计的权重,姿态通过高斯牛顿算法的雅可比矩阵计算.qgtqwQ=q1q2qHH=M3关键在于四元数姿态标签到权重标签的转换,从而让阶段 2 的绕飞姿态估计模型学习到输出权重分布 P 的映射关系.通过将每一维度的姿态角平均分为M 个步长,设置四元数姿态类别对应于每个步长的姿态角,其中.采用衡量四元数之间角差的函数,运用归一化方法对每一个类别的权重进行赋值.Pqw训练过程中,需要保证模型输出和真实值标签分布的一致性,考虑到权重分布和概率分布上的相似性,本文采用 Kullback-Leibler(KL)散度作为衡量两种分布的不对称度量.设计以下损失函数:Lf=E|Hi=1qw

28、(i)log(P(i)qw(i)|(5)阶段 2 绕飞姿态估计模型采用如下损失函数训练:Lst2f=fLf(6)f式中为控制对应损失项的权重.2.3.2 接近姿态估计模型qpre在处理接近姿态范围较小的情况,阶段 2 通过全连接层直接回归四元数,通过激活函数和单位化层保证回归的结果为单位四元数形式.在小范围姿态情况下精度更准确,更适用于接近的情况.2首先使用损失来优化回归参数:Ln1=Eqpreqgt2(7)此外,根据单位四元数的特性添加转置损失:Ln2=E|1qpreqTgt|(8)阶段 2 接近姿态估计模型采用如下损失函数训练:Lst2n=n1Ln1+n2Ln2(9)n1n2式中、为控制对

29、应损失项的权重.在阶段 2 中,主要设计绕飞/接近情况的姿态估计模型,使用检测图像作为输入,减少了位置差异给姿态估计带来的干扰,确保了相同姿态下图像输入的一致性.此外,根据绕飞/接近的不同需求,绕飞采用间接姿态估计方法,使用分类代替回归,保证了估计的泛化性;接近采用直接姿态估计方法,直接回归单位四元数,提高估计的准确性.738北 京 理 工 大 学 学 报第 43 卷 2.4 模型切换条件考虑靠近任务的实际情况,设计 2.3 节中绕飞/接近姿态估计模型的判断条件.追踪星(相机)接近目标星的过程可分为远距离绕飞和近距离接近两种情况,对空间非合作目标而言通常是追踪星由远及近的过程.近距离接近情况在

30、远距离绕飞后进行,即远距离绕飞寻找有利接近方向,切换近距离接近.测试过程中,采集到图像后,通过阶段 1 得到相对位置和检测框,将检测框内图像输入至阶段 2 绕飞姿态估计模型,得到相对姿态的四元数形式,转为欧拉角后判断是否为切换接近过程的有利方向,如果是,后续图像输入至阶段 2 接近姿态估计模型,如果不是,继续使用绕飞姿态估计模型.90909090本文采用的有利方向为相机和目标星惯量主轴平行,即预测的 X 轴旋转角在且 Z 轴旋转角在范围内,或 X 轴旋转角且 Z 轴旋转角在范围内,其中 为可设置的阈值.3 数据集制作 3.1 非合作目标相对位姿数据集深度学习作为一门数据驱动的学科,模型的训练需

31、要大量已标注的数据.针对非合作目标在轨服务的靠近任务,本文构建一个包含非合作目标的 6自由度位姿估计数据集,该数据集包含训练集和测试集,及其对应的相对位姿标注和检测框标注.数据集可用于非合作目标领域相对位姿估计深度学习模型的训练,同时可作为测试相关算法的基准.与SPEED 数据集相比,本文提出的数据集由 RGB 图像构成,丰富非合作目标位姿估计数据集的多样性,进一步推动该领域的研究.构建大规模由真实图像构成的非合作目标相对位姿数据集是十分困难的,因此,本文使用虚拟的物理引擎来收集丰富的位姿图像.物理引擎模拟图像简化了标注环节,并且保证了标注的准确性.通过一个卫星的三维模型,设计对应的数据分布,

32、通过程序生成位姿数据,可直接仿真出对应位姿的图像.640640根据本文模型,设计绕飞数据集和接近数据集分别用于训练阶段 2 的绕飞/接近姿态估计模型,两部分数据集混合后构成位置数据集用于训练阶段 1的位置估计模型.数据集均按照 91 的比例随机分为训练集和测试集,像素均为,描述了一个典型的非合作目标,部分样例如图 6 所示.(x,y)(W,H)在位姿估计过程中,相机的内参矩阵为已知的先验信息.仿真物理引擎的视场角为,生成图像分辨率为,相机的内参矩阵 K 为K=|W2tan(x/2)0W20H2tan(y/2)H2001|(10)3.2 绕飞数据集cxcy绕飞数据集包含 40 000 张生成的图

33、像,为了创建空间目标的不同视角图像,分别设置相对姿态和相对位置,远距离相对姿态按照平均随机分布生成,如图 7 所示.Z 方向的相对位置服从标准正态分布 D1N(=50 m,=15 m),只选取 50,100 m 区间内的数值.X 和 Y 方向的和服从 2 个独立的标准正态分布 D2N(=0,=0.015),相对位置分布如图 8所示.100 0 100X轴旋转角/()(a)X 方向(b)Y 方向(c)Z 方向02004006008001 0001 200个数个数个数50 050Y轴旋转角/()02004006008001 0001 200100 0 100Z轴旋转角/()020040060080

34、01 2001 000图 7 绕飞数据集相对姿态分布Fig.7 Distribution of the relative rotation in the flight around dataset 图 6 数据集样例Fig.6 Examples in the dataset第 7 期苏迪等:基于卷积神经网络的非合作目标两阶段位姿估计方法739 3.3 接近数据集D4D3cxcyD2 N(=0,=0.015)接近数据集包含 20 000 张生成的图像,其中10 000 张图像相对姿态的 X 轴旋转角和 Z 轴旋转角分别服从 2 个独立的标准正态分布 D3N(=90,=1)和 D4N(=90,=1

35、),另 10 000 张图像相对姿态的 X 轴旋转角和 Z 轴旋转角分别服从和,如图 9 所示.Z 方向的相对位置服从 6,50 m 区间的平均随机分布,X 和 Y 方向的和与 3.2 节相同,服从两个独立的标准正态分布,相对位置分布如图 10 所示.4 实验分析 4.1 实施细节本文在 PyTorch20环境下使用第 3 节中提出的数据集训练两阶段位姿估计模型,所有实验均在Intel Xeon(R)Gold 51282.30 GHz64 CPU 和 3 块NVIDIA RTX 3 090 GPU 条件下进行,下文中采用维度高度宽度来表示特征图大小.在阶段 1 和阶段 2的模型中均使用在 Im

36、ageNet21上预训练的 ResNet50作为骨干网络,在两个阶段中输入的原始图像和检测图像都缩放至 320320 像素.两阶段位姿估计模型训练的细节如下所示:在阶段 1 中,移除骨干网络的全局平均池化层(GAP)和全连接层(FC),骨干网络输出 2 0481010 50556065707580859095100tSC,z/mtSC,z/m505tSC,x/mtSC,y/m5055606570758085909510050555tSC,y/mtSC,x/m600(a)Z 方向(b)X 方向(c)Y 方向0657075tSC,z/m80859095图 8 绕飞数据集相对位置分布Fig.8 Di

37、stribution of the relative translation in the flight around dataset 100 0100X轴旋转角/()01 0002 000(a)X 方向(b)Y 方向(c)Z 方向3 0004 0005 0006 000个数个数个数50 0 50Y轴旋转角/()01002003004005006001000100Z轴旋转角/()01 0002 0003 0004 0005 0006 000图 9 接近数据集相对姿态分布Fig.9 Distribution of the relative rotation in the approach dat

38、aset(b)X 方向10150(a)Z 方向(c)Y 方向0202530tSC,z/mtSC,y/mtSC,x/m354045505101520253035404550tSC,z/mtSC,z/m42024tSC,x/m510152025303540455042024tSC,y/m图 10 接近数据集相对位置分布Fig.10 Distribution of the relative translation in the approach dataset740北 京 理 工 大 学 学 报第 43 卷tc=cxcyczT大小的特征图,作为 RPN 和位置回归模块的输入.在位置回归模块中,添加一

39、个 GAP 层输出 2 04811大小的特征图,然后通过 FC 层和 tanh 激活函数回归.采用 Adam 优化器22优化整个网络,初始学习率和权重衰减率均设为 0.001,学习率策略采用余弦退火23,周期设为训练轮数的 1/5.数据批数(batch size)设为 90,训练轮数(epochs)为 100.P在阶段 2 中,与阶段 1 类似,通过骨干网络和GAP 层输出 2 04811 大小的特征图,在绕飞姿态估计模型中通过 FC 层输出权重分布,采用 SGD 优化器24,FC 层初始学习率设为 0.01,其他网络层的初始学习率设为 0.001,动量值设为 0.9,权重衰减率设为0.001

40、;在接近姿态估计模型中通过 FC 层和 tanh 激活函数回归四元数,再通过归一化层输出单位四元数,采用 Adam 优化器优化接近姿态估计模型,初始学习率和权重衰减率均设为 0.001,学习率每经过 1/3 的训练次数后降低至当前学习率的 0.1.训练 2 种姿态估计模型的 Batch size 均为 150,epochs 均为 100.4.2 评价指标tt为了定量分析模型效果,本节给出 3 个参考标准.每个样本的绝对位置误差用 2 范数衡量,估计的位置 和真实值:ET=|tt|2(11)qestqgt每个样本的姿态误差用角差来衡量估计的姿态及真实值:ER=2cos1|qest,qgt|(12

41、)BestBgt采用交并比(IoU)衡量目标检测的性能,预测的检测框及其真实值,A 表示面积:IoU=A(Best)A(Bgt)A(Best)A(Bgt)(13)4.3 消融实验阶段 1 的消融实验验证了位置估计模型中检测模块和相对误差损失项的作用,结果如表 1 所示.基线采用 ResNet50 作为骨干网络,式(1)的位置参数化方法和式(2)的绝对损失.从表 1 中可以看出,检测模块和相对误差损失项都能提升模型表现,结合两种方法,可以进一步提升模型性能,平均误差超过基线 0.436 0 m.同时测量了检测模块的 IoU 值,可以看出本文采用的目标检测算法可以很好地检测出目标.阶段 2 绕飞情

42、况的消融实验验证了绕飞姿态估计模型中输入检测图像和分类方法的作用,结果如表 2 所示.基线采用 ResNet50 作为骨干网络,回归参数设置为四元数,采用式(7)直接回归损失和式(8)转置损失.从表 2 中可以看出,基线方法已经能取得相对较高的估计精度,这验证了四元数参数化和转置损失的有效性,进一步消融实验在表 3 中给出.此外,输入检测图像和分类方法都能提升模型表现,结合两种方法可以进一步提升模型性能,平均误差超过基线 3.379 3.表 2 阶段 2 绕飞情况消融实验Tab.2 Ablation studies of stage two fly-around方法ER/()基线8.078 5

43、输入检测图像6.973 0使用分类方法4.783 1二者均使用4.699 2 表 3 阶段 2 接近情况消融实验Tab.3 Ablation studies of stage two approach方法ER/()基线2.618 6输入转置损失2.363 6 阶段 2 接近情况的消融实验验证了接近姿态估计模型中转置损失的作用,结果如表 3 所示.基线采用 ResNet50 作为骨干网络,回归参数设置为四元数,采用式(7)直接回归损失.从表 3 可以看出,转置损失进一步提升了基线的精度,平均误差超过基线0.255.各阶段估计模型的推理时间如表 4 所示.各阶段模型的推理速度都很快,其中阶段 2

44、绕飞估计模型由于含有求解特征向量的程序,该部分计算效率较低,运行时间为 0.123 s,导致整体运行时间较长,该部分程序可以通过后续优化提升速度.其中阶段 2绕飞模型中卷积神经网络的推理时间为 0.018 1 s,与其他阶段运行效率一致.表 1 阶段 1 消融实验Tab.1 Ablation studies of stage one方法ET/mIoU基线0.861 1使用检测模块0.690 10.892 7使用相对误差损失0.546 9二者均使用0.425 10.893 5第 7 期苏迪等:基于卷积神经网络的非合作目标两阶段位姿估计方法741表 4 各阶段模型推理时间Tab.4 The inf

45、erence time of each stage model模型时间/s阶段1位置估计模型0.025 0阶段2绕飞估计模型0.141 1阶段2接近估计模型0.017 1 4.4 超参数实验Lz2Lz1ra=0.5本节对两阶段位姿估计模型中的超参数影响进行试验分析,首先是阶段 1 中位置估计模型训练中相对误差损失项及绝对误差损失项各自权重系数与之间的比值,通过在位置数据集中设置不同超参数 的值进行训练,测试集上估计结果如图 11 所示,后续试验中选择.00.250.500.751.001.25超参数 0.400.450.500.550.600.650.700.750.80平均位置误差 ET/m

46、图 11 超参数 的实验分析Fig.11 Analysis of hyperparameter Ln2Ln1n2n1=0.5此外,还有阶段 2 中接近姿态估计模型训练中转置损失及回归损失各自的权重系数与之间的比值,通过在近距离姿态数据集中设置不同超参数的值进行训练,测试集上估计结果如图 12所示,后续试验中选择.4.5 对比实验本节在非合作目标仿真样例上进行对比试验,将 Thaweerath 方法13、SPN14、USRO 方法15和本文提出的两阶段位姿估计模型进行对比,估计结果如表 5 所示.表 5 样例仿真实验Tab.5 Example simulation experiment方法ET/

47、mER/()Thaweerath1.161 17.976 2SPN0.425 16.085 6USRO0.413 25.162 4Ours0.183 62.948 9 可以看出,由于本文的方法将相对位置的预测和目标检测相结合,同时对位置回归参数进行了设置,在相对位置估计上取得了较好的结果.对相对姿态的估计考虑到了绕飞和接近两种情况图像特征分布的差异并分别设置了估计模型,可以更好地应对在轨任务过程中不同阶段的姿态估计,在对比实验中取得了更高的估计精度.5 结论本文对基于单目视觉的卷积神经网络深度学习技术在非合作目标的位姿估计领域进行了研究,主要有以下贡献:本文给出了一种空间非合作目标在轨任务全过

48、程位姿估计的方法.针对单目相机获取的图像,设计两阶段位姿估计神经网络模型分阶段对非合作目标的相对位姿进行估计,并结合实际在轨任务需求,针对性设计了不同阶段姿态估计模型.本文提出了非合作目标相对位姿数据集,丰富了该研究领域内的数据集样式,可用于基于视觉的非合作目标位姿估计研究,进一步推动深度学习技术在非合作目标位姿估计领域的发展.充足的对比和仿真实验验证了算法有效性和在空间非合作目标在轨服务中,采用基于图像训练的深度学习算法进行位姿估计的可行性.参考文献:KELSO T S.CelesTrak:SATCAT boxscoreDB/OL.2022-04-01.http:/ FLORES-ABAD

49、A,MA O,PHAM K,et al.A review of spacerobotics technologies for on-orbit servicingJ.Progress inAerospace Sciences,2014,68:1 26.2 00.250.500.751.001.25超参数 2.302.352.402.452.502.552.602.652.702.752.80平均姿态误差 ER/()图 12 超参数 的实验分析Fig.12 Analysis of hyperparameter 742北 京 理 工 大 学 学 报第 43 卷 OPEROMOLLA R,FASAN

50、O G,et al.A review ofcooperative and uncooperative spacecraft pose determinationtechniques for close-proximity operationsJ.Progress inAerospace Sciences,2017,93:53 72.3 DING M,WEI L,WANG B F.Vision-based estimation ofrelative pose in autonomous aerial refuelingJ.Chinese Journalof Aeronautics,2011,24

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服