收藏 分销(赏)

图像与激光点云融合的实时目标定位算法_崔善尧.pdf

上传人:自信****多点 文档编号:453989 上传时间:2023-10-11 格式:PDF 页数:7 大小:1.26MB
下载 相关 举报
图像与激光点云融合的实时目标定位算法_崔善尧.pdf_第1页
第1页 / 共7页
图像与激光点云融合的实时目标定位算法_崔善尧.pdf_第2页
第2页 / 共7页
图像与激光点云融合的实时目标定位算法_崔善尧.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 11 卷 第 2 期 导航定位学报 Vol.11,No.2 2023 年 4 月 Journal of Navigation and Positioning Apr.,2023 引文格式:崔善尧,贾述斌,黄劲松.图像与激光点云融合的实时目标定位算法J.导航定位学报,2023,11(2):99-105.(CUI Shanyao,JIA Shubin,HUANG Jingsong.Real-time target positioning algorithm based on image and laser point cloud fusionJ.Journal of Navigation an

2、d Positioning,2023,11(2):99-105.)DOI:10.16547/ki.10-1096.20230211.图像与激光点云融合的实时目标定位算法 崔善尧,贾述斌,黄劲松(武汉大学 测绘学院,武汉 430079)摘要:针对单一传感器在自动驾驶实时目标定位中的局限性,提出一种基于图像与激光点云融合的实时目标定位算法:对图像进行目标检测,得到目标在图像坐标系中的区域;然后将激光点云投影到图像坐标系中,使用基于密度的带有噪声的空间聚类(DBSCAN)算法对目标区域内的少量点云进行聚类以提取目标真实点云,降低计算量的同时获取目标准确的位置信息。实验结果表明,该算法可以有效提升在遮

3、挡情况下目标定位的准确性;并通过在嵌入式平台上进行部署,验证了该算法在算力受限的平台上也具有较好的实时性。关键词:自动驾驶;图像检测;点云聚类;数据融合;实时目标定位 中图分类号:P228 文献标志码:A 文章编号:2095-4999(2023)02-0099-07 Real-time target positioning algorithm based on image and laser point cloud fusion CUI Shanyao,JIA Shubin,HUANG Jingsong(School of Geodesy and Geomatics,Wuhan Univers

4、ity,Wuhan 430079,China)Abstract:Aiming at the limitations of the single sensor in real-time target localization in autonomous driving,the paper proposed a real-time target localization algorithm based on fusion of images and laser point clouds:the target detection on the image was performed to obtai

5、n the area of the target in the image coordinate system;and the density-based spatial clustering of applications with noise(DBSCAN)algorithm was used to cluster a small number of point clouds in the target area to extract the real target points;then the accurate location of the target was obtained w

6、hile reducing the amount of computation.Experimental results showed that the proposed algorithm could effectively improve the accuracy of target positioning in the case of occlusion;and through deploying it on the embedded platform,it could be verified that the algorithm would have good real-time pe

7、rformance even on limited computing resource.Keywords:autonomous driving;image detection;point cloud clustering;data fusion;real-time target localization 0 引言 环境感知是自动驾驶车辆实现自主行驶的基础和前提1。提高车辆感知附近目标的实时性和准确性,不仅可以提高车辆的自动驾驶能力,也对自动驾驶安全具有重要意义2。因此,如何对车辆周围目标进行及时、精准的定位具有重要的研究价值。目标定位首先要对目标进行检测,已有大量学者针对图像目标检测算法进行

8、了研究,目前的主流方法是基于深度学习的算法,主要包括只看一次(you only look once,YOLO)系列3-6、单次多视窗检测(single shot multibox detector,SSD)7、区 域 卷积 神经 网 络(region-based convolutional neural network,R-CNN)系列8-10、特征金字塔网络(feature pyramid networks,FPN)11等。这些图像目标检测算法虽然可以较好地获取目标方位,但受限于图像无法提供深度信息,难以准确判定目标的距离。激光雷达可以获取目标准确的空间位置,因此 收稿日期:2022-05-

9、28 第一作者简介:崔善尧(1997),男,江苏淮安人,硕士研究生,研究方向为自动驾驶多源传感器融合。100 导航定位学报 2023 年 4 月 对于自动驾驶具有重要的应用价值。基于激光点云的目标检测算法也是一直以来的研究热点,其可分为传统算法和基于深度学习的算法。传统算法一般先进行地面点云滤除、滤波等操作,然后对点云进行空间聚类,从而确定各目标的位置。传统算法受聚类方法、点云数量的影响,难以保证较好的检测效果和实时性。基于深度学习的算法有采用单阶段网络的体素网络(voxel network,VoxelNet)12、点云柱状特征网络13、点云图神经网络(point-based graph ne

10、ural network,Point-GNN)14等,以及采用双阶段检测的点云体素区域卷积神经网络(point voxel region-based convolutional neural network,PV-RCNN)15、体素区域卷积神经网络(voxel-based region-based convolutional neural network,Voxel R-CNN)16等算法。相较于单阶段,双阶段的检测精度更高,但速度较慢。同时,基于深度学习的点云目标检测对计算资源的需求较高,在算力受限的平台上实时性较差。结合相机可准确获取目标方位和激光雷达能准确获取目标空间位置的特点,众多学

11、者对基于图像和点云数据融合的目标检测算法进行了研究。文献17先对点云进行聚类得到目标感兴趣区域,然后将其投影到图像坐标系下,再使用卷积神经网络对感兴趣区域内的目标进行检测,提升了检测速度。文献18分别对点云和图像数据进行目标检测,然后通过决策级融合获取目标的位置、类别等信息,但是目标被遮挡时距离准确度不高。文献19先对图像中目标进行识别,然后将图像检测框与点云进行快速配准,降低了图像漏检的概率。文献20先用参数自适应的基于密度的带有噪声的空 间聚 类(density-based spatial clustering of applications with noise,DBSCAN)算法对点云

12、进行聚类,然后融合深度学习图像检测的结果,以去除聚类结果中的冗余目标。该算法虽然具有较高的精度和鲁棒性,但是处理的点云数量较多,融合时会剔除较多的点云聚类结果,消耗了计算资源。这些方法一定程度上提高了目标的检测率,但是在算力受限的平台上难以保证较好的实时性。针对以上单一传感器在实时目标定位中难以准确获取目标距离、算力要求高,多传感器融合在算力受限的平台上实时性难以保证的不足,本文提出了一种基于图像与激光点云融合的实时目标定位算法。该算法将图像的检测结果和激光点云进行融合,从而剔除目标区域外的点云以降低数据量,并使用 DBSCAN 算法对目标区域内的点云进行聚类,以提取目标的真实点云,实现对目标

13、的定位。1 算法介绍 1.1 目标定位算法流程 本文设计的图像与激光点云融合的实时目标定位算法流程如图 1 所示,主要包括数据融合和目标定位 2 个部分。首先采集激光点云和图像数据,并对其进行数据同步;再将去畸变后的图像使用 YOLOv4 进行目标检测,得到多个目标在图像坐标系中的位置、类别等信息;然后利用相机与激光雷达间的外参,将点云投影到图像平面上,并剔除图像中目标区域外的点云,完成点云与图像之间的数据融合;最后对图像目标区域内的少量点云进行聚类,提取目标的真实点云,从而获取目标准确的空间位置和距离,完成目标定位工作。图 1 算法流程 1.2 图像和点云数据同步 1.2.1 时间同步 在相

14、机和激光雷达构成的多传感器系统中,由于各传感器的时钟基准不一致,需要对传感器间进行硬件时间同步,以保证各传感器工作在同一时间基准下;又由于各传感器的曝光频率不一致,第 2 期 崔善尧,等.图像与激光点云融合的实时目标定位算法 101 需要对各传感器数据进行软件时间同步,以保证各传感器对同一环境事件的感知数据都拥有相同的时间戳,从而保证图像和点云数据的正确融合。本 文 选 用 了 车 规 级 千 兆 多 媒 体 串 行 链 路(gigabit multimedia serial links,GMSL)相机和非重复扫描式激光雷达作为实验用传感器。GMSL 相机支持触发式曝光,通过记录相机触发时间并

15、对数据传输延迟进行修正,可获取图像的真实时间戳,该时间基准由上位机提供;激光雷达通过精确时间协议(precision time protocol,PTP)进行硬件时间同步,其时间基准由上位机提供。至此,相机和激光雷达便工作在了同一时间基准下,然后可对其数据进行软件时间同步。本文采用时间索引的方式,即对每一帧激光点云数据寻找与其采样时刻最近的图像数据,从而完成图像和点云数据间的软件时间同步。1.2.2 空间同步 相机和激光雷达的成像数据都在其自身坐标系下,在进行数据融合时,需要将其数据在空间上转换到同一个坐标系下,即进行空间同步。传感器A 到传感器 B 的坐标转换矩阵BAT为 TBBBAAA|=

16、ORtT1(1)式中:BAR为传感器 A 到传感器 B 的旋转矩阵,矩阵大小为 33;BAt为传感器 A 到传感器 B 的平移矩阵,矩阵大小为 31;TO为零矩阵的转置矩阵,矩阵大小为 13。在进行激光点云和图像数据的融合时,涉及的坐标系有激光雷达坐标系LO,下标 L 表示激光雷达;相机坐标系CO,下标 C 表示相机;图像坐标系UVO,下标 U 表示图像的水平方向,下标 V 表示图像的垂直方向。图 2 为这 3 个坐标系之间的空间转换关系。图 2 坐标系空间转换关系 设环境中一点P在激光雷达坐标系下坐标为LP,在相机坐标系下坐标为CP,在图像坐标系下坐标为UVP,则点LP从激光雷达坐标系转换到

17、相机坐标系下的计算方法为 CCCCLLLLL=+=PR PtT P(2)式中:CLR为激光雷达到相机的旋转矩阵;CLt为激光雷达到相机的平移矩阵;CLT为激光雷达到相机的转换矩阵。则点CP从相机坐标系转换到图像坐标系下的计算方法为 UVCCxxyyfcfcZZ|=PKPP0110001(3)式中:Z为点P在相机坐标系下z轴的坐标;K为相机的内参矩阵;xf、yf为相机焦距的缩放因子;xc、yc为图像坐标的平移因子。结合式(2)、式(3)可得,点LP从激光雷达坐标系转换到图像坐标系下的计算方法为 CCUVLLLLxxyyfcfcZZ|=|=PKT PT P0110001(4)可见将点云和图像数据进

18、行空间同步的关键在于求取相机的内参矩阵K和激光雷达到相机的外参转换矩阵CLT。本文采用张氏标定法21对相机内参进行标定,获取相机的内参矩阵K;通过在图像和点云中选取共视点,并对共视点间的转换矩阵进行最优估计,从而完成相机与激光雷达的外参标定,获取激光雷达到相机的外参CLT。1.3 图像目标检测 基于深度学习的图像目标检测算法是目前的主流方法,其主要可分为 2 类,一类是单阶段算法,通过端到端的网络直接获取目标位置和类别,常见有 YOLO 系列3-6等;另一类是双阶段算法,先产生一系列的目标候选区域,再对候选区域进行分类,常见有 R-CNN 系列8-10等。虽然双阶段的检测精度高于单阶段,但是对

19、计算资源需求较高,检测速度较慢,实时性差于单阶段。本文考虑到在算力受限的平台上进行实时目标检测与定位的需求,选用 YOLOv46作为图像的目标检测算法,并在部署时采用统一计算设备架构(compute unified device architecture,CUDA)22和深度学习推导优化器(TensorRT)23对算法中的神经网络推 102 导航定位学报 2023 年 4 月 导进行加速,以提高目标检测的实时性。1.4 数据融合与目标定位 图像目标检测完成后,得到 m 个目标在图像中的区域为 (,),kkkkkuvwhkm=b12 (5)式中:kkuv、为目标在图像中边框左上角的像素点坐标;k

20、kwh、为目标在图像中边框的宽度和高度。利用相机内参K和相机与激光雷达标定所得外参CLT,将n个激光点LiP通过式(4)投影到图像坐标系下,得到投影后的点UV(,)iiiu v=P,然后对不满足式(6)条件的点进行剔除,即剔除目标边框外的点云,只保留目标边框内的点云,从而减少点云数量,降低后续处理对计算资源的需求。至此便完成了点云与图像数据的融合。(),()kikkkikkuuuwinkmvvvh+|=+|1212 (6)式中iiuv、为激光点投影到图像坐标系后的像素点坐标。图 3 为数据融合后的效果。可以看出,图像目标检测只能提供目标的大致区域,目标边框内存在一定背景,且目标易受遮挡影响,会

21、存在目标边框内一部分点云不属于目标的情况,进而影响目标定位的准确性,因此需要对这些点云进行判别并提取出目标真实点云。图 3 点云和图像融合效果 可认为图像检测边框内的目标点云与非目标点云在三维空间中是不连续的,同时考虑算法的实时性要求,本文采用基于密度的 DBSCAN 算法对目标边框内的点云进行聚类,得到 t 个三维点集LLL,tCCC12。该算法能够在空间数据中,通过设置领域半径和密度阈值,将有足够密度的区域划分为簇,每个簇为聚类的一个结果。该算法优点在于可对任意形状的数据进行聚类,且对噪声点不敏感,适合在该场景下使用。点云聚类完成后,需要对聚类结果进行判定,从而提取目标真实点云。在图像目标

22、检测结果中认为目标边框内的主体均为目标本体,因此可选取在目标边框内点云数量最多的聚类结果为目标真实点云。将点云聚类后所得的 t 个三维点集LLL,tCCC12投影到图像坐标系中,得到对应 t 个二维点集UVUVUV,tCCC12,然后对每个二维点集UVjC,利用式(7)计算其面积UV()jS C与对应目标边框面积()kSb的交并比jI,取交并比最大的二维点集对应的原始三维点集为目标的真实点云。表达式为 UVUV()(),()()jkjjkSSIjtkmSS=CbCb1212 (7)式中()S x为区域 x 的面积。综合上述策略,即可提取目标真实点云数据,然后取点云聚类中心作为目标的空间位置,从

23、而实现对目标的精准定位。2 实验与结果分析 图 4 为本文所用实验平台,相机采用森云智能车规级 GMSL相机,分辨率为 1 280720个像素,激光雷达采用大疆览沃 Mid-70 非重复扫描式激光雷达,嵌入式计算平台采用米文动力 Apex Xavier。平台上安装 Ubuntu18.04 操作系统,并使用机器人操作系统(robot operating system,ROS)作为本文算法的运行平台。图 4 实验平台 2.1 目标定位效果 为验证本算法的有效性,在校园多个场景下进行实时目标定位实验。经统计,一共采集了 4 659 张图像,图像成功检测目标 23 095 次,算法成功定 第 2 期

24、崔善尧,等.图像与激光点云融合的实时目标定位算法 103 位目标 22 563 次,定位成功率为 97.7%。图 5 为不同场景下的目标定位效果,其中点表示目标点云,叉表示被剔除的点云,目标边框上标明了目标类别和距离信息。图 5 不同场景下的目标定位效果 从图 5 可以看出:在场景 1 中,大部分的地面点以及前车被后车遮挡部分的点被有效剔除;在场景 2 中,树上的点被有效剔除;在场景 3 中,摩托车背景的点被有效剔除;在场景 4 中,非货车上的点被有效剔除。说明了本算法在目标受其他物体遮挡、目标区域存在一定背景点云时,能有效分辨目标的真实点云,剔除非目标的点云,提高了目标定位的准确性。2.2

25、定位精度分析 为评价本文目标定位算法的定位精度,在校园场景下采集图像和点云数据,并使用语义分割编辑软件(semantic segmentation editor,SSE)对点云中的车辆和行人进行手工标注,从而获取目标的位置信息作为真值。数据集中共标注了150 帧数据。图 6 所示为所标注的点云数据。图 6 点云数据标注 目标的定位结果使用方位角和距离进行描述,方位角为激光雷达坐标系x轴与目标所成的夹角。以激光雷达为圆心,目标点云的聚类中心为目标位置,计算目标与激光雷达之间的方位角和距离,并与标注所得的目标参考位置进行对比。统计在不同距离下,本算法对行人和车辆进行定位的方位角和距离的平均误差,结

26、果如表 1 所示。可以看出,对于行人和车辆这 2 种道路上常见的目标,在距离小于 15 m 时,方位角平均误差不超过 1.73,距离平均误差小于 5.9 cm;在距离大于 15 m 小于50 m 时,方位角平均误差不超过 1.22,距离平均误差小于 6.3 cm。本算法的目标定位精度可满足自动驾驶感知的需要。表 1 不同距离下对行车和车辆定位的方位角和 距离的平均误差 距离/m 行人目标定位的定位结果 车辆目标定位的定位结果方位角平均误差/()距离平均 误差/cm 方位角平均 误差/()距离平均误差/cm051.46 3.5 1.73 5.9 5151.15 3.1 1.54 5.5 1525

27、1.07 4.3 1.22 5.7 25500.98 4.9 0.98 6.3 104 导航定位学报 2023 年 4 月 实验发现,随着距离的增加,目标在图像中所占面积减少,目标上的点云密度和数量在降低,对应非目标点的数量也在降低,因此目标定位的方位角误差呈减小趋势。同时受该激光雷达自身测距精度影响,在距离小于 5 m 时,测距平均误差较大。较大体积的目标易受其他物体遮挡,导致一部分目标自身点云缺失,影响整体的定位精度;因此本算法对行人的定位效果一定程度上优于对车辆的定位效果。2.3 算法实时性 为验证本算法的实时性,分别在嵌入式平台上和高性能笔记本上对算法进行部署和测试。2 个平台的硬件参

28、数如表 2 所示。可以看出,嵌入式平台的处理器和显卡均大幅弱于高性能笔记本。表 2 测试平台硬件参数 测试平台 处理器型号 显卡型号 内存 容量/GB峰值功耗/W嵌入式平台 8 核ARMv8 512 CUDA核Volta 32 30 高性能 笔记本 8 核Intel i7-10870H 2560 CUDA核RTX2070 32 200 对 本 算 法 分 别 使 用 中 央 处 理 器(central processing unit,CPU)、使用 CPU/CUDA 组合加速、使用 CPU/CUDA/TensorRT 组合加速,部署在嵌入式平台和高性能笔记本上,统计每帧数据的平均耗时,结果如表

29、 3 所示。可以看出,尽管本算法在高性能笔记本上的表现优于嵌入式平台,但是功耗巨大,不适合自动驾驶场景下使用。对算法进行加速后,在嵌入式平台上能达到 36.7 毫秒/帧的性能,理论上可达到 27 帧/秒的目标定位 表 3 在不同平台上算法采用不同加速的每帧平均耗时 测试平台 处理每帧图像的平均耗时/ms CPU加速 的结果 CPU/CUDA 组合加速的 结果 CPU/CUDA/TensorRT组 合加速的结果 嵌入式平台 612.3 176.2 36.70 高性能笔记本 140.3 32.7 4.21 能力,说明本算法在算力受限的平台上也能实时地运行。在嵌入式平台上分别部署本文算法和文献20中

30、的算法进行对比实验,其中深度学习网络推导部分均使用 CUDA/TensorRT 组合加速。利用2.2 节中标注的数据,统计文献20中算法的目标定位精度和处理每帧数据的平均耗时,并与本文算法进行对比,结果如表 4 所示。可以看出,本文算法的方位角平均误差为 1.36,略优于文献20的 1.39,距离平均误差为 5.8 cm,与文献20的5.7 cm 相当。在实时性表现上,本文算法每帧平均耗时比文献20减少了 70.9%,这主要得益于本算法在融合图像目标区域和点云的过程中,剔除了大量的非目标冗余点云,大幅降低了计算量,从而提高了算法的处理效率,证明了本算法在低算力平台上保证目标定位精度的同时,也可

31、具备更好的实时性。表 4 算法定位误差和每帧平均耗时 算 法 方位角平均 误差/()距离平均 误差/cm 每帧平均耗时/ms 文献20方法 1.39 5.7 126.3 本文算法 1.36 5.8 36.7 3 结束语 本文设计了一种基于图像与激光点云融合的实时目标定位算法,通过对图像进行目标检测获取目标所在区域,然后将点云投影到图像平面并剔除目标区域外的点云以降低数据量,再通过DBSCAN 算法对点云进行聚类,从而提取目标真实点云以实现目标精准定位。实验结果表明,该算法对不同距离下目标的定位误差较小,且在目标之间出现遮挡时,能有效提高目标定位的准确性。同时,该算法在算力受限的低功耗嵌入式平台

32、上每秒可以处理 27 帧数据,具备较强的实时性,适合在自动驾驶感知中使用。但本算法在目标距离较远且点云较为稀疏时容易无法定位目标。未来可对融合方法进行优化,以更好地在该情况下进行目标定位。参考文献 1 甄先通,黄坚,王亮,等.自动驾驶汽车环境感知M.北京:清华大学出版社,2020:1-5.2 WANG Z,WU Y,NIU Q.Multi-sensor fusion in automated driving:a surveyEB/OL.2022-05-06.https:/ieeexplore.ieee.org/abstract/document/8943388.3 REDMON J,DIVVA

33、LA S,GIRSHICK R,et al.You only look once:unified,real-time object detectionEB/OL.第 2 期 崔善尧,等.图像与激光点云融合的实时目标定位算法 105 2022-05-06.http:/ REDMON J,FARHADI A.Yolo9000:better,faster,strongerEB/OL.2022-05-06.https:/arxiv.org/pdf/1612.08242.5 REDMON J,FARHADI A.Yolov3:an incremental improvementEB/OL.(2018-0

34、4-08)2022-05-06.https:/ BOCHKOVSKIY A,WANG C Y,LIAO H Y M.Yolov4:optimal speed and accuracy of object detectionEB/OL.(2020-04-23)2022-05-06.https:/arxiv.org/pdf/2004.10934.7 LIU W,ANGUELOV D,ERHAN D,et al.Ssd:single shot multibox detectorEB/OL.2022-05-06.https:/ GIRSHICK R,DONAHUE J,DARRELL T,et al.

35、Rich feature hierarchies for accurate object detection and semantic segmentationEB/OL.2022-05-06.https:/ieeexplore.ieee.org/document/6909475.9 GIRSHICK R.Fast r-cnnEB/OL.2022-05-06.http:/arxiv.org/pdf/1504.08083.pdf.10 REN S,HE K,GIRSHICK R,et al.Faster r-cnn:towards real-time object detection with

36、region proposal networksJ.IEEE Transactions on Pattern Analysis&Machine Intelligence,2017,39(6):1137-1149.11 LIN T Y,DOLLR P,GIRSHICK R,et al.Feature pyramid networks for object detectionEB/OL.2022-05-06.https:/arxiv.org/pdf/1612.03144v2.12 ZHOU Y,TUZEL O.Voxelnet:end-to-end learning for point cloud

37、 based 3d object detectionEB/OL.2022-05-06.https:/arxiv.org/pdf/1711.06396.13 LANG A H,VORA S,CAESAR H,et al.Pointpillars:fast encoders for object detection from point cloudsEB/OL.(2019-05-07)2022-05-06.https:/arxiv.org/pdf/1812.05784.14 SHI W,RAJKUMAR R.Point-gnn:graph neural network for 3d object

38、detection in a point cloudEB/OL.2022-05-06.https:/arxiv.org/pdf/2003.01251.15 SHI S,GUO C,JIANG L,et al.Pv-rcnn:point-voxel feature set abstraction for 3d object detectionEB/OL.(2021-04-09)2022-05-06.https:/arxiv.org/pdf/1912.13192.16 DENG J,SHI S,LI P,et al.Voxel r-cnn:towards high performance voxe

39、l-based 3d object detectionEB/OL.(2020-12-31)2022-05-06.https:/arxiv.org/pdf/2012.15712.17 ZHAO X,SUN P,XU Z,et al.Fusion of 3D lidar and camera data for object detection in autonomous vehicle applicationsJ.IEEE Sensors Journal,2020,20(9):4901-4913.18 李研芳,黄影平.基于激光雷达和相机融合的目标检测J.电子测量技术,2021,44(5):112-

40、117.19 胡远志,刘俊生,何佳,等.基于激光雷达点云与图像融合的车辆目标检测方法J.汽车安全与节能学报,2019,10(4):451-458.20 宫铭钱,冀杰,种一帆,等.基于激光雷达和视觉信息融合的车辆识别与跟踪J.汽车技术,2020(11):8-15.21 ZHANG Z.A flexible new technique for camera calibrationJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.22 CHENG J,GROSSMAN M,MCKERCHER T.Professional CUDA c programmingM.S.l.:John Wiley&Sons,2014:23-65.23 VANHOLDER H.Efficient inference with tensorrtEB/OL.2022-05-06.https:/on-

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      联系我们       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号  |  icp.png浙ICP备2021020529号-1 浙B2-2024(办理中)  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服