收藏 分销(赏)

基于Mask R-CNN倾斜影像筛选的建筑物三维模型高效重建方法.pdf

上传人:自信****多点 文档编号:1987500 上传时间:2024-05-13 格式:PDF 页数:7 大小:47.59MB
下载 相关 举报
基于Mask R-CNN倾斜影像筛选的建筑物三维模型高效重建方法.pdf_第1页
第1页 / 共7页
基于Mask R-CNN倾斜影像筛选的建筑物三维模型高效重建方法.pdf_第2页
第2页 / 共7页
基于Mask R-CNN倾斜影像筛选的建筑物三维模型高效重建方法.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、基于 Mask R-CNN 倾斜影像筛选的建筑物三维模型高效重建方法樊孝常,梁玉斌,杨阳,崔铁军(天津师范大学 地理与环境科学学院,天津 300387)摘要:为了解决村镇区域建筑实景三维建模效率低下的问题,提出一种基于影像筛选的三维模型重建方法.首先,利用网络开源的建筑检测数据集训练 Mask R-CNN 神经网络模型;其次,利用训练好的神经网络模型筛选包含建筑的倾斜影像;最后,使用下视影像和筛选的倾斜影像对研究区进行三维重建.本研究使用 Mask R-CNN 神经网络模型从 9 775 张无人机影像中自动筛选出 7 451 张包含建筑的影像.实验结果表明,基于影像筛选的增量式三维重建法比常规

2、方法节省了 49.4%的数据处理时间,其空三重投影均方根误差和密集重建结果与常规方法一致.关键词:无人机;倾斜摄影测量;Mask R-CNN 神经网络;影像筛选;运动结构恢复算法中图分类号:P231文献标志码:A文章编号:1671-1114(2023)05-0044-07收稿日期:2022-06-17基金项目:天津师范大学研究生科研创新资助项目(2022KYCX076Y);天津市研究生科研创新资助项目(2022SKYZ269).第一作者:樊孝常(1998),男,硕士研究生.通信作者:梁玉斌(1983),男,讲师,主要从事无人机摄影测量与三维激光扫描测量方面的研究.E-mail:.Efficie

3、nt 3D reconstruction of building models based on oblique imagefiltering using Mask R-CNN neural networkFAN Xiaochang,LIANG Yubin,YANG Yang,CUI Tiejun(College of Geographic and Environmental Sciences,Tianjin Normal University,Tianjin 300387,China)Abstract:To address the issue of low efficiency in the

4、 3D modeling of rural areas,a 3D model reconstruction method based onimagescreeningwasproposed.Tobegin,a MaskR-CNNneuralnetwork modelswastrained with the web忆sopen source buildinginspection dataset.The neural network model from the preceding phase was then used to filter the oblique images of the re

5、searchregionforimagescontainingbuildings.Finally,downviewimagesandfilteredobliqueimageswere usedtomodel the study area.7451imageswerefilteredfrom9775UAVimagestoparticipatein3DreconstructionbyMaskR-CNNneuralnetworkmodel.Theexperimentalresultsshowedthatthe proposedmethodsaves49.4%ofdataprocessingtimec

6、omparedwiththetraditionalmethod.The root mean square errorof the aerial triangulation reprojection result and dense reconstruction results of this research methodwereconsistentwithconventionalmethods.Keywords:unmanned aerial vehicle(UAV);oblique photogrammetry;Mask R-CNN neural network;image filteri

7、ng;stru-cture from motion(SFM)第 43 卷第 5 期2023 年 9 月天 津 师 范 大 学 学 报(自 然 科 学 版)Journal of Tianjin Normal University(Natural Science Edition)Vol.43 No.5Sep.2023doi:10.19638/j.issn1671-1114.20230507建筑物三维模型在城市规划、灾害分析和应急响应等领域具有广泛应用.常见的三维建模方式主要包括三维建模软件手工建模、三维激光扫描点云建模和摄影测量技术建模.手工建模需要研究人员基于点线面进行模型构建,建模过程耗时耗力

8、;而激光扫描建模设备昂贵,数据采集过程复杂1.随着无人机(unmanned aerial vehicle,UAV)技术的快速发展,其成本低、时效高、响应迅速的优势日益显现2-3.无人机数据在各领域的应用越来越广泛4-5.运动结构恢复算法(structure from motion,SFM)和多视图立体匹配算法(multi view stereo,MVS)的不断完善,使基于无人机影像的摄影测量技术能够更好地实现实景三维模型的重建6-7.无人机影像构建的实景三维模型在施工场地土方测量和公路边坡灾害识别等各个方面都有较强的实用性8.建筑物是三维模型的重要组成部分,倾斜影像增加了建筑物的立面纹理结构信

9、息,逐渐成为建筑实景三维建模的主要数据来源9-10.然而,与常规航空影像相比,倾斜影像显著增加了摄影第 43 卷第 5 期测量数据处理的复杂性,如何高效准确地构建建筑物三维模型成为摄影测量的研究热点11-13.李大军等14应用 Mask R-CNN 神经网络识别无人机影像中的建筑目标,发现它比传统航空影像的建筑识别更加高效与智能.陈丽君15改良传统 MaskR-CNN 算法,增加了训练模型的稳健性,提高了识别建筑影像的准确率.邵振峰16提出了一种基于航空立体像对的人工目标三维提取与重建方法,研究开发了一体化立体影像平台,通过平台实现了部分复杂建筑目标的三维提取与重建.传统倾斜摄影测量实景三维建

10、模方法利用全部影像进行建模,普遍适用于建筑密度高的城市区域,但对于建筑密度较低的村镇区域来说,该方法未能充分利用照片内含的语义信息,引入了大量非建筑区域的非必要同名点,降低了三维重建的效率.因此,本研究将深度学习技术与摄影测量技术结合,在图像匹配之前筛选包含建筑的影像,在不损失建筑物模型信息和精度的前提下,提高建筑物三维建模的效率.1研究方法本研究将深度学习技术与摄影测量技术相结合,首先利用深度学习技术构建并训练 Mask R-CNN 神经网络模型,使用该模型剔除倾斜影像中不包含建筑的影像,然后将筛选出的影像与下视影像结合,组成参与建模的影像集.利用摄影测量技术进行建模,研究出一种不降低最终建

11、模精度且有效减少模型构建时间的方法.本研究过程主要包括 6 个部分,分别为数据获取、数据准备、Mask R-CNN 神经网络模型的构建及训练、含建筑影像筛选、三维重建和对比评估,具体技术流程如图 1 所示.1.1影像筛选Mask R-CNN 神经网络结构识别建筑目标的流程主要包括 4 个部分:淤 特征提取,将影像输入 CNN 网络提取特征;于 获得建议框,通过区域生成网络得到影像目标的可能位置,用矩形建议框标记;盂 分类和回归,利用感兴趣对齐层对建议框微调,得到较为准确的目标位置及大小;榆 像素分割,以像素级形式分割 ROI,并按类别划分其像素,具体流程如图 2 所示.1.2摄影测量三维重建根

12、据构建方式的不同,将 SFM 分为增量式 SFM与全局 SFM.增量式 SFM 在三维重建过程中能够逐渐增加参与迭代计算的影像数量,直至所有影像都参与模型的构建.为使三维重建更具稳健性,本研究采用增量式 SFM 构建方法.首先对研究区进行影像识别,获取输入影像包含的内参数信息;然后进行特征提取与构建图像对.使用尺度不变特征变换算法(scale-invariantfeature transform,SIFT)及其改进算法进行特征提取,增强匹配的稳健性.本研究在特征匹配之前,根据POS 信息将影像两两生成匹配对,控制影像匹配的数量;之后进行特征匹配,按照生成的影像匹配对逐个进行匹配.影像匹配结束后

13、,利用 RANSAC 算法剔除误匹配的特征点,得到可靠的匹配点.在上述过程的基础上进行增量式重建,得到优化后的影像参数及初始的空间点;最后进行三维点上色与重新三角化,根据对应影像位置的颜色对三维点进行上色处理,得到三维稀疏点云模型.2实验与分析本研究的数据处理过程均在 Dell Precision Tower7810 工作站中完成,工作站操作系统为 Windows 10专业工作站版,处理器为 Intel Xeon E5-2630,内存为128 GB,同时配有 NVIDIA Quadro M4000 的显卡.使用图 1技术流程图Fig.1Technical scheme倾斜摄影测量数据获取POS

14、 数据下视影像集合倾斜影像集合预处理测量坐标系下的 POS 数据近邻计算影像匹配对相机检校参数同名点集合测区稀疏点云模型照片内外方位元素增量式 SFM 三维重建核线约束的特征点稳健匹配特征点及特征描述集合包含建筑的倾斜影像初始 Mask R-CNN神经网络模型训练用于影像筛选的神经网络模型特征点提取神经网络模型训练图 2Mask R-CNN 建筑目标检测流程图Fig.2Flowchart of Mask R-CNN detection影像特征图ROI 对齐层全连接层类型边框目标分割建议框1伊1 卷积1伊1 卷积3伊3 卷积主干提取网络区域生成樊孝常,等:基于 Mask R-CNN 倾斜影像筛选

15、的建筑物三维模型高效重建方法45窑窑天 津 师 范 大 学 学 报(自 然 科 学 版)2023 年 9 月Python3.6、CUDA9.0、cuDNN7.0.5、TensorFlow-GPU1.9.0和 Keras2.16 进行实验环境的搭建.2.1研究区概况与数据说明研究区位于广西省来宾市武宣县(23毅37忆9义N23毅39忆26义N,109毅39忆24义E109毅42忆27义E),东西长约为5.7 km,南北宽约为 4.7 km,总面积约为 9.1 km2.研究区是平坦的乡村区域,主要包含大片的农作物种植区、零散分布的村落、道路、裸地、树林和水塘等.研究区卫星影像信息如图 3 所示.2

16、018 年秋季,使用垂直起降的固定翼无人机搭载倾斜摄影系统采集影像数据.研究区每个镜头均拍摄 1 955 张影像,5 个镜头共获得 9 775 张影像.摄像机 15 号镜头分别对应无人机飞行方向的后、前、右、左、下 5 个方向.无人机同时搭载有 GPS/INS 组合系统,能够准确获取航测时曝光点位的 POS 数据.POS数据包含 2 部分内容:一部分记录每个曝光点位的绝对位置;另一部分记录无人机在每个曝光点位相对于导航坐标系的飞行姿态,即每个曝光时刻该无人机的侧滚角 渍、俯仰角 棕、偏航角 资.无人机影像在研究区的 POS 分布如图 4 所示.由图 4 可以看出,影像的曝光点位均匀分布于研究区

17、内,无人机每条航线间相互平行.本研究首先用 CrowdAI 官方提供的用于 MapChallenge 比赛的数据集(数据集 1)进行预训练17,该数据集包含了针对建筑物的大量人工标注完善的卫星影像瓦片,将这些数据用于神经网络的预训练,可使模型从卫星影像中初步识别包含建筑的区域.数据集 1 共包括训练集、验证集和测试集 3 个部分.训练集部分标注了 280 741 张影像瓦片,验证集部分标注了60 317张影像瓦片,测试集没有标注.卫星图像标注示例如图 5 所示.不同于数据集 1 的影像区域,研究区内不仅建筑分布分散,地表还增加了许多绿色植被,需要人工标注出具有研究区特色的数据集(数据集 2),

18、进一步训练神经网络模型.数据集 2 是对无人机下视影像进行人工标注后获得的瓦片数据,包括 2 306 张训练集瓦片,600 张验证集瓦片.无人机影像数据标注示例如图 6 所示.2.2建筑实例分割2.2.1神经网络模型的训练数据集 1 含有大量建筑密集的影像瓦片,故使用数据集 1 进行模型的预训练.预训练共包括 160 轮,每轮训练 1 000 步.预训练过程训练集及验证集的损失分布如图 7 所示.图 3研究区卫星影像图Fig.3Satellite image map of the studied area109毅39忆0义E109毅40忆0义E109毅41忆0义E109毅42忆0义E109毅4

19、3忆0义E109毅39忆0义E109毅40忆0义E109毅41忆0义E109毅42忆0义E109毅43忆0义E02km1研究区域图 4研究区 POS 分布图Fig.4POS distribution map of the studied area109毅39忆0义E109毅40忆0义E109毅41忆0义E109毅42忆0义E109毅43忆0义E109毅39忆0义E109毅40忆0义E109毅41忆0义E02km1研究区域图 5卫星图像数据标注示例Fig.5Example of satellite image annotation曝光点位N109毅42忆0义E109毅43忆0义E46窑窑第 43

20、 卷第 5 期由图 7 可以看出,模型训练在 065 轮之间损失值逐渐降低,准确度逐渐提升;而 65 轮之后的训练由于训练次数过多,出现模型过拟合的现象.其中,在第62 轮时取得最低验证集损失值,将第 62 轮得到的权重文件作为预训练部分的结果.使用数据集 2 进行模型的精准训练,将预训练获得的权重文件作为训练的初始权重文件,在此基础上进行 29 轮训练,每轮训练 100 步.精准训练过程训练集及验证集的损失分布如图 8 所示.由图 8 可以看出,模型在第 24 轮时取得最低验证集损失值,将第 24轮得到的权重文件作为精准训练部分的结果.Mask R-CNN 神经网络预测模型的最终训练集损失值

21、为0.683,验证集损失值为 1.033.2.2.2影像筛选将倾斜影像剪切成能够输入神经网络尺寸(300 伊300 像素)的瓦片,利用 Mask R-CNN 神经网络预测模型对倾斜影像进行筛选.为保证最终模型的完整性,该步骤只对后、前、右、左 4 个方向镜头的影像做筛选,下视影像全部保留参与重建.每个镜头筛选影像用时分别为 47.02、47.03、46.42 和 48.25 min,均在47 min 上下波动;每个镜头筛选出包含建筑的影像的数量分别为 1 359、1 367、1 361 和 1 409 张,共 7 451张无人机影像用于研究区三维模型的构建.图 9 为 2 组单幅影像神经网络建

22、筑识别的效果展示.由图 9 可以看出,神经网络识别出的建筑分布与影像中实际建筑分布情况基本一致,神经网络的建筑检测结果符合影像的真实情况.图 6无人机影像数据标注示例Fig.6Example of UAV image data annotation(a)训练集1.601.200.800.400训练轮数/轮1604060120(b)验证集1.501.301.100.900.700训练轮数/轮1604060120图 7预训练损失分布图Fig.7Distribution of pretraining loss(a)训练集1.301.100.900.700训练轮数/轮2551520(b)验证集1.26

23、1.221.181.141.101.061.02训练轮数/轮图 8精准训练损失分布图Fig.8Distribution of precision training loss10025515201078樊孝常,等:基于 Mask R-CNN 倾斜影像筛选的建筑物三维模型高效重建方法47窑窑天 津 师 范 大 学 学 报(自 然 科 学 版)2023 年 9 月2.3方法对比常规三维重建过程不做地物类型区分,将全部影像作为输入数据进行整体三维重建;而基于本研究方法的三维重建过程则利用神经网络筛选的倾斜影像和全部下视影像对研究区进行三维重建.2 种重建方法都通过 OpenMVG18和增量式 SFM

24、分别进行图像匹配和三维重建.对比 2 种方法的效率与精度,结果如表 1 所示.由表 1 可知,从建模精度来看,常规三维重建方法和本研究方法的均方根误差分别为 0.68 像素和0.69 像素,基本一致;从建模时间来看,常规方法总共耗时 24.33 h,而本研究方法总共耗时 12.31 h,节省了49.4%的数据处理时间.2 种三维重建方法生成的稀疏点云图如图 10 所示.从图中可以看出,与常规方法相比,本研究方法的点云数量在研究区边缘区域较为稀疏,在建筑分布区域无明显差异.2 种方法建模对应的重投影误差统计分布直方图如图 11 所示.由图 11 可知,2 种建模方法的重投影误差频率分布较为相似,

25、大部分像点重投影误差都集中在 1 个像素以内,误差较小.从像点数目来看,常规方法建模的像点数比本研究方法建模的像点数多了约 703 000 个,本图 9建筑检测结果示例Fig.9Example of Building inspection results(a)输入影像 1(b)识别结果 1(c)输入影像 2(d)识别结果 2表 1三维重建时间及精度统计表Tab.1Statistics of 3D reconstruction time and accuracy重建方法影像筛选时间/h全自动空三时间/h总时间/h均方根误差/像素常规方法24.3324.330.68本研究方法3.1409.1712

26、.310.69(a)本研究方法(b)常规方法图 10稀疏点云重建结果Fig.10Sparse point cloud reconstruction results(a)本研究方法1 877 4974.00误差/pix(b)常规方法2 580 76604.00误差/pix图 11重投影误差统计分布直方图Fig.11Statistical distribution histogram of reprojection error1 200 000600 0001 720 000860 0001.002.003.0001.002.003.0048窑窑第 43 卷第 5 期研究方法的像点数在地表建筑较为

27、密集的区域比较集中,其他区域较为分散;常规方法建模会在全区域生成像点,像点数比本研究方法多较为合理.在常规方法和本研究方法稀疏重建的基础上,进一步对研究区域内某一建筑密集区进行密集点云重建,重建结果如图 12 所示.使用开源软件 Cloud Compare 计算对应密集点之间的距离.先将 2 种建模方法生成的每栋建筑的密集点云进行对齐处理,使用该软件的 M3C2(multiscalemodel to model cloud comparison)插件计算 2 个密集点云之间的对应点距离.选定的 5 栋建筑对应密集点之间距离的统计结果如表 2 所示.由表 2 可以看出,5 栋建筑对应密集点的标准

28、差均在 0.040.06 m 范围内,对应到影像上为 0.570.86 个像素.建筑 1、4 和 5 对应密集点的最大距离略大,主要集中在窗户和遮挡严重的区域,这些区域的密集匹配稳定性较差.建筑 2 和 3 的对应密集点最大距离均小于 1 m.建筑密集点云和 2 种方法生成密集点的对应距离如图 13 所示.由图 13可以看出,对应密集点之间的距离在窗户和不易观测的墙体角落等区域较大,大部分对应密集点的距离都在厘米尺度,本研究方法与常规方法生成的密集点云结果基本一致.图 13建筑密集点云及 2 种方法生成的对应密集点间的距离Fig.13Building dense point cloud and

29、 the distance between corresponding dense points generated by two methods图 12用于密集点云对比的建筑Fig.12Comparison of buildings selected for dense cloudcomparison建筑 1建筑 2建筑 3建筑 4建筑 5(a)建筑 1(b)建筑 2(c)建筑 3(d)建筑 4(e)建筑 53结论为了减少建模时间与计算量,提升影像建模的效率,本研究提出了一种使用深度学习技术对影像进行筛选的方法,并将该方法用于影像三维重建,与常规方法做对比,得到以下结论:(1)本研究方法在建

30、模之前使用神经网络模型对村镇区域的建筑影像进行筛选,减少了影像的数量,比常规方法建模节省了 49.4%的时间,提升了建模效率.(2)筛选包含建筑的影像并未减少建筑相关影像之间的匹配.从建模的重投影误差来看,常规方法的均方根误差为 0.68 像素,本研究方法的均方根误差为0.69 像素,两者基本一致.从 2 种方法生成的点云模型对比来看,2 种方法大部分对应密集点之间的距离均在厘米尺度.本研究方法与常规方法在建模精度上基本一致,表明减少非建筑图像数量不会降低三维重建的精度.综上所述,本研究方法构建的影像模型的精度与常规方法相差不大,但大大减少了影像建模的时间,提高了效率,实验结果达到预期效果,这

31、为特定地区(f)对应点距 1(g)对应点距 2(h)对应点距 3(i)对应点距 4(j)对应点距 5樊孝常,等:基于 Mask R-CNN 倾斜影像筛选的建筑物三维模型高效重建方法表 2常规方法与本研究方法生成密集点之间的距离Tab.2Statistics of distances between dense points generatedbased on the conventional method and the proposedmethod建筑编号平均距离/m最大距离/m标准差/m标准差/像素建筑 10.051.110.060.86建筑 20.050.990.050.71建筑 30.

32、060.510.040.57建筑 40.071.080.060.86建筑 50.061.030.050.71距离/m1.0720.5370.002距离/m0.9610.5410.003距离/m0.5340.3180.002距离/m0.6280.002距离/m0.9960.5930.0031.05649窑窑天 津 师 范 大 学 学 报(自 然 科 学 版)2023 年 9 月的三维建模任务提供了一种效率高、计算量少、成本低的可行方法.参考文献:1张龙.基于多幅图像的建筑物三维建模D.合肥:中国科学技术大学,2015.ZHANG L.3D Architectural Modeling from

33、Multiple ImagesD.Hefei:University of Science and Technology of China,2015(in Chinese).2李德仁,李明.无人机遥感系统的研究进展与应用前景J.武汉大学学报(信息科学版),2014,39(5):505-513.LI D R,LI M.Research advance and application prospect of unmannedaerial vehicle remote sensing systemJ.Geomatics and InformationScience of Wuhan Universit

34、y,2014,39(5):505-513(in Chinese).3晏磊,廖小罕,周成虎,等.中国无人机遥感技术突破与产业发展综述J.地球信息科学学报,2019,21(4):475-495.YAN L,LIAO X H,ZHOU C H,et al.The impact of UAV remotesensing technology on the industrial development of China:A reviewJ.Journal of Geo-Information Science,2019,21(4):475-495(in Chi-nese).4余加勇,李锋,薛现凯,等.基于

35、无人机及 Mask R-CNN 的桥梁结构裂缝智能识别J.中国公路学报,2021,34(12):80-90.YU J Y,LI F,XUE X K,et al.Intelligent identification of bridgestructural cracks based on unmanned aerial vehicle and Mask R-CNNJ.China Journal of Highway and Transport,2021,34(12):80-90(inChinese).5冯晨阳,梁玉斌,张虎,等.无人机多光谱影像的几何与辐射校正J.天津师范大学学报(自然科学版),2

36、021,41(2):65-73.FENG C Y,LIANG Y B,ZHANG H,et al.Geometric and radiometriccorrections of UAV multispectral imagesJ.Journal of Tianjin NormalUniversity(Natural Science Edition),2021,41(2):65-73(in Chi-nese).6JIANG S,JIANG C,JIANG W S.Efficient structure from motion forlarge-scale UAV images:A review

37、and a comparison of SfM toolsJ.ISPRS Journal of Photogrammetry and Remote Sensing,2020,167:230-251.7于大鹏,梁玉斌,冯晨阳,等.模拟地形辅助的无人机倾斜摄影测量图像匹配J.天津师范大学学报(自然科学版),2020,40(4):64-70.YU D P,LIANG Y B,FENG C Y,et al.Image matching for UAVoblique photogrammetry assistant by simulated terrainJ.Journal ofTianjin Norm

38、al University(Natural Science Edition),2020,40(4):64-70(in Chinese).8余加勇,薛现凯,陈昌富,等.基于无人机倾斜摄影的公路边坡三维重建与灾害识别方法J.中国公路学报,2022,35(4):77-86.YU J Y,XUE X K,CHEN C F,et al.Three-dimensional reconstruc-tion and disaster identification of highway slope using unmanned aerialvehicle-based oblique photography te

39、chniqueJ.China Journal of Hig-hway and Transport,2022,35(4):77-86(in Chinese).9REMONDINO F,GERKE M.Oblique aerial imagery-A reviewC/Pho-togrammetric Week 2015,Stuttgart,Germany,2015,75-83.10 李德仁,肖雄武,郭丙轩,等.倾斜影像自动空三及其在城市真三维模型重建中的应用J.武汉大学学报(信息科学版),2016,41(6):711-721.LI D R,XIAO X W,GUO B X,et al.Obliqu

40、e image based automaticaerotriangulation and its application in 3D city model reconstructionJ.Geomatics and Information Science of Wuhan University,2016,41(6):711-721(in Chinese).11 梁玉斌,崔铁军.倾斜摄影测量的研究进展J.天津师范大学学报(自然科学版),2017,37(5):1-6.LIANG Y B,CUI T J.Research progress of oblique photogrammetryJ.Jou

41、rnal of Tianjin Normal University(Natural Science Edition),2017,37(5):1-6(in Chinese).12 王涛,闰利,徐莹.加入光学畸变差改正的二维直接线性变换方法用于建筑立面测绘的研究J.测绘通报,2012(10):8-11.WANG T,RUN L,XU Y.Research on architecture profile surveyingbased on two-dimensional direct linear transformation with optical dis-tortion correctionJ

42、.Bulletin of Surveying and Mapping,2012(10):8-11(in Chinese).13 潘文斌,刘坡,周洁萍,等.基于房屋轮廓与纹理的三维建筑模型分层次聚类研究J.地球信息科学学报,2016,18(3):406-415.PAN W B,LIU P,ZHOU J P,et al.3D building model hierarchicalgeneralization based on building contour and textureJ.Journal of Geo-Information Science,2016,18(3):406-415(in

43、Chinese).14 李大军,何维龙,郭丙轩,等.基于 Mask-RCNN 的建筑物目标检测算法J.测绘科学,2019,44(10):172-180.LI D J,HE W L,GUO B X,et al.Building target detection algorithmbased on Mask-RCNNJ.Science of Surveying and Mapping,2019,44(10):172-180(in Chinese).15 陈丽君.基于改进 Mask-RCNN 算法的无人机遥感影像建筑物自动识别方法D.锦州:渤海大学,2021.CHEN L J.Automatic B

44、uilding Identification Method Based on Impro-ved Mask-RCNNAlgorithmin UAVRemoteSensingImagesD.Jinzhou:Bohai University,2021(in Chinese).16 邵振峰.基于航空立体影像对的人工目标三维提取与重建D.武汉:武汉大学,2004.SHAO Z F.3D Extraction and Reconstruction of Artificial Target Basedon Aerial Stereo Image PairsD.Wuhan:Wuhan University,

45、2004(inChinese).17 MOHANTY S P,CZAKON J,KACZMAREK K A,et al.Deep learningfor understanding satellite imagery:An experimental surveyJ.Fronti-ers in Artificial Intelligence,2020,3:534696.18 史传飞,张丽艳,严俊,等.面向大型装备的工业摄影测量技术及实现J.航空制造技术,2018,61(19):24-30.SHI C F,ZHANG L Y,YAN J,et al.Industrial photogrammetrytechnology and its implementation for large-scale equipmentJ.Aerona-utical Manufacturing Technology,2018,61(19):24-30(in Chinese).(责任编辑李晶)50窑窑

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服