收藏 分销(赏)

基于多角度图像的建筑物三维重建 (1).pdf

上传人:自信****多点 文档编号:576013 上传时间:2024-01-02 格式:PDF 页数:5 大小:4.75MB
下载 相关 举报
基于多角度图像的建筑物三维重建 (1).pdf_第1页
第1页 / 共5页
基于多角度图像的建筑物三维重建 (1).pdf_第2页
第2页 / 共5页
基于多角度图像的建筑物三维重建 (1).pdf_第3页
第3页 / 共5页
亲,该文档总共5页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、 第4 1卷 第4期 佳 木 斯 大 学 学 报(自 然 科 学 版)V o l.4 1N o.4 2 0 2 3 年0 7月 J o u r n a l o f J i a m u s iU n i v e r s i t y(N a t u r a lS c i e n c eE d i t i o n)J u l y 2 0 2 3文章编号:1 0 0 8-1 4 0 2(2 0 2 3)0 4-0 0 1 2-0 4基于多角度图像的建筑物三维重建李 雪1,朱明荣2(1.哈尔滨工程大学信息与通信工程学院,黑龙江 哈尔滨1 5 0 0 0 1;2.中国船舶集团有限公司第八研究院,江苏 扬州

2、2 2 5 1 0 1)摘 要:如今,建筑物的三维重建不仅是一个概念,在遥感领域、城市建设发挥着不可替代的作用。因为传统重建方法对场景的低纹理、高光和反射区域使密集匹配变得困难,导致不完整的重建。针对上述问题,提出了一个自适应聚合的递归多视图立体网络。该网络具有两个自适应聚合模块。一是视图内聚合模块,用于鲁棒的特征提取,其中上下文感知特征自适应地聚合到具有不同纹理丰富度的多个尺度和区域。一是视图间聚合模块,用于多视图代价体聚合,其通过在良好匹配的视图对上分配更高的权重来克服复杂场景中不同遮挡的困难。利用D T U数据集对提出的框架进行实验,与现有方法相比,该框架能够获得更准确的深度图,生成更密

3、集和完整的点云。关键词:建筑物;三维重建;深度图估计;多视图立体中图分类号:T P 4 2 0.2 0 文献标识码:A0 引 言随着人工智能和深度学习等方法的飞速发展,基于多视图的三维重建技术在建筑物三维重建1方面也越来越受到广泛的关注。经典的三维重建方法通过使用深度传感设备,可以从多个视角获取物体具有深度信息的图像,以便恢复其原始的三维结构。然而,由于扫描重建对象的所有表面,并不总是可行的,有可能重建的三维结构会出现塌陷、空洞等问题,并且在处理多视角图像时需要消耗更多的计算资源。同时和传统的立体像对相比,多角度图像在获取比较丰富更为全面的建筑物目标信息的同时,也减少了因为传感器姿态角度和位置

4、而造成的对拍摄区域产生的遮挡问题。因此,研究如何利用遥感资源,实现高效、更加精细、快速地基于图像的建筑物三维重建,还原建筑物区域的形貌和三维结构等信息,对于社会及学界都有着极为重要的价值。重要的研究价值与应用意义。多视图立体(MV S)2旨在从多幅图像中获取真实世界场景的三维密集模型,因为传统的MV S方法在没有足够的纹理和光照条件发生剧烈变化的场景中,会出现错误匹配的情况,因此,基于深度学习的MV S算法3应运而生,其精确度比传统方法有一定的提升,在引入多尺度信息以改进深度估计4,然而,对于不同区域上纹理的不同丰富程度,如在薄物体和低纹理表面等挑战性区域,上下文感知的特征还没有得到很好的利用

5、。并且在多视图匹配代价聚合的过程中,很少有研究关注像素级的可见性,这将导致重建结果的质量大幅度降低,特别是在受到严重遮挡的情况下。然而,在一般情况下很难对遮挡问题给出一个完美的解决方案。鉴于建筑物三维重建的广泛应用前景,针对多角度图像中的建筑物场景,研究提高重建的质量,在完整度和整体的准确度方面,仍有一些具有挑战性的问题有待解决。为了解决上述问题,提出了一种新的框架,自适应聚合的递归多视图立体网络,整体架构由4个阶段组成,视图内模块旨在为聚合多个尺度和具有不丰富纹理的区域的上下文感知特征5。视图间模块通过为每个视图生成像素级注意力图来自适应地聚合不同视图的代价体。采用R NN-C NN混合网络

6、以逐片递归的方式对代价体进行正则化。最后,采用交叉熵进行像素级分类,计算反向传播的损失。该网络框架能够获得准确和完整的高质量密集点云。并且能够实现高分辨率重建和更精细的假设平面扫描。对所提出的网络经过端到端训练,并在D T U数据集上测试取得了优异的性能。收稿日期:2 0 2 3-0 5-0 5基金项目:国家自然基金面上项目(6 2 0 7 1 1 3 6)。作者简介:李雪(1 9 9 6-),女,黑龙江哈尔滨人,硕士,研究方向:遥感图像处理等。第4期李 雪,等:基于多角度图像的建筑物三维重建1 方 法提出的方法整体架构分为4个阶段,如图1所示。首先输入图像分为1个参考图像和N-1个源图像。通

7、过具有共享权重的编码器提取所有N幅图像的图像特征(HWF),然后将源图像的特征扭曲到参考相机平截头体上,通过可微单应性来构建6三维代价体(HWDF)。通过正则化代价体,可以获得概率体HWD,从而生成深度图的预测。此外再通过过滤和融合所有图像的特征图,从而得到场景的密集点云7。图1 网络整体架构1.1 视图内特征聚合模块三维重建中使用普通C NN提取特征时,由于使用固定的2 D网格感受野,经常会在反射表面、低纹理或无纹理区域出现问题,对于那些通常缺乏纹理的具有挑战性的区域,期望卷积的感受野更大,而较小的感受野更适合纹理丰富的区域。为了在不同纹理丰富度的区域采样使用不同尺度的特征,因此设计视图内自

8、适应聚合模块。图2 视图内模块结构图视图内模块结构如图2所示,所有卷积核均为33。编码器处的特征通道(白色)为8,1 6,1 6,1 6,1 6。多尺度特征图被分别送入三个不共享参数的可变形卷积中。通过双线性插值和拼接,建立一个HW(1 6+8+8)的特征图。在视图内模块中,3个不同空间尺度的特征图,其大小分别为HW1 6,H2W21 6和H4W41 6,通过3个具有唯一参数的单一步可变形卷积进行处理。上述过程通过公式表述为式(1)。f(p)=kwkf(p+pk+pk)mk(1)其中:f(p)表示像素点p的特征;wk和pk表示在普通卷积层中定义的卷积核参数和固定偏移量;pk和 mk是由可变形卷

9、积层的可学习子网络自适应产生的偏移量和调整权重。通过将较小的特征图插值到HW,获得了3个分别具有1 6,8,8通道的特征图,并将这些特征拼起来构建HW3 2的特征图。1.2 视图间代价体聚合模块构建了每个视图的代价体之后,下一步是将所有代价体聚合成一个以进行正则化。一种常见的做法是平均N-1个代价体,其基本原则是所有视图都应该具有同等的重要性。然而,这是不够合理的,因为不同的拍摄角度可能会导致诸如遮挡和非朗伯曲面的不同光照条件等问题,从而使深度估计8更加困难。因此设计一个视图间自适应聚合模块来处理不可靠的匹配代价,定义如式(2)所示:Cd =1N-1N-1i=11+cd i Cd i(2)?表

10、示哈达玛积,是根据每视图的代价体自适应生成的逐像素级注意力图。通过这种方式,那些可能会混淆匹配的像素将被抑制,而具有关键上下 文 信 息 的 像 素 将 被 分 配 更 大 的 权 重。1+比单独使用 更好地避免过度的平滑化。首先,视图间模块结构如图3所示,对于HW3 2的输入代价体,以下中间通道数为4,4,4,1。通过HW1注意力图重新加权后,所有代价体相加并除以N-1。1.3 循环代价体正则化通过使用空间上下文信息,可以将匹配的代价31佳 木 斯 大 学 学 报(自 然 科 学 版)2 0 2 3年转换为D深 度 假 设 平 面 上 的 概 率 分 布。采 用R NN-C NN混合方式来进

11、行正则化,其中代价体(HWD3 2)在D维度上被切片。正则化网络中的特征传递具有水平方向和垂直方向。在水平方向上,3D代价体的每个切片都由一个具有编码器-解码器架构的C NN进行正则化;在垂直方向上,有5个并行的R NN将前一个C o n v L S TM-C e l l s的中间输出传递给后一个。通过这样的混合网络,既实现了空间上下文和深度方向上的信息聚合与正则化,同时减少了内存消耗。图3 视图间模块结构图1.4 损失函数由于代价体正则化将匹配代价转化为深度假设的逐像素概率分布,因此深度估计的任务现在类似于逐像素分类问题。因此,通过对g r o u n dt r u t h进行o n e-h

12、 o t模式编码,采用交叉熵来计算训练损失,定义如式(3)所示:L=ppv dD-1d=do-G(d)(p)l o gp(d)(p)(3)式(3)中,Gd p 和Pd p 表示像素p处深度假设d的地面真实概率和预测概率。pv 是具有可靠深度的有效像素集合。2 实 验利用D TU数据集的三维重建实验来验证所提方法的重建结果效果。比较2种典型重建方法与本文方法在重建完整性与准确性的性能对比,以验证所提框架的可行性。2.1 实验数据集为了训练和评估网络框架,使用三种不同类型的数据集:一种是专为MV S拍摄的室内D TU数据集,另一种是复杂的室外场景T a n k sa n dT e m-p l e

13、s数据集,还有一种是航拍大规模场景B l e n d e d-MV S数据集9。D TU数据集通过使用结构光扫描仪,在一个受控的实验室环境中,以1 2 8个场景为基础,在7种不同的照明条件下,在相同的4 9或6 4个相机位置扫描每个场景,以获得分辨率达到1 2 0 0*1 6 0 0像素的R G B图像。通过设置每幅图像作为参考,总共有2 7 0 9 7个训练样本。2.2 实验环境与网络参数实验信息如下:在U b u n t u 1 8.0 4系统,使用显卡为NV I D I A G e f o r c eR T X3 0 9 0F o u n d e r sE d i-t i o n(2 4

14、 G B),C P U为I n t e lX e o nS i l v e r4 2 1 0 R(2.4 0 GH z)。在训练阶段,采用7 9个不同场景组成的D TU训练集,将原始图像的大小调整为W H=1 6 01 2 8,输入图像的数量被设定为N=7,深度假设被设定为D=1 9 2,其从4 2 5mm到9 3 5mm被均匀采样。使用P y T o r c h实现,并使用A d a m优化器对提出的网络进行端到端训练,学习率设为0.0 0 1,训练1 0个e p o c h,每周期(e p o c h)衰减0.9,b a t c hs i z e为2,整个训练阶段需要2 0.1 6 G B

15、内存。在测试阶段,输入视图的个数设为N=7,然后以逆深度方式1 0设置深度平面假设D=5 1 2,可以获得具有更精细细节的深度图。使用8 0 0*6 0 0分辨率的输入图像进行D TU评估。2.3 评价指标为了评估本文方法重建结果的质量,在D TU数据集中,评价指标是准确度(A c c u a r y)、完整度(C o m p l e t e n e s s)以及平均分(O v e r a l l)。其中准确度计算的是预测点云到真实点云之间的平均距离,完整度计算的是真实点云到预测点云之间的平均距离,平均分是取准确度指标与完整度指标的平均值。2.4 重建结果及对比实验分析为评估所提出方法重建模型

16、的质量,分别与MV S N e t和R-MV S N e t两种方法在D TU数据集进行了重建完整性和准确性的对比实验。具体实验内容如下:对D TU数据集中s c a n 1 5进行重建点云的比较。最上面一行结果是本文方法与两个对比方法生成的点云和地面真相点云。第二行与第三行是生成的重建点云局部区域放大的细节描述结果。根据图4所示,从重建点云的结果比较来看,与这两个方法相比,提出的方法能够在无纹理区域生成更密集、更完整的点云,对于边缘细节部分也恢复的更好。又将D TU数据集s c a n 2 4进行重建点云的对比测试,重建的点云结果如图5所示。41第4期李 雪,等:基于多角度图像的建筑物三维重

17、建图4 s c a n 1 5重建点云结果对比图 图5 s c a n 2 4重建点云结果对比图 从图5中可以看出,MV S N e t方法重建房屋墙面右侧的明显缺失,R-MV S N e t重建结果房屋墙面的点云有稀疏漏洞也不是非常完整,重建的房屋墙面的点云在完整性和整体质量方面都优于对比方法。可以看到本文生成了更完整、细节更精细的点云。本文的方法在D TU数据集上使用点云的官方评估指标进行评估,定量结果如表1所示。表1 D TU的定量结果方法平均距离(mm)A c c u r a c yC o m p l e t e n e s sO v e r a l lMV S N e t0.3 9

18、60.5 2 70.4 6 2RMV S N e0.3 8 50.4 5 90.4 2 2本文0.3 2 70.2 6 50.2 9 63 结 论针对传统重建方法在没有足够的纹理和光照条件发生剧烈变化的场景中,出现错误匹配,导致不完整的重建的问题,提出了一个自适应聚合的递归多视图立体网络。该网络具有两个模块:视图内特征聚合模块和视图间代价体聚合模块。视图内特征聚合模块通过自适应地集成多尺度和上下文感知特征,有效地提高了薄物体和大型低纹理表面上的性能。视图间代价体聚合模块通过自适应像素级的视图聚合成功地处理了复杂场景中不同遮挡的问题。方法在D TU数据集上进行验证,生成了更完整和细节更精细的点云

19、。参考文献:1 李聪聪.多尺度建筑物图像的三维重建研究D.昆明:云南大学,2 0 1 8.2 赵琦.基于多视图像的大规模场景三维重建算法研究D.天津:天津大学,2 0 1 7.3 L u o,K e y a n g,T a oG u a n,L i l i J u,Y u e s o n gW a n g,Z h uC h e na n dY a w e iL u o.“A t t e n t i o n-Aw a r eM u l t i-V i e wS t e r e o.”2 0 2 0I E E E/C V FC o n f e r e n c e o nC o m p u t e

20、rV i s i o na n dP a t t e r nR e c o g n i t i o n(C V P R)(2 0 2 0):1 5 8 7-1 5 9 6.4 Y a n g,J i a y u,W e iM a o,J o s M a n u e l l v a r e za n dM i a o m i a oL i u.“C o s tV o l u m eP y r a m i dB a s e dD e p t h I n f e r e n c e f o rM u l t i-V i e wS t e r e o.”I E E ET r a n s a c t i

21、 o n so nP a t t e r nA n a l y s i s a n dM a c h i n e I n t e l l i g e n c e4 4(2 0 2 1):4 7 4 8-4 7 6 0.5 王江安,庞大为,黄乐,等.基于多尺度特征递归卷积的稠密点云重建网络J.图学学报,2 0 2 2,4 3(0 5):8 7 5-8 8 3.6 L u o,K e y a n g,T a oG u a n,L i l i J u,H a i p e n gH u a n ga n dY a-w e iL u o.“P-MV S N e t:L e a r n i n gP a

22、t c h-W i s e M a t c h i n gC o n f i d e n c e A g g r e g a t i o nf o r M u l t i-V i e w S t e r e o.”2 0 1 9I E E E/C V FI n t e r n a t i o n a lC o n f e r e n c e o n C o m p u t e r V i s i o n(I C C V)(2 0 1 9):1 0 4 5 1-1 0 4 6 0.7 X u,Q i n g s h a na n d W e n b i n gT a o.“M u l t i-S

23、 c a l eG e o m e t r i cC o n s i s t e n c yG u i d e dM u l t i-V i e wS t e r e o.”2 0 1 9I E E E/C V FC o n f e r e n c eo n C o m p u t e r V i s i o n a n d P a t t e r n R e c o g n i t i o n(C V P R)(2 0 1 9):5 4 7 8-5 4 8 7.8 G u,X i a o d o n g,Z h i w e n F a n,S i y u Z h u,Z u o z h u

24、o D a i,F e i t o n gT a na n d P i n g T a n.“C a s c a d eC o s t V o l u m ef o rH i g h-R e s o l u t i o n M u l t i-V i e wS t e r e oa n dS t e r e o M a t c-h i n g.”2 0 2 0I E E E/C V F C o n f e r e n c eo nC o m p u t e rV i s i o na n dP a t t e r nR e c o g n i t i o n(C V P R)(2 0 1 9)

25、:2 4 9 2-2 5 0 1.9 Y a o,Y a o,Z i x i nL u o,S h i w e iL i,J i n g y a n gZ h a n g,Y u f a nR e n,L e iZ h o u,T i a nF a n ga n dL o n gQ u a n.“B l e n d e d MV S:AL a r g e-S c a l eD a t a s e t f o rG e n e r a l i z e dM u l t i-V i e wS t e r e oN e t w o r k s.”2 0 2 0I E E E/C V FC o n f

26、 e r e n c eo nC o m p u t e rV i-s i o na n dP a t t e r nR e c o g n i t i o n(C V P R)(2 0 1 9):1 7 8 7-1 7 9 6.1 0 Y a o,Y a o,Z i x i nL u o,S h i w e i L i,T i a n w e i S h e n,T i a nF a n ga n dL o n gQ u a n.“R e c u r r e n tMV S N e t f o rH i g h-R e s o l u t i o nM u l t i-V i e w S t

27、 e r e o D e p t hI n f e r e n c e.”2 0 1 9I E E E/C V FC o n f e r e n c eo n C o m p u t e r V i s i o na n d P a t t e r n R e c o g n i t i o n(C V P R)(2 0 1 9):5 5 2 0-5 5 2 9.(下转3 8页)51佳 木 斯 大 学 学 报(自 然 科 学 版)2 0 2 3年参考文献:1 宦立鑫,葛斌.像素值与比特位双重置乱混沌图像加密 J.佳木斯大学学报(自然科学版),2 0 2 2,4 0(0 6):2 2-2 5+3

28、 2.2 李珊珊,赵莉,张红丽.基于猫映射的图像灰度值加密 J.计算机应用,2 0 2 1,4 1(0 4):1 1 4 8-1 1 5 2.3 宋莉莉,杨帆,潘国峰.A r n o l d变换与G r a y码变换相融合的双置乱算法研究 J.计算机应用与软件,2 0 1 6,3 3(0 3):3 0 4-3 0 7+3 1 3.4 谢国波,邓华军.二次广义c a t映射的混合混沌图像加密算法 J.计算机工程与应用,2 0 1 8,5 4(1 5):1 9 7-2 0 2.5 HAN I F M,I Q B A L N,R AHMAN F U,e ta l.A N o v e lG r a y

29、 s c a l e I m a g eE n c r y p t i o nS c h e m eB a s e do nt h eB l o c k-L e v e l S w a p p i n go fP i x e l sa n dt h eC h a o t i cS y s t e mJ.S e n-s o r s,2 0 2 2,2 2(1 6):6 2 4 3-6 2 4 3.6 MAN S OUR IA,WAN G X Y.An o v e lo n e-d i m e n s i o n a ls i n ep o w e r e dc h a o t i cm a pa

30、 n d i t sa p p l i c a t i o ni nan e wi m a g ee n c r y p t i o ns c h e m eJ.I n f o r m a t i o nS c i e n c e s,2 0 2 0,5 2 0:(c):4 6-6 2.7 P AKC,HUAN GLL.An e wc o l o r i m a g ee n c r y p t i o nu s i n gc o m b i n a t i o no f t h e1 Dc h a o t i cm a pJ.S i g n a lP r o c e s s i n g,2

31、0 1 7,1 3 8:1 2 9-1 3 7.8 邹东尧,李明,李军,等.基于改进一维逻辑正弦混沌映射系统的图像加密算法 J.科学技术与工程,2 0 2 1,2 1(2 8):1 2 1 7 5-1 2 1 8 4.G r a y s c a l e I m a g eE n c r y p t i o nA l g o r i t h mB a s e do nL o g i s t i c-i t e r a t i v eC h a o t i cM a pw i t hI n f i n i t eC o l l a p s e sWANGY i h a n g1,HONGY a n

32、1,*,X I A OZ h i h a o2(1.S c h o o l o fE l e c t r i c a l a n dI n f o r m a t i o nE n g i n e e r i n g,A n h u iU n i v e r s i t yo fT e c h n o l o g y,H u a i n a nA n h u i2 3 2 0 0 1,C h i n a;2.S c h o o l o fM e-c h a n i c a lE n g i n e e r i n g,A n h u iU n i v e r s i t yo fT e c h

33、 n o l o g y,H u a i n a nA n h u i 2 3 2 0 0 1,C h i n a)A b s t r a c t:I no r d e r t os o l v e t h ep r o b l e m so f i n f i n i t ef o l d i n gi t e r a t i v ec h a o t i cm a p p i n gw i t hp e r i o dw i n d o w sa n du n e v e n m a p p i n gd i s t r i b u t i o n,al o g i c-i n f i n

34、 i t ef o l d i n gi t e r a t i v ec h a o t i cm a p p i n gi sp r o-p o s e d,b a s e do nw h i c h t h eA r n o l d t r a n s f o r mc o m b i n e dw i t hc y c l i c s h i f t d i f f u s i o n i sp r o p o s e da s a c h a o t i ce n c r y p t i o na l g o r i t h mf o rg r e y-s c a l e i m a

35、 g e s.F i r s t l y,t h e1 2 8-b i th a s hv a l u eo f t h ep l a i n t e x t i m a g e i so b t a i n e du s i n gt h eMD 5h a s h i n ga l g o r i t h m,w h i c hi su s e df o rk e yg e n e r a t i o n.T h e nt h eA r n o l dg l o b a ld i s r u p t i o n i sp e r f o r m e d,f o l l o w e db yt

36、 h ec y c l i cs h i f td i f f u s i o no p e r a t i o n,a n df i n a l l yt h ed e s i g no ft h eg r e y-s c a l e i m a g ee n c r y p t i o ns y s t e mw i t hA r n o l d t r a n s f o r ma n dc y c l i c s h i f td i f f u s i o n i s c o m p l e t e d.T h ee n c r y p t i o na n a l y s i so

37、 f f o u rs t a n d a r dg r a y s c a l e i m a g e su s i n gt h ec h a o t i ce n c r y p t i o na l g o r i t h mg e n e r a t e db yt h i sm a p p i n g.T h er e s u l t ss h o wt h a tt h ei m a g ee n c r y p t i o nr e s u l t sa n di t sh i s t o g r a ms h o wt h a tt h ep i x e l v a l u

38、e so f t h ee n c r y p t e d i m a g ea r ee v e n l yd i s t r i b u t e d,t h ek e ys p a c eo f t h ee n c r y p t i o na l g o r i t h mi sf a rg r e a t e r t h a n2 1 0 0,t h e i n f o r m a t i o ne n t r o p y i s c l o s e t o8,t h e c o r r e l a t i o nb e t w e e np i x e l s i s s m a

39、l l,a n dt h ee n c r y p t i o na l g o r i t h mi sc a p a b l eo f r e s i s t i n gv i o l e n t a n ds t a t i s t i c a l a t t a c k s.K e yw o r d s:c h a o t i c i t e r a t i o n;o n e-d i m e n s i o n a lc h a o t i cm a p p i n g;A r n o l dt r a n s f o r m;i m a g ee n-c r y p t i o n

40、(上接1 5页)B u i l d i n g3 DR e c o n s t r u c t i o nB a s e do nM u l t i-a n g l e I m a g e sL IX u e1,ZHU M i n g r o n g2(1.C o l l e g eo f I n f o r m a t i o na n dC o mm u n i c a t i o nE n g i n e e r i n g,H a r b i nE n g i n e e r i n gU n i v e r s i t y,H a r b i n1 5 0 0 0 1,C h i n

41、 a;2.T h e 8 t hR e s e a r c hA c a d e m yo fC h i n aS t a t eS h i p b u i l d i n gC o r p o r a t i o n,Y a n g z h o uJ i a n g s u2 2 5 1 0 1,C h i n a)A b s t r a c t:N o w a d a y s,3 Dr e c o n s t r u c t i o no f b u i l d i n g s i sn o t o n l ya c o n c e p t,b u t p l a y s a n i r

42、r e p l a c e-a b l er o l e i nt h e f i e l do f r e m o t e s e n s i n ga n du r b a nc o n s t r u c t i o n.B e c a u s e t r a d i t i o n a l r e c o n s t r u c t i o nm e t h-o d sm a k ed e n s em a t c h i n gd i f f i c u l t f o rt h el o w-t e x t u r e,h i g h-l i g h ta n dr e f l e

43、 c t i v ea r e a so f t h es c e n e,l e a d i n gt o i n c o m p l e t er e c o n s t r u c t i o n.F o rt h ea b o v ep r o b l e m s,ar e c u r s i v em u l t i-v i e ws t e r e on e t w o r kw i t ha d a p t i v ea g g r e g a t i o n i sp r o p o s e d.T h en e t w o r kh a st w oa d a p t i v

44、 ea g g r e g a t i o nm o d u l e s.O n e i sa ni n t r a-v i e wa g g r e g a t i o nm o d u l e f o r r o b u s t f e a t u r ee x t r a c t i o n,w h e r ec o n t e x t-a w a r ef e a t u r e sa r ea d a p-t i v e l ya g g r e g a t e dt om u l t i p l es c a l e sa n dr e g i o n sw i t hd i f

45、f e r e n tt e x t u r er i c h n e s s.O n e i sa ni n t e r-v i e wa g g r e g a t i o nm o d u l e f o rm u l t i-v i e wc o s t a g g r e g a t i o n,w h i c ho v e r c o m e s t h ed i f f i c u l t yo f o c c l u s i o nv a r i a-t i o n i nc o m p l e xs c e n e sb ya s s i g n i n gh i g h e

46、 rw e i g h t so nw e l l-m a t c h e dv i e wp a i r s.T h ep r o p o s e df r a m e-w o r ki s e x p e r i m e n t e du s i n gD TUd a t a s e t,a n d i t i s a b l e t oo b t a i nm o r e a c c u r a t ed e p t hm a p s a n dg e n e r a t em o r ed e n s ea n dc o m p l e t ep o i n t c l o u d sc o m p a r e dw i t he x i s t i n gm e t h o d s.K e yw o r d s:b u i l d i n g;3 Dr e c o n s t r u c t i o n;d e p t hm a pe s t i m a t i o n;m u l t i-v i e ws t e r e o83

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服