ImageVerifierCode 换一换
格式:PDF , 页数:9 ,大小:2.20MB ,
资源ID:462263      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/462263.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(全局时空特征耦合的多景深三维形貌重建_张江峰 (1).pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

全局时空特征耦合的多景深三维形貌重建_张江峰 (1).pdf

1、2023 03 10计算机应用,Journal of Computer Applications2023,43(3):894-902ISSN 10019081CODEN JYIIDUhttp:/全局时空特征耦合的多景深三维形貌重建张江峰1,2,闫涛1,2,3,4*,陈斌4,5,钱宇华2,3,宋艳涛1,2,3(1.山西大学 计算机与信息技术学院,太原 030006;2.山西大学 大数据科学与产业研究院,太原 030006;3.山西省机器视觉与数据挖掘工程研究中心(山西大学),太原 030006;4.哈尔滨工业大学 重庆研究院,重庆 401151;5.哈尔滨工业大学(深圳)国际人工智能研究院,广东

2、深圳 518055)(通信作者电子邮箱)摘要:针对现有三维形貌重建模型无法有效融合全局时空信息的问题,设计深度聚焦体积(DFV)模块保留聚焦和离焦的过渡信息,并在此基础上提出全局时空特征耦合(GSTFC)模型提取多景深图像序列的局部与全局的时空特征信息。首先,在收缩路径中穿插3D-ConvNeXt模块和3D卷积层,捕捉多尺度局部时空特征,同时,在瓶颈模块中添加3D-SwinTransformer模块捕捉多景深图像序列局部时序特征的全局关联关系;然后,通过自适应参数层将局部时空特征和全局关联关系融合为全局时空特征,并输入扩张路径引导生成聚焦体积;最后,聚焦体积通过DFV提取序列权重信息,并保留聚

3、焦与离焦的过渡信息,得到最终深度图。实验结果表明,GSTFC在FoD500数据集上的均方根误差(RMSE)相较于最先进的全聚焦深度网络(AiFDepthNet)下降了12.5%,并且比传统的鲁棒聚焦体积正则化的聚焦形貌恢复(RFVR-SFF)模型保留了更多的景深过渡关系。关键词:三维形貌重建;深度学习;有监督学习;时空特征耦合;深度图中图分类号:TP391.41 文献标志码:AMulti-depth-of-field 3D shape reconstruction with global spatio-temporal feature couplingZHANG Jiangfeng1,2,YA

4、N Tao1,2,3,4*,CHEN Bin4,5,QIAN Yuhua2,3,SONG Yantao1,2,3(1.School of Computer and Information Technology,Shanxi University,Taiyuan Shanxi 030006,China;2.Institute of Big Data Science and Industry,Shanxi University,Taiyuan Shanxi 030006,China;3.Engineering Research Center for Machine Vision and Data

5、Mining of Shanxi Province(Shanxi University),Taiyuan Shanxi 030006,China;4.Chongqing Research Institute of Harbin Institute of Technology,Chongqing 401151,China;5.International Research Institute for Artificial Intelligence,Harbin Institute of Technology(Shenzhen),Shenzhen Guangdong 518055,China)Abs

6、tract:In response to the inability of existing 3D shape reconstruction models to effectively fuse global spatio-temporal information,a Depth Focus Volume(DFV)module was proposed to retain the transition information of focus and defocus,on this basis,a Global Spatio-Temporal Feature Coupling(GSTFC)mo

7、del was proposed to extract local and global spatio-temporal feature information of multi-depth-of-field image sequences.Firstly,the 3D-ConvNeXt module and 3D convolutional layer were interspersed in the shrinkage path to capture multi-scale local spatio-temporal features.Meanwhile,the 3D-SwinTransf

8、ormer module was added to the bottleneck module to capture the global correlations of local spatio-temporal features of multi-depth-of-field image sequences.Then,the local spatio-temporal features and global correlations were fused into global spatio-temporal features through the adaptive parameter

9、layer,which were input into the expansion path to guide and generate focus volume.Finally,the sequence weight information of the focus volume was extracted by DFV and the transition information of focus and defocus was retained to obtain the final depth map.Experimental results show that GSTFC decre

10、ases the Root Mean Square Error(RMSE)index by 12.5%on FoD500 dataset compared with the state-of-the-art All-in-Focus Depth Net(AiFDepthNet)model,and retains more depth-of-field transition relationships compared with the traditional Robust Focus Volume Regularization in Shape from Focus(RFVR-SFF)mode

11、l.Key words:3D shape reconstruction;deep learning;supervised learning;spatio-temporal feature coupling;depth map0 引言 三维形貌重建作为计算机视觉的前沿课题之一,在增强现实、精密制造和无人驾驶等领域1应用广泛。现阶段,三维形貌重建不仅需要满足高精度与高效率的测量需求,也要满足跨场景应用的快速部署要求2。三维形貌重建过程中需要探究深度线索或立体匹配,从而辅助构建立体形貌,如文章编号:1001-9081(2023)03-0894-09DOI:10.11772/j.issn.1001-9

12、081.2022101589收稿日期:20221025;修回日期:20230112;录用日期:20230116。基金项目:国家自然科学基金资助项目(62006146);山西省基础研究计划资助项目(201901D211170)。作者简介:张江峰(1998),男,山西晋城人,硕士研究生,CCF会员,主要研究方向:深度学习、三维重建;闫涛(1987),男,山西定襄人,副教授,博士,CCF会员,主要研究方向:三维重建;陈斌(1970),男,四川广汉人,教授,博士,主要研究方向:机器视觉;钱宇华(1976),男,山西晋城人,教授,博士,CCF会员,主要研究方向:人工智能、机器学习;宋艳涛(1989),女

13、,山西临汾人,副教授,博士,主要研究方向:医学图像处理。第 3 期张江峰等:全局时空特征耦合的多景深三维形貌重建多景深重建3、相机自运动4、点云配准5和光场重建6等。相机自运动需要图像采集设备在宏观的定位系统下搭建庞杂的照片集,受限于数据信息的噪声和立体匹配信息的稀疏性,此类方法不易跨场景应用。点云和光场均通过专用信息采集设备记录场景的深度线索,它们的重建精度依赖信息采集设备的精度,因此硬件成本较高。而基于多景深图像序列的三维形貌重建方法即聚焦形貌恢复(Shape From Focus,SFF)则利用图像含有的场景信息和图像序列间含有的景深关系共同推导深度线索,重建效率高且硬件成本低,易于实现

14、多场景应用7。基于多景深图像序列的三维形貌重建主要包含以下步骤:首先,相机等图像采集设备在它们的聚焦范围内快速扫描焦平面,产生一系列不同景深(聚焦)的图像集即聚焦栈(Focus Stack,FS);其次,对聚焦栈中的图像序列采用统一的聚 焦 评 价 算 子 FM(Focus Measure)构 成 聚 焦 体 积(Focus Volume,FV),在 FV 中评选最佳聚焦值所在序列信息,从而构成初始形貌结构;最后,采用深度图修复等图像后处理算法得到最终的三维形貌图即深度图。为实现场景中的高精度三维形貌重建,聚焦评价算法至关重要。传统基于多景深的三维形貌重建8-9提出了多种聚焦评价算子,大致可分

15、为空间域和频率域。传统方法通过图像像素信息推导深度信息,而固定的模型参数难以对多场景进行自适应式的高精度三维形貌重建。随着多景深数据集的生成和开源,一系列算法10-13利用深度学习替代传统聚焦评价算子,从大规模多景深图像数据中学习区分聚焦和离焦,并创建场景语义级的三维形貌。然而,基于深度学习的三维形貌重建仅通过二维或三维卷积简单地拼接局部聚焦信息,无法很好地挖掘全局场景信息。基于多景深图像序列的三维形貌重建目前仍面临三个主要挑战13:聚焦测量、弱纹理场景和采样频率。聚焦测量过程中聚焦评价算子直接作用于多景深图像序列,不仅需要判断聚焦与离焦的分界线,而且需要以场景信息为引导有效分离场景中的异质区

16、域;聚焦测量算子无法对弱纹理场景进行有效聚焦评价,极易导致错误深度信息蔓延;采样频率宏观上决定了场景的层次结构,为确保前景和背景落入景深范围内,需要对待测场景密集采样。综上所述,如何构建聚焦测量精准、纹理场景自适应的多场景三维形貌重建是目前亟需解决的问题。本文提出全局时空特征耦合(Global Spatio-Temporal Feature Coupling,GSTFC)模型,在重建多景深三维形貌的同时建模聚焦区域特征的时序关系和空间关系,并通过自适应参数有效耦合这两种关系,从而增强模型的特征表示能力。本文的主要工作如下:1)提出基于3D-ConvNeXt的U型网络主干,可以在有效提取局部聚焦

17、序列信息的同时,减少网络参数量,降低模型成本;2)利用 3D-SwinTransformer 模块14通过局部聚焦序列信息构建全局关系,在此基础上选择自适应网络参数平衡局部和全局特征并有效耦合;3)利用神经网络构建聚焦体积,代替原有手工计算聚焦最大值或神经网络直接拟合深度图的方式,通过分析聚焦体积中每个点的深度置信度保留聚焦和离焦的过渡信息。1 相关工作 基于多景深图像序列的三维形貌重建根据是否利用深度学习抽取聚焦特征,大体可分为传统聚焦建模和神经网络拟合两类。1.1传统多景深三维形貌重建传统多景深三维形貌重建模型通过前后图像的差异信息判别聚焦和离焦,并对深度信息进行置信度评价以确定聚焦与离焦

18、的边界线。根据图像处理方式的不同可大致分为空间域和频率域两部分。在空间域类中,改进图像算子的聚焦特征提取能力可以提高重建结果的精度,如Sum-modified-Laplacian15、TENV(TENengrad Variance)16和 Laplacian in 3D window17等;图像区域的梯度18-20波动同样也可作为聚焦的线索,如空间频率(Spatial Frequency,SF)算子。为贴合待测场景中不同物体的表面,学者通过构建物体表面和聚焦形貌的一一对应关系21将深度信息区域化,后续使用拉格朗日多项式估计分段曲面22;也有学者探讨聚焦评价窗口对聚焦信息的影响,并提出自适应改变

19、窗口大小来提高聚焦评价的准确度23-24,如 DLAP(Diagonal LAPlacian)算子通过收集邻域内梯度值变化自适应改变聚焦评价窗口;还有学者提出环形差分滤波器(Ring Difference Filter,RDF)9统筹局部区域内非相邻环形区域对聚焦中心的影响。这类方法主要对局部像素信息进行聚焦测量,无法对非连通的聚焦区域进行有效鉴别,难以拟合聚焦区域边界。由于图像时频的变换过程可有效分离图像的高、低频信息,进而有助于保留图像的相对聚焦区域,陆续有学者从图像频域角度分析并解构聚焦栈,如快速离散曲波(Fast Discrete Curvelet,FDC)25可检测聚焦栈中的高频分量

20、;非降采样小波变换7将聚焦栈分离为不同尺度的高频信息;非降采样剪切波26可得到深度信息的最优尺度表达等。频率域类方法改善了空间域类方法仅在局部评价聚焦的问题,但仍需辅以场景结构的先验信息来完善并修复深度图像的边界及噪点。现阶段,传统的多景深三维形貌重建力求改进聚焦测量算子以产生精细的聚焦体积8。同时,为防止重建结果将噪点等错误信息引入深度图修复算法。深度图修复算法采用梯度或场景结构约束来改善初始深度图的稀疏性,如引导滤波27、图像分割(Graph Cut,GC)算法28、鲁棒聚焦体积正则化的聚焦形貌恢复(Robust Focus Volume Regularization in Shape F

21、rom Focus,RFVR-SFF)模型8。而深度修复算法在鉴定深度异常值的过程会影响原有深度正确值,造成重建算法精准度的退化。综上所述,传统多景深三维形貌模型单一的评价参数无法适应多领域三维形貌重建29。1.2基于深度学习的多景深三维形貌重建深度学习类方法构建多层卷积神经网络(Convolutional Neural Network,CNN)学习多景深图像序列中隐含的内部关系,由此得到的深度信息具有更强的表征和泛化能力。目前已公布的基于深度学习的三维形貌重建模型将特定场景下的多景深图像集和深度图经过神经网络抽象学习聚焦特征并自动拟合聚焦区域,相较于传统方法更加精准高效。基于焦点深度的深度(

22、Deep Depth From Focus,DDFF)10模型作为首个端到端可训练的CNN,为解决三维形貌重建的不适定性给出示范,说明利用卷积关联像素信息可以抽取场景中抽象的聚焦特征。然而,仅使用单一卷积核逐层抽取特征无法关联景深的前后关系,导致多景深数据利用率较低。离焦网络(Defocus Net,DefocusNet)模型 11利用域信息不变的散焦模糊作为直接监督数据,通过融合分支和深度分支分别生成全聚焦图像和深度图像,该模型利用散焦信息监督网络可以有效分离前景和背景,但无法拟合相邻深度下同质区域的过渡。上述方法将简单堆叠的多景深图像集直接输入网络,仅通过二维卷积操作无法有效利用多景深图像

23、之间的895第 43 卷计算机应用序列关系。全聚焦深度网络(All-in-Focus Depth Net,AiFDepthNet)模型 12利用全聚焦图像监督或全聚焦图像和深度图共同监督训练网络得到深度信息,以降低数据集对深度监督信息的依赖并改用全聚焦信息监督。然而,全聚焦图像与深度图对聚焦信息的敏感度不同,使用全聚焦图像作为监督信息极度依赖图像采集频率,采样频率降低会导致最终深度图像的噪点增多、边界信息模糊。后续也有研究通过差分聚焦体积网络(Differential Focus Volume Net,DFV-Net)模型和聚焦体积网络(Focus Volume Net,FV-Net)模型13

24、结合焦点和上下文进行深度估计,但在初始特征提取中未综合考量聚焦体积中的聚焦过渡关系。全局时空聚焦特征耦合模型30加入注意力机制并利用局部时空聚焦信息构建全局联系,从而依据多景深图像序列推导焦平面矩阵,指导三维形貌重建。但是简单的焦平面矩阵无法直接适应不同数据集的深度范围,后续需要根据场景深度范围重新调整深度值,易引起精度丢失。而且推导的焦平面矩阵有固定的分层数,不利于网络模型精细化理解待测场景中的前后图像序列的过渡关系。综上所述,现有的三维形貌重建方法在聚焦特征的高效提取、弱纹理区域的聚焦鉴定和多频率景深的泛化性上仍有上升空间。2 本文模型 2.1问题描述多景深三维形貌重建利用相机的光学成像原

25、理还原待测场景的三维形貌信息,它的核心思想是利用相机的景深限制来推导深度信息。大多数相机只能在称为景深(Depth of Field,DoF)的范围内捕捉部分场景的清晰图像,而范围外会模糊形成弥散圆(Circle of Confusion,CoC)。三维形貌重建算法利用透镜成像公式31的基本原理,通过调节相机与待测场景的距离,等间隔采集场景图像,得到可以覆盖待测场景全部景深的图像栈。在捕捉的图像栈中使用聚焦测量算子进行聚焦水平评价,选择所有聚焦水平最大值所在序列位置作为待测场景的初始深度32,可表示为:Dx,y=argmax1 i NFMix,y,1 x W,1 y H(1)其中:N为聚焦栈大

26、小;图像大小为HW;FMix,y表示聚焦栈中第 i张图像中x,y位置的聚焦水平;Dx,y表示深度图。最后,采用图像后处理算法对初始深度图进行修复。2.2网络结构本文提出全局时空特征耦合(GSTFC)模型是一个端到端的深度卷积网络,输入为多景深图像序列,输出为相应场景的深度信息即深度图。GSTFC 模型由收缩路径、瓶颈模块、扩张路径及特征处理组成,如图1所示。本文采用U型主干网络,在收缩路径和扩张路径的编解码过程中跳跃连接各个尺度特征,以实现底层纹理特征与高层聚焦特征的充分融合,同时兼顾精准定位和轻量化应用33。该主干网络的优点使它在图像生成等任务中有明显优势34。为确保训练过程中卷积操作和注意

27、力操作在宏观结构层次下网络特征归纳的统一性和微观层次下特征维度的兼容性,使用 ConvNeXt 模块35代替原有的全卷积网络(Fully Convolutional Network,FCN)等结构。但为引入同一区域内不同景深序列的聚焦信息,将 ConvNeXt 模块的特征提取维度由二维变为三维,由此获得局部时空聚焦特征。3D-SwinTransformer模块对于时序关系的全局建模能力有利于将前者获得的局部聚焦特征进行信息整合,从而获得全局时空聚焦特征。后续,灵活的特征处理模块对不同焦距数据进行分类处理从而得到最终的深度图。2.2.1 收缩路径和扩张路径收缩路径中主要包含三个子模块,每个子模块

28、中包含3D 卷积层(Conv 3D)、正则激活层和 3D-ConvNeXt 模块。每个子模块针对局部聚焦区域的时空特征进行多尺度提取,以探索多景深图像序列的局部时空聚焦特征。第一个子模块整体的特征频道设为48,3D卷积层通过大小为(3,7,7)的卷积核对原始多景深图像序列进行特征抽取,随后通过层归一化(LayerNorm)和高斯误差线性单元(Gaussian Error Linear Unit,GELU)增益特征,最后堆叠3层3D-ConvNeXt模块以探索该尺度下的局部时空特征。第二和第三个子模块整体的特征频道分别为96和192,使用卷积核大小为(1,2,2)的3D卷积层代替最大池化或平均池

29、化层,堆叠的3D-ConvNeXt模块层数分别为3和9。收缩路径中包含的下采样操作和3D卷积层对输入的多景深图像序列进行由局部到整体的聚焦特征抽样,从而得到局部时空聚焦特征并保留各个尺度的聚焦特征。扩张路径与收缩路径的维度一一对应,也包含三个子模块。每个子模块中包含3D反卷积层(ConvTranspose 3D)、正则激活层和 3D-ConvNeXt模块。3D反卷积层主要负责还原上一个子模块的特征矩阵尺度,并与相对收缩路径的浅层特征相融合。收缩路径和扩张路径中,3D-ConvNeXt模块的堆叠次数与特征维度保持一致。2.2.2 3D-ConvNeXt模块CNN 在计算机视觉的应用最广泛且相对成

30、熟36,它特有的归纳偏置有利于处理图像数据。但 Vision Transformer的引入改变了原有的网络架构,核心的多头注意力机制灵活关注一系列图像块,为特征编码提供全局线索37。二者并不是独立发展,如Transformer变体中引入了卷积的“滑动窗口”策略。尽管Transformer在计算机视觉领域通过借鉴卷积的独特优势提升效率,但在训练过程和架构设计中仍存在明显的差异35。本文提出的 3D-ConvNeXt 模块的架构设计参照 3D-Swin Transformer 结构,使它可灵活嵌入 Transformer 模块,将二者提取特征相结合。ConvNeXt 模型35依照 Swin Tra

31、nsformer38的结构进行调整改进,有效地弥合了纯卷积网络和Vision Transformers之间的性能差距。该设计分为五部分:宏观设计、ResNeXt39、Inverted Bottleneck、大卷积核和逐层微观设计。在宏观设计中,ConvNeXt 模型将卷积模块的堆叠比例改为1 1 3 1,并将stem层中的卷积核设为4,步距设为 4;在网络结构设计中,采用 ResNeXt模型的组卷积层,并 将 组 卷 积 层 中 的 组 数 设 置 为 特 征 频 道 数;借 鉴MobileNetV240的Inverted Bottleneck模仿Transformer block中的多层感知

32、机(Multi-Layer Perceptron,MLP)模块;增大原有的卷积核,将卷积核大小设为 7;在逐层微观设计中,采用GELU 激 活 函 数、更 少 的 激 活 层 和 正 则 层,将 Batch Normalization 改为 Layer Normalization 和单独下采样层。在多景深图像序列收缩路径瓶颈模块扩张路径特征处理深度图3D SwinTransformer-拼接Conv 3DLayer Norm+GELU3D ConvNeXt-Depth AttentionConvTranspose 3D图 1GSTFC模型的整体结构Fig.1Overall structure

33、of GSTFC model896第 3 期张江峰等:全局时空特征耦合的多景深三维形貌重建微观设计中,GELU激活函数是一种高性能的非线性神经网络激活函数,可以采用随机正则化的方式有效提升网络的鲁棒性,因此可将它视为 ReLU 激活函数更平滑的变体;Layer Normalization 相较于 Batch Normalization 不会对小批量数据施加限制,可有效减少模型的显存消耗。本文在 ConvNeXt 模型的基础上进行改进,以满足多景深图像序列的三维形貌预测。首先,为探究多景深图像序列之间的聚焦离焦过渡关系,将原有的2D-ConvNeXt模块整体升级为3D-ConvNeXt模块,主要

34、包含卷积层;其次,将原有的分类式网络中的线性分类层转换为 3D-ConvNeXt 模块堆叠次数相对应的U型主干网络结构33,便于获得多景深图像序列的多尺度信息并保留浅层细节特征,有效降低了网络整体所需参数;最后,微调原有的 stem 层,将它转换为卷积核为2、步距为 2的卷积层,最终将得到的下采样特征与 3D-Swin Transformer模块切分得到图像序列块的特征进行对齐,并添加自适应参数以平衡卷积特征和Transformer特征。收缩路径中每个子模块的特征维度设置、卷积模块堆叠次数均与Swin Transfromer保持高度一致,便于提高局部特征与全局特征的融合性。其中 3D-Conv

35、NeXt模块主要包含 3D逐通道卷积层、LayerNorm 层、GELU 激活层和 3D 逐点卷积层。3D-ConvNeXt 模块使用残差方式缓解网络增加深度时带来的梯度消失问题。该模块首先使用卷积核大小为(3,7,7)的3D逐通道卷积层和LayerNorm层获得初始特征;随后,使用卷积核大小为(1,1,1)的3D逐点卷积层扩充原有维度并使用GELU激活特征;最后,使用卷积核大小为(1,1,1)的3D逐点卷积层降低特征到原有维度,添加随机的 Drop Path层以有效提升模型的鲁棒性。该设计方法在牺牲部分准确度的前提下可大幅减小网络的参数规模,有助于平衡模型计算量和预测准确率。2.2.3 瓶颈

36、模块瓶 颈 模 块 主 要 分 为 两 个 子 模 块:3D 卷 积 模 块 和3D-SwinTransformer模块。3D卷积模块类似于收缩路径中的第二个子模块,具有相同的 3D 卷积下采样和堆叠 3 层的3D-ConvNeXt 模块。3D-SwinTransformer 模块包含 3D Patch Embedding 和 3D SwinTransformer Block。相较于直接从多景深图像序列中获取全局信息,3D Patch Embedding 预处理收缩路径中第一个子模块得到的特征,可以增益对特征的提取能力。3D SwinTransformer Block在保留原有的滑窗设计和层级

37、设计的同时,将图像之间的序列关系也引入对比。3D卷积模块抽取局部时空聚焦特征,3D-SwinTransformer 模块构建全局时空聚焦特征,二者之间使用自适应参数进行耦合拼接。2.3特征处理传统三维形貌重建模型根据输入的多景深图像序列确定聚焦体积的大小,通过聚焦测量算子评价单帧图像不同像素的聚焦置信度从而构建场景的三维形貌关系。传统模型仅提取最大聚焦值以确保深度信息的准确性,忽略了聚焦和离焦的过渡关系。当采样频率不足以覆盖整个场景时,深度图异质严重,会导致无法有效捕捉场景信息。而现有的深度学习的多景深三维形貌重建直接拟合多景深图像序列特征并输出深度图,未引导神经网络有效地学习聚焦过渡信息。本

38、文提出特有的深度聚焦体积(Depth Focus Volume,DFV)模块,利用神经网络引导构建聚焦体积并尽可能保存离焦和聚焦的过渡信息。首先,设立合适的场景预分层值,并确保该值大于等于多景深图像序列数;其次,对深度聚焦体积值沿序列维度计算深度置信度,根据深度置信度分配深度值;最后,将深度值等比例压缩至多景深图像序列范围。DFV模块预先扩展场景中的深度层次,脱离了原有设定的深度范围,将场景中各个点的深度信息进行细化分层。另外,DFV模块基于深度学习构建出三维形貌重建模型的深度决策信息,避免直接拟合深度值从而导致特征信息丢失。各多景深三维形貌重建模型预测的三维形貌通过深度图表示,深度中各像素点

39、的灰度值为待测场景的相对深度信息。三维形貌重建模型的预测精度依赖于对待测场景的密集采样,而稀疏采样会导致深度鉴别精度下降。因此可以通过观测各模型预测的深度图的灰度分布是否聚集以鉴定模型是否具有稀疏采样下的鲁棒性。图 2为各模型预测深度图的灰度直方图,横坐标为 1100的灰度级(深度值),纵坐标为该灰度级出现的频数。实验场景设置为光场数据集SLFD中的石狮子场景,该场景的深度层次过渡平滑,可有效对比各模型在稀疏采样下的鲁棒性。该场景的原采样频率为100,实验采样时将原有的图像序列等间隔采样以模拟稀疏采样,并设采样频率为10。图2通过灰度直方图展示各模型对稀疏采样的敏感度,通过深度图像的深度值分布

40、判定各个模型是否可以监测到聚焦和离焦的过渡信息。从图2(d)可以看出该场景的前景过渡较平滑且背景占比较大。对比的3个模型的深度值都存在等间距分布,但与标准深度图的分布相似度不同。图 2(a)和(b)中,RDF 和 RFVR-SFF 仅判断出绝对聚焦关系,未能识别出场景的过渡关系;图 2(c)中,GSTFC的预测深度图与标准深度图的灰度分布最相似,不仅能尽可能保证聚焦区域的鉴别,而且对于离焦区域同样可以识别最佳的深度关系。(a)RDF(c)GSTFC(b)RFVR-SFF050100灰度级04812灰度频数/1032575050100灰度级04812灰度频数/1032575050100灰度级04

41、812灰度频数/1032575050100灰度级04812灰度频数/1032575(d)标准深度图图2各模型预测深度图及其灰度直方图Fig.2Depth maps predicted by different models and corresponding grayscale histograms897第 43 卷计算机应用3D-ConvNeXt模块将扩张路径的输出特征聚焦为四维张量M R1 K H W,其中:K代表场景预分层值;图像大小为H W。对于该特征使用 DFV 模块统计场景中各点的深度值。具体操作如下:DFV模块将特征张量M通过 Softmax归一化进行聚焦权重分配为深度注意力Md

42、epth:Mdepthk,i,j=exp()Mk,i,jk=1Kexp()Mk,i,j(2)其中:k、i和j表示张量M的位置信息。由于 Softmax 确保非负性的同时归一化有效的概率分布,深度注意力Mdepth等同于深度的概率分布12。随后,引入聚焦先验信息P R1 K H W,二者相结合得到每个像素的预期深度值:Ii,j=k=1K()Mdepth Pi,j(3)其中:I表示三维形貌重建结果图,即深度图。2.4数据集介绍与实验设置本文使用多景深图像数据集 DFF2和 FoD50011训练网络并对比模型效率。DFF 数据集共选用 15 000个场景图像和模拟深度图映射构建多景深图像序列,同时在

43、该数据集中添加不同强度的高斯噪声并调整图像序列大小,以验证多景深三维形貌重建模型的鲁棒性。FoD500数据集使用Blender渲染器构建数据集,包含400个训练场景和100个测试场景,每组数据包含 5张 RGB 场景图和 1张深度图像。该数据集在构建过程中随机抽取 400组 CAD 3D模型,这些模型在每个场景随机大小、位置并旋转放置2030个随机材料。DFF数据集在模拟过程中将每个位置的模糊量结合全局深度信息加权控制,更突出测试模型对聚焦边界的鉴定;而 FoD500数据集注重刻画深度信息的过渡,精准的深度值可以有效衡量模型对聚焦范围的预测,同时该数据集提供物体之间相互遮挡的图像,可以有效测试

44、模型对场景之间的间隔和弱纹理背景的区分能力。两个数据集采样频率相差巨大,DFF 数据集的采样频率为 100,FoD500 数据集的采样频率为5,二者的采样范围可以涵盖目前已知测试数据集的采样频率。后续实验将在 SLFD and DLFD(Sparse Light Field Dataset and Dense Light Field Dataset)41、Base-Line42,4D Light Field43和POV-Ray44等数据集上测试各模型的优劣。本文提出的 GSTFC 模型在 Ubuntu 平台上采用 PyTorch工具实现,显卡型号为NVIDIA A100。多景深图像序列作为三维

45、形貌重建模型的输入,相对应的深度图作为标签信息进行有监督训练,共进行200次迭代训练。在训练过程中使用Adam优化器,初始学习率设置为10-4,其余参数皆为PyTorch默认参数。训练过程中以 0.5的概率随机进行图像序列增强(整体翻转和图像序列倒转),批处理大小设置为2。为更好地分析不同模型方法的客观评价结果,使用均方误 差(Mean Square Error,MSE)、均 方 根 误 差(Root Mean Square Error,RMSE)、颠簸性(Bumpiness)、相对误差平方值(Square relative error,Sqr.rel)、峰值信噪比(Peak Signal t

46、o Noise Ratio,PSNR)、结构相似性(Structural SIMilarity,SSIM)、矩阵线性相关性(Correlation)定量评估GSTFC模型与对比模型的性能10。后续将深度图通过 ColorMap 映射到彩色空间,对不同模型预测的深度图进行主观评价。2.5消融实验为进一步探究 GSTFC 模型的合理性,本文在 FoD500数据集的训练集进行训练,并在测试集进行测试。消融实验将从MSE、模型参数量和模型计算量对模型进行评价。对比模型的计算量和推理时间时,采用多景深图像序列为 5、图像大小为224224的RGB图像。消融实验主要从主干网络、特征组件和特征处理三方面设置

47、对比,如表1所示。实验过程中,特征频道、堆叠次数、下采样和损失函数等保持一致,本文仅探讨3D-ConvNeXt主干、3D-SwinTransformer模块和DFV模块对网络模型的影响。从表1可以看出,本文模型在保证预测精度的同时更注重对模型参数的压缩。相较于 U 模型,添加了全局注意力3D-SwinTransformer 模块的 U+T 模型预测的准确率提高了,模型参数量和计算量也增加了。相较于U模型,X模型的参数 量 和 计 算 量 都 大 幅 降 低,而 MSE 却 小 幅 上 升,因 为ConvNeXt 模块使用深度可分离卷积等可有效降低参数量,但为了与3D-SwinTransform

48、er结合而设计的独有结构也提高了 MSE。相较于 U+T模型,X+T模型的 MSE、参数量和计算量 都 明 显 降 低,说 明 3D-ConvNeXt 模 块 更 适 配 于3D-SwinTransformer 模块,二者结合取得了最优效果。相较于X+T模型,X+T+DFV模型的MSE也明显降低,说明DFV模块结合已有的聚焦先验信息能有效提升模型的深度图预测能力并减少参数量和计算量。由于 3D-U 型主干网络与3D-SwinTransformer 模型的适配程度低,因此 X+T+DFV 模型优于U+T+DFV模型。综上所述,X+T+DFV模型即本文最终选择的多景深三维形貌重建模型。2.6对比实

49、验将GSTFC与深度学习模型和传统方法进行对比。深度学习模型包括:DDFF10、DefocusNet11、AiFDepthNet12、FV-Net13和 DFV-Net13;传统方法包括:RFVR-SFF8、RDF9、TENV16、SF20、DLAP24、FDC25和GC28。传统方法的选择依据文献 29 的分类标准。为平衡GSTFC模型和传统方法是否使用场景先验信息的前置条件,GSTFC模型仅使用DFF数据集训练以学习判定聚焦离焦的相对关系。表 2 为不同模型在 FoD500 数据集上的对比结果,其中GSTFC 的 MSE、RMSE 和 Bumpiness 取得了最优。相较于最先进的 AiF

50、DepthNet,GSTFC 在 FoD500 数据集上的 RMSE 下降了 12.5%。GSTFC 从全局时空视角对多景深图像序列进表1消融实验的对比分析Tab.1Comparison analysis of ablation experiments模型UU+TU+T+DFVXX+TX+T+DFV主干3D-U型主干3D-U型主干3D-U型主干3D-ConvNeXt3D-ConvNeXt3D-ConvNeXt模块3D-SwinTransformer3D-SwinTransformer3D-SwinTransformer3D-SwinTransformer特征处理卷积层卷积层DFV卷积层卷积层D

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服