ImageVerifierCode 换一换
格式:PDF , 页数:7 ,大小:5.02MB ,
资源ID:722427      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/722427.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(融合生物力学约束与多模态数据的手部重建.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

融合生物力学约束与多模态数据的手部重建.pdf

1、2023 年 8 月 图 学 学 报 August2023第 44 卷 第4期 JOURNAL OF GRAPHICS Vol.44No.4 收稿日期:2022-11-26;定稿日期:2023-04-26 Received:26 November,2022;Finalized:26 April,2023 基金项目:陕西省林业科学院2021年科技创新计划专项(SXLK2021-0214);陕西省重点研发项目(2022QFY11-03);农村农业部农业物联网重点实验室项目(2018AIOT-09)Foundation items:Shaanxi Academy of Forestry Scienc

2、e 2021 Science and Technology Innovation Program Special(SXLK2021-0214);Shaanxi Province Key Research and Development Program(2022QFY11-03);Key Laboratory Project of Agricultural Internet of Things,Ministry of Rural Agriculture(2018AIOT-09)第一作者:薛皓玮(2000),男,本科生。主要研究方向为计算机视觉和人机交互。E-mail: First author:

3、XUE Hao-wei(2000),undergraduate.His main research interests cover computer vision and human-computer interaction.E-mail: 通信作者:王美丽(1982),女,教授,博士。主要研究方向为计算机图形学、虚拟现实等。E-mail:meili_ Corresponding author:WANG Mei-li(1982),professor,Ph.D.Her main research interests cover computer graphics,virtual reality,

4、etc.E-mail:meili_ 融合生物力学约束与多模态数据的手部重建 薛皓玮1,王美丽1,2,3(1.西北农林科技大学信息工程学院,陕西 咸阳 712100;2.农业农村部农业物联网重点实验室,陕西 咸阳 712100;3.陕西省农业信息感知与智能服务重点实验室,陕西 咸阳 712100)摘要:针对目前单目手部重建设备成本高、响应速度迟缓等问题,提出一种利用单目摄像机获取手部形状和姿态进行手部三维重建的方法。该方法采用基于深度学习的架构,使用带有 2D 和 3D 注释的图像数据和手部动作捕捉数据进行训练。首先,通过一个关节检测模块(3DHandNet)和一个逆运动学模块(IRNet)准确

5、地回归 3D 关节位置并将其映射到关节旋转中。其次,通过引入生物力学约束以达到高质量的网格图像对齐以提供实时预测。最后,将得到的预测向量与关节旋转表示输入到手部网格模板来拟合手部形状。仅与回归 3D 关节位置的方法相比其更适用于计算机视觉和图形学领域的应用。在基准数据集上的实验结果表明,该方法达到了实时的运行性能(60 fps)和较高的重建精度,在姿态估计精度和手部图像对齐方面均优于目前的方法。关键词:手部三维重建;生物力学约束;多模态数据;手部关节检测模块;逆运动学模块 中 图 分 类 号:TP 391 DOI:10.11996/JG.j.2095-302X.2023040794 文 献 标

6、 识 码:A 文 章 编 号:2095-302X(2023)04-0794-07 Hand reconstruction incorporating biomechanical constraints and multi-modal data XUE Hao-wei1,WANG Mei-li1,2,3(1.College of Information Engineering,Northwest A&F University,Xianyang Shaanxi 712100,China;2.Key Laboratory of Agricultural Internet of Things,Mini

7、stry of Agriculture and Rural Affairs,Xianyang Shaanxi 712100,China;3.Shaanxi Key Laboratory of Agricultural Information Perception and Intelligence Service,Xianyang Shaanxi 712100,China)Abstract:To address the high cost and slow response of current monocular hand reconstruction,a method for hand 3D

8、 reconstruction using a monocular camera to acquire hand shape and posture was proposed.The method adopted a deep learning-based architecture that used image data with 2D and 3D annotations,as well as hand motion capture data for training.Firstly,3D joint positions were accurately regressed and mapp

9、ed to joint rotations through a joint detection module(3DHandNet)and an inverse kinematic module(IRNet).Then,biomechanical constraints were introduced to achieve high-quality mesh image alignment for real-time predictions.Finally,the resulting prediction vector with joint rotation representation was

10、 input to the hand mesh template to fit the hand shape.This approach was more suitable for 第 4 期 薛皓玮,等:融合生物力学约束与多模态数据的手部重建 795 1 computer vision and graphics applications compared to only regressing 3D joint positions.Experimental results on a benchmark dataset demonstrated that the proposed method

11、achieves real-time runtime performance(60 fps)and high reconstruction accuracy,outperforming current methods in terms of hand posture estimation accuracy and hand image alignment.Keywords:3D reconstruction of the hand;biomechanical constraints;multi-modal data;hand joint detection module;inverse kin

12、ematics module 手作为人体与现实世界交互的重要工具,具有高度的灵活性和便捷性。通过捕捉和识别手部动作可以建立实景信息与虚拟信息的融合桥梁,在人机交互、增强现实(augmented reality,AR)、虚拟现实(virtual reality,VR)、混合现实(mixed reality,MR)等领域具有巨大地应用潜力。为了实现手部动作捕捉系统,需要计算机视觉技术的支持,并满足实时运行、与真实手相匹配且合理对齐等主要需求。然而,单目摄像机的深度模糊性、自遮挡、手部复杂的快速运动以及皮肤外观均匀等因素,使得从单一视角进行三维手部网格重建成为计算机视觉领域的一项艰巨而长期地挑战。童

13、立靖和李嘉伟1提出一种改进的 PointNet+网络的三维手姿估计方法,可以有效减少特征提取的计算量。然而,该方法在处理噪声和不完整数据时表现不佳。TANG 等2提出了一种解耦手部网格重建任务的方法,通过关节预测、网格预测和细化结果 3 个阶段,实现了较高的重建精度。然而,该方法需要进行 3 个阶段的训练,训练时间较长。GE 等3提出了一种基于图卷积神经网络(graph convolutional neural networks,GCNN)的方法来重建一个完整的三维手部网格,包含更丰富的三维手部形状和姿态信息。但该方法需要大量的计算资源和训练时间。ZHANG 等4提出了一种端到端框架来解决从单

14、个 RGB 图像重建一个人手的完整三维网格的问题。然而,该方法对于输入图像中的遮挡和光照变化敏感。IQBAL等5提出了一种通过 2.5D姿势表示从单目图像进行三维手部重建的新方法。但该方法无法处理复杂的手部动作和姿态。CAI等6提出了一种弱监督手部重建方法,利用深度正则化器将完全标注的合成数据集自适应到弱标记的真实数据集,从预测的三维手部姿态生成深度图,作为三维手部姿态回归的弱监督。该方法需要完全标注的合成数据集,且对于真实数据的准确性和多样性要求较高。现有的方法存在设备限制、高昂的训练成本,未充分利用手部二维特征以及难以实现实时响应等问题。为此,本文提出一种利用单目摄像机进行高效、实时手部三

15、维重建方法,如图 1 所示。图 1 手部三维重建结果展示(a)输入图像 1;(b)输出结果 1;(c)Mesh 覆盖 1;(d)输入图像 2;(e)输出结果 2;(f)Mesh 覆盖 2)Fig.1 Display of 3D hand reconstruction results (a)Input image 1;(b)Output result 1;(c)Mesh overlay 1;(d)Input image 2;(e)Output result 2;(f)Mesh overlay 2)1 方法 1.1 3D 手部关节检测网络(3DHandNet)1.1.1 网络结构 3DHandNe

16、t7-8的结构由特征提取器、2D 检测器和3D检测器3个部分组成(图2)。并采用ResNet-509的主干架构作为特征提取器,使用 Xavier 初始化方法进行权重初始化。输入图像分辨率为128128,输出则为 3232256 的特征图 F。2D 检测器通过2 层 CNN 接受特征图 F 并输出热力图 Hj对应的J=21 个关节信息。热力图 Hj编码了该像素被关节j 覆盖的置信度。热力图由真实的 2D 注释监督,用于 2D 姿态估计。3D 检测器预测的坐标是相对于根部关节并根据参考骨的长度进行归一化,缓解了单目环境中基本深度尺度的模糊性。其首先使用一个 2 层 CNN 来估计来自热力图 H 和

17、特征图 F 的delta 映射 D。之后将热力图 H、特征图 F 和 delta图 D 连接并输入另一个 2 层 CNN 以获得最终的位置图 L。位置图 L 和 delta 图 D 是由 3D 注释监督的。在推理过程中,关节 j 的 3D 位置可以通过在 796 计算机图形学与虚拟现实 2023 年 位置图 Lj中通过简单的查找热力图 Hj中的最大值对应的 UV 坐标来检索。3D 探测器接受特征图 F和热力图 H,以位置图 L 的形式预测 2D 和 3D 手部关节的位置。对于每个关节 j,Lj具有与 Hj相同的 2D 分辨率,其中每个像素编码表示关节 j 的 3D坐标。与位置图 L 类似,3D

18、 探测器也估计了 delta图 D,其中 Db中的每个像素用一个从父关节到子关节的 3D 向量表示编码骨 b 的方向。图 2 模型架构概述 Fig.2 Overview of our architecture 1.1.2 损失函数 损失函数为 heatheatloclocdeltadeltaregregbmcbmcLLLLL(1)其中,损失项 Lheat的作用是监督特征提取器和 2D检测器学习在 In-The-Wild 图像上检测手部关节重要特征,即 2heatGTFLHH(2)该损失项确保了回归后的热力图 H 接近于真值热力图 HGT。其中|F表示 Frobenius 范数。损失项 Lloc

19、和 Ldelta的作用是监督 3D 检测器,即 2loc()GTGTFLLLH(3)2delta()GTGTFLDDH(4)损失项分别测量了真实值和预测位置图 L 和delta 图 D 之间的差异,确保预测的 3D 位置与真实值接近。通过将真实关节位置和骨骼方向的坐标拼接到热力图的大小来构建真实位置图 LGT和 delta映射 DGT。其中 为矩阵乘积;Lreg为网络权重的L2 正则化器,以防止过拟合;Lbmc为生物力学约束(第 1.3 节)。且每个损失项都由一个因子x加权,设置heat=1,loc=0.5,delta=0.5,reg=0.000 1,bmc=2。1.2 逆向运动学网络 IRN

20、et 在计算机图形应用中,将关节位置转换为关节旋转角度是一个很重要的问题,被称为逆向运动学问题。本文基于文献8提出了一种端到端神经网络,可以从关节位置推断出关节的旋转角度信息。1.2.1 网络结构 IRNet 为 5 层全连接神经网络,使用 Sigmoid函数作为激活函数。将输入的 3D 关节位置编码为I=X,D,Xref,DrefR4J3,其中 X 是相对根关节且为尺度归一化的 3D 关节位置;D 每个骨骼的方向,其提供作为输入并显式地编码相邻关节的信息。Xref,Dref编码的是关于形状标识的信息,分别定义为静止姿势中的 3D 关节位置和骨骼方向。IRNet的输出是手部每个关节的全局旋转,

21、表示为一个四元数4JRQ。训练逆运动学模块 IRNet,需要一组成对的 3D手部关节位置和相应的关节旋转角度样本。由于现有的 Hand MoCap 数据集缺乏足够的姿势变化,本文构建了一个数据集 3DHandData,该数据集包含成对的 3D 手部关节检测模块预测和真实 3D 关节位置,数据集可视化结果如图 3 所示。本文通过正态分布(0,2)对进行抽样对数据集进行扩充,以增加姿势变化和手型差异。在训练过程中,本文使用预训练好的3DHandNet为所有带有3D注释的训练样本生成 3D 手部关节预测,并为 IRNet 的输入。然后将IRNet估计的关节旋转结果通过正向运动层重建关节位置,使用相应

22、的 3D 关节真值注释进行监督来估计关节旋转结果。1.2.2 损失函数 损失函数为 coscosnormnormregregbmcbmcxyzxyzLLLLL(5)首先,用 Lcos测量差分角的余弦值之间的距离,包 第 4 期 薛皓玮,等:融合生物力学约束与多模态数据的手部重建 797 图 3 构建的 3DHandData 数据集的可视化(a)各个角度;(b)真实 3D 关节位置)Fig.3 Visualization of the constructed 3DHandData dataset(a)All angles;(b)Real 3D joint position)含真实值 QGT 和预

23、测值 Q,如 1cos1()GTLreal QQ (6)其中,real()取四元数的实数部分;*为四元数积;Q1为四元数 Q 的倒数。损失函数 Lxyz测量摆姿势后的 3D 坐标误差 22()GTxyzLFK Q(7)其中,FK(Q)为正向运动学函数;GT为 3D 关节注释的真实值。Lnorm将非归一化输出Q约束为单位四元数,即 2norm21LQ(8)Lreg是网络权重的 L2正则化器,以防止过拟合。Lbmc是生物力学约束(第 1.3 节)。其中每个损失项都由一个因子x加权,设置cos=1,xyz=0.5,norm=0.5,reg=0.000 1,bmc=2。1.3 生物力学约束 BMC 本

24、文通过引入生物力学约束(Biomechanical constraints)10-13方式并集成到网络的训练中,可将手部关节预测结果限制在生物力学可行的 3D 手部构造范围内,从而提高预测的准确性和鲁棒性。本文将生物力学软约束条件构造为 bmcBLRBRALLLL(9)其包含 3 种约束:有效骨骼长度范围,有效的手掌结构范围以及拇指和手指的有效关节角度范围。构建出的坐标系如图 4 所示。红、绿、蓝色箭头分别表示局部坐标系的X,Y,Z;黑箭头代表骨骼;粉色箭头代表骨骼在局部坐标系X-Z平面的投影。1.3.1 符号表示 将关节点表示为3D3D3D121,Jjj,b 为母节点(Parent join

25、t)p(i)到子节点(Child joint)i的向量。图 4 生物力学结构说明 Fig.4 Description of biomechajiegounical structure 将任意向量 v1和 v2间的角度定义为 T12121222(,)arccosv vv vvv(10)将间隔损失(Interval loss)定义为 (;,)max(,0)max(,0)I x a baxxb(11)单位向量定义为 2()normxxx(12)1.3.2 骨骼长度约束LBL 对于每个骨i定义一个有效骨骼长度的区间minmax,iibb,如果长度2ib位于这个区间之外,则予以修正 203Dminmax

26、211();,20BLiiiiLJIbbb(13)LBL提高了产生有效骨骼长度的关键点预测准确率。1.3.3 手掌骨骼曲率和夹角约束LRB 为了获得有效的手掌结构,通过以下方式计算其曲率,其中,ei为骨bi处边的法向量。T1121()(),for 1,2,3,4iiiiiiicieebbbb(14)1(),for 1,2,3,4iiinorminbb(15)114,if =1(),if 2,3,4,if =5iiiinormiinennn(16)通过定义相邻的bi,bi+1之间的角度距离来确保根骨落在正确的角度范围内,即 1(,)iiib b(17)将 曲 率ci和 角 距 离i限 制 在mi

27、nmax,iicc和minmax,ii的有效范围内,即 798 计算机图形学与虚拟现实 2023 年 43Dminmaxminmax11()(;,)(;,)4RBiiiiiiiLJI c ccI(18)以确保LRB将手掌的预测关节定义为一个有效的结构。1.3.4 每个关节处的旋转角度约束LRA 定 义 弯 曲 和 外 展 角 为,fi(Flexion angles)和,2 2ai(Abduction angles),给定运动范围的点,faiii,用固定的点集Hi在,faii平面上近似凸包。通过最小化点之间的距离,使得这些关节角度被限制在这个结构内,即 153D11()(,)15RAHiiiLJ

28、DH(19)其中,DH为i点到凸包Hi的距离。1.4 手部模型 本文选择MANO作为手部模型,因为其具有灵活且高度可配置的特性,可以很好地适应各种手部形状和位姿。MANO的表面网格可以通过形状参数R10和位姿参数R213进行完全变形和姿态化。表示从手部扫描中学习到的形状PCA基的系数,而为轴向角表示关节旋转。通过使用IRNet输出的形状参数和位姿参数对手部平均模板TRV3进行变形,以匹配不同手部的形状,并考虑到与位姿相关的变形。2 结果 2.1 实验细节 本文的网络在NVIDIA RTX 3080 GPU上使用Adam优化器进行训练,每个GPU的batch size为32,持续100个epoc

29、h,初始学习率为0.000 1,每10个epoch的衰减率为0.1。将输入图像的大小调整为128128,并使用随机缩放、旋转和颜色抖动来增强数据。3DHandNet的一次前馈传递用时需3.9 ms,IRNet需要0.4 ms。本方法实现了超过60 fps的运行时间性能。2.2 训练数据 3DHandNet在MSSGesture14和Rendered Handpose15 2个数据集上进行了训练。MSSGesture可满足多尺度和多背景条件的带有2D注释的手势数据集,包含了不同尺度、不同背景和不同环境条件下的手势图像2 522幅。RHD是合成数据集,包含21 358张3D注释的合成图像。IRNe

30、t使用了来自MANO模型的Hand MoCap数据和3DHandData进行训练。2.3 定性结果 图5展示了本文方法在4个具有挑战性的In-The-Wild图像上的结果,这些图像均未参与训练。结果表明本文方法能够很好地推广到从未见过的数据上,并能够准确预测手部关节的3D位置和角度。图6展示了本文的方法可从单一图像中捕捉到同一个手势的不同旋转角度的手形,重建的形状与输入图像中的受试者手形整体对齐,具有可信度。图 5 几个具有挑战性的场景下的结果(a)输入图像;(b)输出结果;(c)Mesh 覆盖)Fig.5 Show our results for several challenging sc

31、enarios (a)Input image;(b)Output result;(c)Mesh overlay)图 6 三维重建的形状与对齐效果(a)输入图像;(b)2D位姿;(c)3D 位姿;(d)输出结果;(e)Mesh 覆盖)Fig.6 Shape and alignment effects of 3D reconstruction (a)Input image;(b)2D pose;(c)3D pose;(d)Output result;(e)Mesh overlay)第 4 期 薛皓玮,等:融合生物力学约束与多模态数据的手部重建 799 在图7中,将本文方法与文献3和文献15在挑战性

32、的In-The-Wild图像进行比较。结果表明本文方法可以生成完整的3D手部网格模型,并具有更好的鲁棒性。图 7 与文献3方法和文献15方法的比较(a)输入图像;(b)文献15;(c)文献3;(d)本文方法)Fig.7 Comparison with the methods in literature 3 and 15(a)Input image;(b)Literature 15;(c)Literature 3;(d)Ours)2.4 与相关工作比较 2.4.1 评估数据集 实验评估数据集为RHD16,Stereo Hand Pose Tracking Benchmark(STB)17,Dex

33、ter+Object(DO)18和EgoDexter(ED)18。2.4.2 评估指标 实验评估指标为正确的3D关键点的百分比(percentage of correct keypoints,PCK)和PCK曲线下的面积(area under curve,AUC),阈值从20 mm到50 mm不等。2.4.3 定量比较 表1展示了本文方法在RHD,STB,DO,ED数据集上与其他最先进的方法的实验结果比较。实验结果表明,本文方法在DO,ED和RHD数据集上均优于其他方法。表 1 在 4 个公共数据集上与其他方法进行了比较 Table 1 Comparisons were made with s

34、tate-of-the-art methods on four public datasets Method AUC of PCK DO ED STB RHD 本文方法 0.953 0.823 0.896 0.950(*)文献7 0.948 0.811 0.898(*)0.856(*)文献3-0.998(*)0.920(*)文献4 0.825-0.995(*)0.901(*)文献17-0.996(*)0.943(*)文献11 0.650-0.995(*)0.926(*)文献8 0.912-0.994(*)-文献16 0.763 0.674 0.994(*)-文献5 0.672 0.543 0.

35、994(*)-文献19 0.573-0.948(*)0.670(*)注:加粗数据为最优值;*表示模型在该数据集上进行训练;-表示没有报告结果 2.5 消融实验 表2展示了对本文方法中的关键组进行消融对比实验和分析的定量评估结果。结果表明本文使用的各种模块和技术均对网络起到了正向作用,提高了模型的性能和泛化能力。具体来说,表2中的差异结果说明,IRNet模块作为姿势先验,可以纠正3DHandNet的原始3D关节预测;生物力学约束可以约束预测中的问题量,使其能够预测解剖学上可 信 的 手 部 姿 态,提 高 了 网 络 的 通 用 性;MSSGesture对于特征提取器和2D检测器的训练至关重要。

36、提高了模型的泛化能力;3DHandData对于IRNet与3DHandNet的兼容至关重要。可以帮助处理有噪声的3D预测,从而获得最佳结果。图8为消融实验对比结果。结果表明,删除任何组件都会降低整体性能,每个组件都对改进最终结果有所贡献。表 2 消融实验 Table 2 Ablation study 序号Variants of our method AUC of PCK DO ED RHD 1 Full 0.9530 0.8230 0.9500 2 w/o IRNet 0.9130 0.8020.04 0.8080.073 w/o BMC 0.9305e4 0.7525e4 0.9250.04

37、4 w/o MSSGesture0.9260.05 0.8230.10 0.8090.115 w/o 3DHandData0.8730 0.7120.02 0.7380.04注:加粗数据为最优值 图 8 作为基线,与文献4进行了比较 Fig.8 As a baseline,was compared with the literature 4 3 结束语 本文提出了一种单目手部三维重建方法,该方法利用带有二维和三维注释的图像数据和手部动作捕捉数据来进行训练,解决了目前单目手势重建的设备成本高、响应速度慢等问题,能够高效地对手部动作进行重建。通过引入生物力学约束,实现了精准对齐和实时预测手部动作。

38、定性 800 计算机图形学与虚拟现实 2023 年 实验和消融实验的比较和分析表明,本文方法在准确性、鲁棒性和运行时间方面相较其他方法均有明显地提升。虽然本文算法在不同环境下能够高效地重建手部动作,但仍存在一定的局限性,如手自遮挡、手抓握物体导致的遮挡、手部色域与肤色相差过大、手部尺度过小等情况。未来的工作将着重于算法在上述几个条件下的手部重建效果的提升上,可在网络模型中加入Transformer结构来增强图像特征、扩大感受野,让网络关注更重要的手部图像区域,从而提高模型对于手部姿态估计的准确率。进而扩大算法的实际应用场景。参考文献(References)1 童立靖,李嘉伟.一种基于改进 Po

39、intNet+网络的三维手姿估计方法J.图学学报,2022,43(5):892-900.TONG L J,LI J W.A 3D hand pose estimation method based on improved PointNet+J.Journal of Graphics,2022,43(5):892-900(in Chinese).2 TANG X,WANG T Y,FU C W.Towards accurate alignment in real-time 3D hand-mesh reconstructionC/2021 IEEE/CVF International Confe

40、rence on Computer Vision.New York:IEEE Press,2021:11698-11707.3 GE L H,REN Z,LI Y C,et al.3D hand shape and pose estimation from a single RGB imageC/2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2020:10825-10834.4 ZHANG X,LI Q,MO H,et al.End-to-end hand mesh

41、 recovery from a monocular RGB imageC/2019 IEEE/CVF International Conference on Computer Vision.New York:IEEE Press,2020:2354-2364.5 IQBAL U,MOLCHANOV P,BREUEL T,et al.Hand pose estimation via latent 2.5D heatmap regressionC/European Conference on Computer Vision.Cham:Springer International Publishi

42、ng,2018:125-143.6 CAI Y J,GE L H,CAI J F,et al.Weakly-supervised 3D hand pose estimation from monocular RGB imagesC/European Conference on Computer Vision.Cham:Springer International Publishing,2018:678-694.7 ROMERO J,TZIONAS D,BLACK M J.Embodied hands:modeling and capturing hands and bodies togethe

43、rJ.ACM Transactions on Graphics,2017,36(6):245.1-245.17.8 ZHOU Y X,HABERMANN M,XU W P,et al.Monocular real-time hand shape and motion capture using multi-modal dataC/2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2020:5345-5354.9 HE K M,ZHANG X Y,REN S Q,et a

44、l.Deep residual learning for image recognitionC/2016 IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE Press,2016:770-778.10 ARMAGAN A,GARCIA-HERNANDO G,BAEK S,et al.Measuringgeneralisation to unseen viewpoints,articulations,shapes and objects for 3D hand pose estimation under

45、 hand-object interactionC/European Conference on Computer Vision.Cham:Springer International Publishing,2020:85-101.11 BAEK S,KIM K I,KIM T K.Pushing the envelope for RGB-based dense 3D hand pose estimation via neural renderingC/2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition.New

46、 York:IEEE Press,2020:1067-1076.12 ALBRECHT I,HABER J,SEIDEL H P.Construction and animation of anatomically based human hand modelsC/2003 ACM SIGGRAPH/Eurographics Symposium on Computer Animation.Cham:Springer International Publishing,2003:98-109.13 SPURR A,IQBAL U,MOLCHANOV P,et al.Weakly supervise

47、d 3D hand pose estimation via biomechanical constraintsC/European Conference on Computer Vision.Cham:Springer International Publishing,2020:211-228.14 范晶晶,薛皓玮,吴欣鸿,等.引入重影特征映射和通道注意力机制的手势识别算法J.计算机辅助设计与图形学学报,2022,34(3):403-414.FAN J J,XUE H W,WU X H,et al.Gesture recognition algorithm introducing ghost

48、feature mapping and channel attention mechanismJ.Journal of Computer-Aided Design&Computer Graphics,2022,34(3):403-414(in Chinese).15 HASSON Y,VAROL G,TZIONAS D,et al.Learning joint reconstruction of hands and manipulated objectsEB/OL.2022-06-15.https:/arxiv.org/abs/1904.05767.16 ZIMMERMANN C,BROX T

49、.Learning to estimate 3D hand pose from single RGB imagesC/2017 IEEE International Conference on Computer Vision.New York:IEEE Press,2017:4913-4921.17 ZHANG J,JIAO J,CHEN M,et al.3D hand pose tracking and estimation using stereo matchingEB/OL.2022-06-15.https:/arxiv.org/abs/1610.07214v1.18 SRIDHAR S

50、,MUELLER F,ZOLLHFER M,et al.Real-time joint tracking of a hand manipulating an object from RGB-D inputC/European Conference on Computer Vision.Cham:Springer International Publishing,2016:294-310.19 BOUKHAYMA A,DE BEM R,TORR P H S.3D hand shape and pose from images in the wildC/2019 IEEE/CVF Conferen

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服