收藏 分销(赏)

高精度抗遮挡的四目相机三维重建系统.pdf

上传人:自信****多点 文档编号:3076839 上传时间:2024-06-15 格式:PDF 页数:7 大小:8.09MB
下载 相关 举报
高精度抗遮挡的四目相机三维重建系统.pdf_第1页
第1页 / 共7页
高精度抗遮挡的四目相机三维重建系统.pdf_第2页
第2页 / 共7页
高精度抗遮挡的四目相机三维重建系统.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、文章编号:1002-2082(2024)02-0307-07高精度抗遮挡的四目相机三维重建系统陈鹏1,刘慧婷1,张磊1,王克逸1,蔡柏林2(1.中国科学技术大学精密机械与精密仪器系,安徽合肥230026;2.安徽大学互联网学院,安徽合肥230039)摘摘 要:要:多目相机用于三维重建能够提升精度,克服遮挡,可多方位获取目标的三维位置。为了更准确地恢复目标在空间中的分布情况,介绍了一种汇聚式四目相机三维重建系统。设计和搭建了围绕目标场景均匀分布四相机的重建平台,立体标定出相邻相机的相对位姿后,借助坐标系变换,获取每个相机在统一坐标系中的位置和姿态,并用传递次数最多的机位进行检验。检验结果表明,测

2、量出的位姿与经过传递推导的位姿一致。对 6665 阵列的棋盘标靶进行重建,在 45mm范围内最大相对误差为 0.061%;与拟合结果相比较,均方根误差为 0.3193m。使用金属块进行重建实验,能够通过其顶点恢复出形貌。实验结果表明,该装置能够用于高精度抗遮挡的三维重建系统中。关键词:关键词:三维重建;四目相机;立体标定;抗遮挡中图分类号:TN911.73;TP302.7文献标志码:ADOI:10.5768/JAO202445.0201005High-precision occlusion-resistant quad-vision camera 3D reconstruction syste

3、mCHENPeng1,LIUHuiting1,ZHANGLei1,WANGKeyi1,CAIBolin2(1.DepartmentofPrecisionMachineryandPrecisionInstrumentation,UniversityofScienceandTechnologyofChina,Hefei230026,China;2.SchoolofInternet,AnhuiUniversity,Hefei230039,China)Abstract:Multi-camerafor3Dreconstructioncanimprovetheaccuracyandovercomeoccl

4、usion,allowingfortheacquisitionof3Dpositionoftargetsfrommultipleviewpoints.Inordertomoreaccuratelyrecoverthedistributionoftargetsinspace,aconvergentquad-visioncamera3Dreconstructionsystemwasintroduced.Areconstructionplatformwasdesignedandbuiltwithfourcamerasevenlydistributedaroundthetargetscene.Afte

5、rcalibratingtherelativeposeofadjacentcamerasinthesystem,thepositionandposeofeachcamerainaunifiedcoordinatesystemwereobtainedthroughcoordinatesystemtransformation.Theposeofthecamerawiththemosttransformationswasverified,andthemeasurementresultswereconsistentwiththosederivedfromtransformation.Achessboa

6、rdtargetarrayofsize6665wasreconstructed,withamaximumrelativeerrorof0.061%withinarangeof45mm.Comparedwiththefittedresults,theroot-mean-square(RMS)errorwas0.3193m.Byusingametalblockforreconstructionexperiments,theshapecouldberecoveredthroughitsvertices.Experimentalresultsshowthatthedevicecanbeusedinhi

7、gh-precisionandocclusion-resistant3Dreconstructionsystems.Key words:3Dreconstruction;quad-visioncamera;stereocalibration;occlusion-resistant引言三维重建的研究一直是计算机视觉领域的经典方向,三维重建技术可以表征物体的形貌,定位目标点的位置坐标。从 1963 年 ROBERTSLG 介绍由物体图像获取三维信息的方法开始1,经过数十年的长足发展,无论是提出经典面片重构法的收稿日期:2023-03-30;修回日期:2023-05-24基金项目:国家自然科学基金(

8、52105538,61935008)作者简介:陈鹏(1996),男,硕士研究生,主要从事立体视觉研究。E-mail:通信作者:王克逸(1962),男,博士,博士生导师,主要从事光电系统、微光学与信息光学技术研究。E-mail:第45卷第2期应用光学Vol.45No.22024年3月JournalofAppliedOpticsMar.2024FURUKAWAAY的工作2,还是基于运动恢复结构算法优化后实现的 COLMAP 开源工具3,以及香港科技大学团队基于卷积网络提出的多视角立体视觉网络框架4,在三维重建领域都具有划时代的重要意义。然而,大多工作需要围绕目标场景连续采集 10 张以上具备高重叠

9、度的图像信息2,3,使用深度学习方法虽然只用一张图像就能估计出深度信息,但需要经过大量训练5-7。还有不少工作在双目视觉中使用优化匹配8-9和改善标定10的方法使三维测量更准确,也有其他团队采用平行式布局并在相机数目上寻求突破11-12,但是双目视觉和平行式布局受限于硬件结构13,在提升精度和抗遮挡性方面不及汇聚式四目立体视觉。针对上述问题,本文设计并搭建了四目相机三维重建系统,提出汇聚式四目相机统一坐标系的方案。从结构设计上使目标场景尽可能产生多组匹配,能充分发挥该系统深度测量上的敏感性,相较于双目和平行式布局相机具备高精度和抗遮挡的优势。1 基本原理1.1 三维重建原理POwXwYwZwP

10、w(xw,yw,zw)OcXcYcZcPc(xc,yc,zc)oxvxypxv(x,y)ouvuvp(u,v)P图 1 展示了相机的简单成像模型。图 1 中某一点,在世界坐标系中表示为,经过旋转和平移操作,变换到相机坐标系中,表示为。再经过投影,变换到图像平面坐标系中表示为,便完成了从三维空间到图像平面的转换。最后在同一平面内经过仿射变换,映射到像素坐标系,点即是 在像素平面的映射点。p(u,v)OuvuPc(xc,yc,zc)Pw(xw,yw,zw)vxOxyYcXcZcOcYwZwXwOwR Ty图 1 相机成像模型Fig.1 Imaging model of camera从世界坐标系到相

11、机坐标系的旋转平移变换有:xcyczc=R11R21R31R12R22R32R13R23R33TxTyTzxwywzw1(1)RT式中为旋转矩阵和平移向量构成的 34外参矩阵。从相机坐标系到像素坐标系的变换有:zcuv1=fx000fy0u0v01xcyczc即:uv1=fx000fy0u0v01xc/zcyc/zc1(2)fxfy(u0,v0)xc=xc/zcyc=yc/zc(xc,yc)P式中:和 表示相机在 X 轴和 Y 轴上的焦距;为主点坐标。设,则表示点 在某一归一化相机坐标系下的坐标。单目相机下的共线方程为xc=xczc=R11xw+R12yw+R13zw+TxR31xw+R32y

12、w+R33zw+Tzyc=yczc=R21xw+R22yw+R23zw+TyR31xw+R32yw+R33zw+Tz(3)基于图像的三维重建,产生立体视觉需要目标点在不同图像中的位置信息14。双目相机产生的对应点示意图如图 2 所示。zOc1p1(x1,y1)Ox1,y1Ox2,y2Oc2Pw(xw,yw,zw)p2(x2,y2)图 2 双目相机产生的对应点示意图Fig.2 Schematic diagram of corresponding points gener-ated by binocular cameraPp1p2图 2 中点 在不同的 2 个相机产生 2 个图像的点、,根据(3)

13、式产生 4 个共线方程:xc1=R(1)11xw+R(1)12yw+R(1)13zw+T(1)xR(1)31xw+R(1)32yw+R(1)33zw+T(1)zyc1=R(1)21xw+R(1)22yw+R(1)23zw+T(1)yR(1)31xw+R(1)32yw+R(1)33zw+T(1)zxc2=R(2)11xw+R(2)12yw+R(2)13zw+T(2)xR(2)31xw+R(2)32yw+R(2)33zw+T(2)zyc2=R(2)21xw+R(2)22yw+R(2)23zw+T(2)yR(2)31xw+R(2)32yw+R(2)33zw+T(2)z(4)R(1)T(1)R(2)T

14、(2)式中:、以及、分别表示第一个和第二308应用光学第45卷第2期(xc1,yc1)(xc2,yc2)个相机坐标系相对世界坐标系的旋转、平移变换;和表示点在第一个和第二个归一Ax=0化相机坐标系下的坐标。对(4)式联立 4 个等式移项后可以进一步表示为的形式,即:xc1R(1)31R(1)11yc1R(1)31R(1)21xc2R(2)31R(2)11yc2R(2)31R(2)21xc1R(1)32R(1)12yc1R(1)32R(1)22xc2R(2)32R(2)12yc2R(2)32R(2)22xc1R(1)33R(1)13yc1R(1)33R(1)23xc2R(2)33R(2)13yc

15、2R(2)33R(2)23xc1T(1)zT(1)xyc1T(1)zT(1)yxc2T(2)zT(2)xyc2T(2)zT(2)yxwywzw1=0000(5)A=xc1R(1)31R(1)11yc1R(1)31R(1)21xc2R(2)31R(2)11yc2R(2)31R(2)21xc1R(1)32R(1)12yc1R(1)32R(1)22xc2R(2)32R(2)12yc2R(2)32R(2)22xc1R(1)33R(1)13yc1R(1)33R(1)23xc2R(2)33R(2)13yc2R(2)33R(2)23xc1T(1)zT(1)xyc1T(1)zT(1)yxc2T(2)zT(2)

16、xyc2T(2)zT(2)yVAx=0(xw,yw,zw)式中:通常满秩,对其进行 SVD 分解,矩阵的最后一列就是的最小二乘解,前 3 个元素除以第 4 个元素即可得到值。(1)式(5)式给出了目标点在不同图像的像素坐标,恢复其在世界坐标系的具体位置的理论推导。1.2 多目相机统一坐标系根据上述可知,目标点通过不同相机的视场能重建出世界坐标,增加相机数目能提高重建的精度和抗遮挡性能15-16。相机坐标系之间的转换关系可用下式表示:Ck=Rj,kCj+Tj,k(6)CjRj,kTj,kCk(6)式表示空间中的点在 j 号相机坐标系的投影点坐标,可以使用 j 号相机与 k 号相机之间的旋转矩阵和

17、平移向量,转换到 k 号相机坐标系下的投影坐标。四目相机可以根据上述相机坐标系传递模型进行以下转换:C2=R1,2C1+T1,2C3=R2,3C2+T2,3C4=R3,4C3+T3,4(7)进一步可以表示为C2=R1,2C1+T1,2C3=R2,3R1,2C1+R2,3T1,2+T2,3C4=R3,4R2,3R1,2C1+R3,4R2,3T1,2+R3,4T2,3+T3,4(8)1 号相机相对于自身的旋转矩阵为单位阵,平移向量为零向量。至此,以 1 号相机坐标系为起始坐标系,完成了四目相机坐标系的统一。由(8)式可知,每个相机在统一坐标系下都有自身位姿的固定表达,根据(5)式,即可求出任意两相

18、机视场中对应点的世界坐标。2 实验与分析为验证四目相机三维重建系统重建目标点的精度和抗遮挡性能,设计并搭建了四目相机三维重建平台,进行了统一坐标系和三维重建的实验。2.1 实验装置四目相机三维重建平台实物图如图 3(a)所示。该系统由一套均匀分散的汇聚式四目相机组、一个高度位移平台以及 4 张图像采集卡等组成,四目相机组的结构布局图如图 3(b)所示。(a)四目相机三维重建平台实物图图像采集卡高度位移台四目相机组516810.3 cm(b)四目相机组的结构布局图图 3 四目相机三维重建平台Fig.3 3D reconstruction platform based on quad-vision

19、camera四目相机组相对夹角为 68,相邻夹角为 51,工作距离为 10.3cm,每只相机由 OPTO 公司生产应用光学2024,45(2)陈鹏,等:高精度抗遮挡的四目相机三维重建系统309的 TC23036 双远心光学镜头和埃科光电公司生产的 TS5MCL-156M 灰度图像传感器组成。目标物体通过高度位移台调整到合适的工作空间,相机通过 CameraLink 接口与主机连接传输图像,程序软触发控制相机采集同一场景的图像。2.2 统一坐标系实验根据(5)式和(7)式可知,统一坐标系的基础是获得所有相机之间的位姿,首先需要进行双目标定。相邻相机组成左右立体相机,拍摄同一场景的标靶图像进行双目

20、标定,求解两两相机之间的位姿关系17。使用的标靶为黑白相间的棋盘格,含有 6665 个内角点,格点间距为 0.5mm,加工精度10m。值得注意的是,本实验双目标定需要按照相对左右的顺序进行18,因此,最后一组标定出 1 号相机相对 4 号相机(Cam4,1)的位姿,而非4 号相机相对 1 号相机(Cam1,4)的位姿。标定出相邻相机之间的旋转矩阵、平移向量以及重投影误差的结果如表 1 所示。表 1 双目相机间的外参及其重投影误差Table 1 External parameters and reprojection error of each stereo camera立体相机组R旋转矩阵T平

21、移向量重投影误差/pixelCam1,20.000 00.860 20.509 90.839 60.276 90.467 30.543 20.428 10.722 36 659.251 06 103.255 231 774.554 70.3405Cam2,30.001 40.850 30.526 30.847 10.280 70.451 30.531 40.445 20.720 721 692.761 818 610.735 527 990.843 71.2129Cam3,40.017 10.863 20.504 60.882 80.223 80.412 90.469 40.452 50.75

22、8 2875.785 8696.793 919 489.329 01.1953Cam4,10.016 30.892 10.451 60.844 20.254 30.471 90.535 70.373 50.757 39 383.368 99 802.680 32 675.676 50.3437根据(8)式,以 1 号相机的坐标系为基准,各相机在统一坐标系后的位姿如表 2 所示。表 2 统一坐标系中相机的位姿Table 2 Position and pose of each camera in unified co-ordinate system相机R旋转矩阵T平移向量Cam11.000 00.

23、000 00.000 00.000 01.000 00.000 00.000 00.000 01.000 00.000 00.000 00.000 0Cam20.000 00.860 20.509 90.839 60.276 90.467 30.543 20.428 10.722 36 659.251 06 103.255 231 774.554 7Cam30.999 80.011 30.016 50.009 50.457 70.889 10.017 70.888 90.457 6210.461 311 625.114 24 296.365 4Cam40.016 30.843 90.536 2

24、0.892 00.254 60.373 40.451 60.472 20.757 07 001.092 14 875.520 210 893.141 5统一坐标系后,通过 2 次关系传递推导出 4 号R1,4T1,4R4,1T4,1相机的相对位姿,即表 2 中第 4 项数据,作为间接结果。表 1 中双目标定实验检测出1 号相机相对 4 号相机的位姿,根据(9)式:R1,4=R14,1,T1,4=R14,1T4,1(9)R1,4T1,4Xi,jX1 i m,1 j nXEEi,j=?Xi,jXi,jXi,j?求出 4 号相机相对 1 号相机的位姿,作为直接测定的结果。根据旋转矩阵和平移向量的性质

25、,直接测得和推导的矩阵对应位置元素应相同。因此,对于 mn 矩阵,表示间接推导出的矩阵中第 i 行 j 列的元素(),表示直接测出的矩阵。自定义相对误差矩阵,对于其中每个元素都有。对比直接测定结果和间接推导结果,验证 1.2 节方法的正确性,对比情况如表 3 所示。从表 3 中可知,对于 4 号相机的相对位姿,相对误差矩阵中的元素最大为 0.13%,可以认为直接测定结果和间接推导结果相同,证明了上述相机统一坐标系方法的正确性。310应用光学第45卷第2期2.3 三维重建实验C24C23C22对棋盘标靶进行四目相机三维重建实验。在该平台中,任意 2 个相机采集到目标点即可以进行三维重建。若所有相

26、机都采集到目标场景的对应点,则有个重建结果。同理,若有 3 个相机采集到对应点,则有个重建结果。由于本重建平台的结构布局,至少能有 2 个相机采集到对应点,则至少有个重建结果。使用四目相机采集上述标定使用的棋盘格图像,对同一场景的棋盘格进行重建。平面中每个格点都能被所有相机采集,故共有 6 组三维坐标数据,取平均值后融合点云,绘制出如图 4所示的棋盘格点空间分布图。拟合出平面方程为z=13060.29645-0.03291x+0.65835y,对比重建值,得到均方根误差为 0.3193m。以格点间距为真值,计算相邻点云之间的距离,测量结果如表 4 所示。1.307 01041.306 51.3

27、06 01.305 51.305 02002020020Z/mm1.306 41.306 21.306 0104Z/mmY/mmX/mmY/mmX/mm520246805(a)棋盘格点空间分布全貌图(b)棋盘格点空间局部放大图X 0.691 838Y 2.086 62Z 13 061.7X 0.691 838Y 2.086 62Z 13 061.7图 4 四目相机重建出的棋盘格点空间分布图Fig.4 Spatial distribution diagram of checkerboard pointsreconstructed by quad-vision camera表 4 棋盘格点间距测量

28、结果Table 4 Checkerboard grid point spacing measurementresultsmm间距统计数量/个 最大值 最小值 最大误差 均值 标准差纵向间距42240.5170.4890.0170.5000.005横向间距42250.5150.4830.0170.5000.005所有间距84490.5170.4830.0170.5000.005相距最远的对角棋盘格点的空间距离相对真值距离的误差如表 5 所示。表 5 相对误差Table 5 Relative errors已知间距/mm对角距离/mm相对误差/%45.61045.6380.06145.5940.03

29、5使用尺寸为 5mm5mm5mm 的金属方块进行重建实验,验证抗遮挡性能。四目相机单次采集方块的 4 个视场的图像,各图像提取的顶点坐标如图 5(a)5(d)所示。A(1 314,852)B(1 355,854)A(1 519,1 018)E(1 502,1 140)H(1 326,1 272)G(1 161,1 113)C(1 175,989)C(1 299,882)B(1 462,1 040)F(1 463,1 162)E(1 279,1 305)F(1 261,1 286)G(1 441,1 150)C(1 435,1 018)D(1 273,867)A(1 093,1 002)E(1

30、098,1 128)H(1 124,1 150)D(1 120,1 027)D(1 473,1 006)H(1 463,1 142)G(1 284,1 277)F(1 127,1152)B(1 129,986)(a)1 号相机提取的角点(b)2 号相机提取的角点(c)3 号相机提取的角点(d)4 号相机提取的角点表 3 4 号相机位姿的直接测定结果和推导结果对比Table 3 Comparison of direct and derived results of position and pose for No.4 cameraX直接结果X推导结果E相对误差矩阵R0.016 30.844 20

31、.535 80.892 10.254 30.373 50.451 50.471 80.757 20.016 30.843 90.536 20.892 00.254 60.373 40.451 60.472 20.757 00.001 00.000 40.000 80.000 00.001 30.000 40.000 20.000 80.000 3T6 995.300 44 878.855 210 887.774 17 001.092 14 875.520 210 893.141 50.000 80.000 70.000 5应用光学2024,45(2)陈鹏,等:高精度抗遮挡的四目相机三维重建系统

32、311A(1 314,852)B(1 355,854)A(1 519,1 018)E(1 502,1 140)H(1 326,1 272)G(1 161,1 113)C(1 175,989)C(1 299,882)B(1 462,1 040)F(1 463,1 162)E(1 279,1 305)F(1 261,1 286)G(1 441,1 150)C(1 435,1 018)D(1 273,867)A(1 093,1 002)E(1 098,1 128)H(1 124,1 150)D(1 120,1 027)D(1 473,1 006)H(1 463,1 142)G(1 284,1 277

33、)F(1 127,1152)B(1 129,986)(a)1 号相机提取的角点(b)2 号相机提取的角点(c)3 号相机提取的角点(d)4 号相机提取的角点图 5 各视场下提取的方块角点Fig.5 Extracted corner points of square in each field ofview融合 3 组点云后,重建出金属块三维形貌图,并使用 Matlab 做简单的渲染,如图 6 所示。实验结果表明,即使背对相机的方块顶点被遮挡,正对相机的顶点不易提取,仍然能重建出该金属方块,每个顶点至少能在 3 个相机的视场中被提取出,最终融合 3 组点云呈现该结果。1.306 41.306 2

34、1.306 01.305 81.305 61.305 4462024505104Z/mmY/mmX/mm图 6 金属块三维重建图Fig.6 Three-dimensional reconstruction diagram of metalcube3 结论本文介绍了一套高精度的四目相机三维重建系统,先对系统中的多目相机组进行了统一坐标系的实验,结果验证了统一坐标系理论方法的正确性。应用前述三维重建的原理,知道匹配点在对应图像中的像素坐标即能重建出其世界坐标。分别对棋盘标靶的格点以及金属方块进行重建,0.5mm 范围内的最大重建误差为 0.017mm,最大相对误差在 3.4%以下;在 45mm 的

35、范围内,最大相对误差为 0.061%;与拟合的平面对比,重建结果的均方根误差为 0.3193m,且顺利恢复出方块所有方向的顶点空间位置,达到高精度的同时表现出良好的抗遮挡性能。在生产中,该重建系统可应用于工业中电子元器件的缺失检测和自动化生产中的质量控制,以及在工业设计和制造领域中的三维建模。本系统还有优化的空间,相信在使用更高精度的标靶,结合高效的匹配方法后,系统的重建精度还能明显提升,在高精度的三维测量中发挥更大的作用。参考文献:ROBERTSLG.Machineperceptionofthree-dimension-alsolidsD.Cambridge:MassachusettsIns

36、tituteofTech-nology,1963.1FURUKAWAY,PONCEJ.Carvedvisualhullsforim-age-basedmodelingC/ComputervisionECCV2006:9theuropeanconferenceoncomputervision,Graz,Aus-tria,May7-13,2006.Berlin,Heidelberg:Springer,2006:564-577.2SCHONBERGERJL,FRAHMJ-M.Structure-from-mo-tionrevisitedC/ProceedingsoftheIEEEconference

37、oncomputer vision and pattern recognition.Piscataway:IEEE,2016:4104-4113.3YAOY,LUOZ,LIS,etal.Mvsnet:depthinferenceforunstructured multi-view stereoC/Proceedings of theeuropeanconferenceoncomputervision(ECCV).Cham:Springer,2018:767-783.4DUANZ,CHENY,YUH,etal.RGB-fusion:monocular3Dreconstructionwithlea

38、rneddepthpredictionJ.Dis-plays,2021,70:102100.5JUNGG,YOONSM.Monoculardepthestimationwithmulti-view attention autoencoderJ.Multimedia ToolsandApplications,2022,81(23):33759-33770.6PANJ,LIL,YAMAGUCHIH,etal.3Dreconstructionof Borobudur reliefs from 2D monocular photographsbased on soft-edge enhanced de

39、ep learningJ.ISPRSJournal of Photogrammetry and Remote Sensing,2022,183:439-450.7CHENL,ZHONGG,HANZ,etal.Binocularvisualdi-mensionmeasurementmethodforrectangularworkpiece8312应用光学第45卷第2期withaprecisestereoscopicmatchingalgorithmJ.Meas-urementScienceandTechnology,2022,34(3):035010.LIUY,WANGY,CAIX,etal.T

40、hedetectioneffectofpavement3Dtexturemorphologyusingimprovedbinocu-larreconstructionalgorithmwithlaserlineconstraintJ.Measurement,2020,157(2):107638.9HUG,ZHOUZ,CAOJ,etal.Highlyaccurate3Drecon-structionbasedonapreciseandrobustbinocularcameracalibration methodJ.IET Image Processing,2020,14(14):3588-359

41、5.10屠礼芬,彭祺,仲思东.基于四目系统的真实场景三维建模J.应用光学,2016,37(1):12-16.TU Lifen,PENG Qi,ZHONG Sidong.Real scene 3Dmodellingbasedonfour-cameravisionsystemJ.Journ-alofAppliedOptics,2016,37(1):12-16.11仲思东,刘勇.便携式四目立体摄影测量系统及方法:CN102679961AP.2012-09-19.ZHONGSidong,LIUYong.Portablefour-camerathree-dimensionalphotographicme

42、asurementsystemandmeth-od:CN102679961AP.2012-09-19.12刘红帝,吕睿,田林雳,等.用于引导机器人定位的汇聚式双目视觉算法实现J.机械工程学报,2022,58(14):161-169.LIUHongdi,LYURui,TIANLinli,etal.Realizationofconvergentbinocularvisionalgorithmforguidingrobot13localizationJ.Journal of Mechanical Engineering,2022,58(14):161-169.MARRD,POGGIOT.Acompu

43、tationaltheoryofhumanstereo visionJ.Proceedings of the Royal Society ofLondon.SeriesB.BiologicalSciences,1979,204(1156):301-328.14毕松林.基于近红外三目立体视觉的口腔种植导航仪关键技术研究D.合肥:中国科学技术大学,2022.BISonglin.Researchonkeytechnologiesofdentalim-plant navigator based on near-infrared trinocular stereovisionD.Hefei:Univer

44、sityofScienceandTechnologyofChina,2022.15唐峰.基于图像处理的多目三维重建系统D.南京:南京理工大学,2021.TANG Feng.Multi-camera 3D reconstruction systembased on image processingD.Nanjing:Nanjing Uni-versityofScienceandTechnology,2021.16Camera calibration and 3D reconstructionEB/OL.(2019-04-07).2023-03-26.https:/docs.opencv.org/4.1.0/d9/d0c/group_calib3d.html#ga91018d80e2a93ade37539f01e6f07de5.17KAEHLERA,BRADSKIG.LearningOpenCV3:com-puter vision in C+with the OpenCV libraryM.Se-bastopol:OReillyMedia,2017:721-724.18应用光学2024,45(2)陈鹏,等:高精度抗遮挡的四目相机三维重建系统313

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服