1、文章编号2097-1842(2024)02-0278-13基于多特征 SAD-Census 变换的立体匹配算法吴福培,黄耿楠*,刘宇豪,叶玮琳,李昇平(汕头大学工学院机械工程系,广东汕头515063)摘要:视差不连续区域和重复纹理区域的误匹配率高一直是影响双目立体匹配测量精度的主要问题,为此,本文提出一种基于多特征融合的立体匹配算法。首先,在代价计算阶段,通过高斯加权法赋予邻域像素点的权值,从而优化绝对差之和(SumofAbsoluteDifferences,SAD)算法的计算精度。接着,基于 Census 变换改进二进制链码方式,将邻域内像素的平均灰度值与梯度图像的灰度均值相融合,进而建立左
2、右图像对应点的判断依据并优化其编码长度。然后,构建基于十字交叉法与改进的引导滤波器相融合的聚合方法,从而实现视差值再分配,以降低误匹配率。最后,通过赢家通吃(WinnerTakeAll,WTA)算法获取初始视差,并采用左右一致性检测方法及亚像素法提高匹配精度,从而获取最终的视差结果。实验结果表明,在 Middlebury 数据集的测试中,所提 SAD-Census 算法的平均非遮挡区域和全部区域的误匹配率为分别为 2.67%和 5.69%,测量 200900mm 距离的平均误差小于 2%;而实际三维测量的最大误差为 1.5%。实验结果检验了所提算法的有效性和可靠性。关键词:机器视觉;立体匹配;
3、SAD-Census 变换;十字交叉法;引导滤波中图分类号:TP391.4文献标志码:Adoi:10.37188/CO.2023-0082Stereomatchingalgorithmbasedonmulti-featureSAD-CensustransformationWUFu-pei,HUANGGeng-nan*,LIUYu-hao,YEWei-lin,LISheng-ping(Department of Mechanical Engineering,College of Engineering,Shantou University,Shantou 515063,China)*Corres
4、ponding author,E-mail:Abstract:Thehighmismatchingrateoftheparallaxdiscontinuityregionandtherepeatedtextureregionhasbeenamajorissueaffectingthemeasurementaccuracyofbinocularstereomatching.Forthesereasons,weproposeastereomatchingalgorithmbasedonmulti-featurefusion.Firstly,theweightofneighboringpixelsi
5、sgivenusingGaussianweightingmethod,whichoptimizesthecalculationaccuracyoftheSumofAbsoluteDifferences(SAD)algorithm.BasedontheCensustransformation,thebinarychaincodetechniquehasbeenenhancedtofusetheaveragegrayvalueofneighborhoodpixelswiththeaveragegrayvalueofgradientim-收稿日期:2023-05-08;修订日期:2023-06-02
6、基金项目:国家自然科学基金(No.61573233);广东省自然科学基金(No.2021A1515010661);广东省普通高校重点领域专项(No.2020ZDZX2005)SupportedbyNationalNaturalScienceFoundationofChina(No.6l573233);NaturalScienceFoundationofGuangdong Province(No.2021A1515010661);Special Projects in Key Areas of General Universities inGuangdongProvince(No.2020ZDZ
7、X2005)第17卷第2期中国光学(中英文)Vol.17No.22024 年 3 月ChineseOpticsMar.2024age,andthenthejudgmentbasisoftheleftandrightimagecorrespondingpointsisestablished,andthecod-inglengthisoptimized.Secondly,anaggregationtechniquehasbeendevelopedthatcombinesthecrossmethodandtheimprovedguidefiltertoredistributedisparityval
8、ueswiththeaimofminimizingfalsematch-ingrate.Finally,theinitialdisparityisobtainedbytheWinnerTakeAll(WTA)algorithm,andthefinaldis-parityresultsareobtainedbytheleft-rightconsistencydetectionmethod,sub-pixelmethod,andthenastereomatchingalgorithmbasedonthemulti-featureSADCensustransformisestablished.The
9、experimentalres-ultsshowthatinthetestingoftheMiddleburydataset,theaveragemismatchratesoftheproposedalgorithmfornon-occludedregionsandallregionsare2.67%and5.69%,theaverageerrorofthe200900mmdis-tanceislessthan2%,andthemaximumerroroftheactual3Ddatameasurementis1.5%.Experimentalres-ultsverifytheeffectiv
10、enessoftheproposedalgorithm.Keywords:machinevision;stereomatching;SAD-Censustransform;crossmethod;guidedfiltering1引言立体匹配是双目视觉测量法的关键,通过提取双目相机采集的左右图像的深度信息,从而实现目标的三维测量。然而,如何提升双目图像立体匹配的准确性并提高双目视觉的测量精度仍是当前该研究领域所面临的主要问题。总体上,立体匹配过程可归纳为匹配代价计算、代价聚合、视差计算和视差优化四个步骤。而在算法构架上,立体匹配又可分为全局匹配和局部匹配两种。其中,全局立体匹配算法将图片的像素点
11、匹配问题转化为寻找全局能量函数的最优化问题,进而通过能量函数最小化法求取视差,已发展的主要算法有置信传播、最小生成树、动态规划、图割法等。该类方法具有较低的误匹配率,但普遍存在运算量大、效率不高的问题,且因其算法模型通常较为模式化,故其鲁棒性往往受限。相对而言,局部匹配算法的计算复杂度低、灵活性强,其效率比全局匹配算法高,通常采用基于区域、特征、相位的局部立体匹配算法实现其代价计算,如绝对差(AD)、绝对误差和(SAD)、误差平方和(SSD)1和倾斜支持窗模型(PMS)2。其中,作为常用的局部匹配算法归一化互相关算法(NCC)能更好地抵抗噪声3,且对光的变化鲁棒性高,但该方法计算量大,效率不高
12、。事实上,局部匹配算法难以处理无纹理或重复纹理的图像,且对光变化和噪声敏感,常用于简单场景。为解决复杂场景和光照变化对匹配准确性的影响,LEEJ 等4提出 Census 变换方法。该方法在无纹理图像中具有较低的误匹配率,然而其较依赖中心像素,当中心像素受到噪声影响时,可能会降低匹配精度。为进一步提高立体匹配的局部算法的计算效率,彭新俊等5利用 Census 邻域的中值来替换中心像素,从而提高算法的稳健性;刘建国等6在 Census变换阶段,通过计算变换窗口周围的像素平均值以降低外界噪声干扰的影响;杨春丽等7基于深度学习的双目视觉测量方法,利用PSM-Net 网络模型获取视差图;HosniA 等
13、8将SAD 与梯度信息的相结合,在计算时将匹配点和待匹配点各自的梯度值以及支持窗口内各像素灰度差的绝对值之和作为匹配代价的依据;孔令寅等9通过融合 AD、Census 变换和梯度计算并获得匹配代价,进而提高立体匹配的精度。此外,在Census 变换的改进优化方面,ChangNYC 等10提出基于 Mini-Census 变换,其将中心像素邻域窗口 8 个像素点的灰度与中心灰度值大小进行比较,进而改进二进制链码的生成方式,提高其计算效率。该方法对中心点的灰度值仍过于依赖,其抗干扰性有待提高。王森等11采用 RGB 向量梯度与 Census 变换相结合的匹配算法,以保留更多的色彩信息以计算聚合区域
14、。总体而言,局部匹配代价计算方法根据邻域像素确定支持窗口,通过对窗口内像素进行约束,减少误差,提高视差估计的准确性。然而,由于局部立体匹配各像素间的视差存在着一定的相关性,为进一步提高其匹配精度,通常需将所在支持域内的初始代价进行聚合计算。第2期吴福培,等:基于多特征 SAD-Census 变换的立体匹配算法279为此,ZhangK 等12结合邻域像素的颜色信息,提出了基于十字交叉的自适应支持域的构建方法。在此基础上,WangWQ 等13改进了支持域的构建策略,提升了图像边界的处理能力。为解决边缘处深度不连续区域误匹配率较高的问题,ChengFY 等14提出了边缘先验和超像素先验两种不同的先验
15、方法来处理跨越深度边界的错误代价聚集。为取得更好的聚合性能,洪梓嘉等15在代价聚合步骤中采用了多尺度代价合并的分割树算法,可快速得到良好的视差图。另一方面,ZhanYL 等16采用导向滤波器和双边滤波器来生成导向图像,得到了良好的边缘保持和均匀区域平滑性能。YaoM 等17利用自适应支持域、多径和自适应惩罚的混合成本聚合框架,将沿多个路径的成本相加,使得深度不连续区域的错误率较低。此外,YangQX18根据像素相似度将它们自适应聚合到树结构上,然而其所提代价聚合弥补在代价计算中只考虑了局部相关性的问题,对噪声干扰的抑制有限。从上述分析可知,深度不连续区域误匹配及视差计算精度不高仍是当前双目立体
16、匹配面临的主要问题。因此,为提高双目立体匹配的计算精度,本文提出基于优化 SAD,融合 Census 变换的方法,构建匹配代价计算函数,从而在左右图像中提高像素点的定位精度,并在代价聚合阶段,建立基于自适应阈值的十字交叉法与改进引导滤波相融合的方法,最后进一步优化视差值,从而获到最终匹配结果。2算法描述基于双目相机标定校正之后拍摄的图像建立新的立体匹配算法,分别实现了代价计算、代价聚合、视差计算和视差优化,最后获取视差结果。其中,代价计算利用高斯加权优化 SAD 变换,并与基于梯度信息的改进二进制链码的 Census变换相结合;代价聚合采用改进十字交叉法与改进引导滤波相融合的方法;视差计算利用
17、 WTA算法计算初始视差;视差优化采用左右一致性检测、亚像素法提高精度,并利用中值滤波得到最终的视差结果。2.1基于高斯加权构建新型 SAD 算法传统的 SAD 算法在左右视图邻域内做差并求集合,其卷积块中心像素的权重与外围像素点的权重比相同。为提高中心点的权重,本文利用如式(1)所示的高斯变换对邻域内像素点进行加权,离中心越近其权值越大。接着,通过改进传统 SAD 的计算方式从而提高左右匹配精度,进而降低噪声的影响。G(x,y)=122ex2+y222.(1)高斯变换可看作二维的正态分布,其离散度随标准差 的增加而增强。为突出中心分布的差异性以获取理想的高斯卷积块,故选取较小的标准差,通过中
18、心归一化后可得到最终的高斯加权的卷积块。综上所述,基于 SAD 变换,利用高斯变换对邻域内相应的像素点位置赋予权重,从而提高左右同名点的敏感度,其中 SAD 变换的代价计算函数如式(2)表示为:CSAD(x,y)=hhww|IL(x+i,y+j)IR(x+d+i,y+j)|,d dmin,dmax,(2)式中 IL、IR分别为左、右视图的灰度值,d 为最大视差 dmax和最小视差 dmin之间的任意数值,h 和w 为计算窗口的长宽。2.2基于改进二进制链码的 Census 变换分析传统的 Census 变换是通过比较支持窗口Np内中心位置 p 与邻域像素点 q 的大小关系,从而获取 0 或 1
19、 的二进制链码,然后计算左右视图两个对应点二进制编码的 Hamming 距离,其Hamming 距离计算函数如式(3)所示:Scen(p,d)=qNp(p,q)(p,q)=1I(p)I(q)0I(p)I(q),(3)式中 Scen代表在支持窗口内的 Census 二进制链码,表示按位连接,I(p)、I(q)分别为窗口内像素点 p、q 的灰度值,(p,q)为左视图任意一点通过比较大小关系之后得到的二进制编码。基于上式,输入图像对应的 Census 二进制链码,可求得280中国光学(中英文)第17卷左右视图的 Hamming 距离,从而得到如式(4)所示的初步 Census 匹配代价函数:Ccen
20、(p,d)=HammingScen(p,q),Scen(pd,q),(4)Scen(pd,d)Ccen式中,表示在右视图中,视差为 d 的Census 二进制链码;代表 Hamming 距离,是通过左右视图同名点两条二进制编码对应位相异的个数之和。通常情况下,传统的 Census 变换对中心像素值的变动比较敏感,当出现椒盐、高斯噪声或光照不均匀时,易造成左右图像链码的突变。本文利用邻域均值代替中心数值以降低干扰,提高匹配准确性。为进一步提高算法对图像边缘和深度不连续区域的匹配精度,提出采用Sobel 梯度算子计算 x、y 方向的梯度,并基于梯度图像获取其代价。在此基础上,将两者相结合进而改进二
21、进制链码获取方式,以提高立体匹配的精度。将公式(3)改进后获取二进制编码的具体规则如式(5)所示:(p,q)11I(p)I(q);(p)(q)10I(p)I(q);(p)(q)01I(p)I(q);(p)(q)00I(p)I(q);(p)(q),(5)其中I(x,y)=hhwwI(x+i,y+j)N1,(6)(f)=grad(f)=gxgy=fxfy(x,y)=hhww(x+i,y+j)N1,(7)I(x,y)(x,y)式(6)中为支持窗口内所有邻域像素点的灰度均值,并用其替换中心点的灰度值,N 为窗口内所有像素点的个数;式(7)中为梯度图中支持窗口内所有邻域像素点的梯度均值。通过实验分析可得
22、,当中心点受到干扰,灰度值从 68 变为 88 时,如图 1 所示,由 Sobel 梯度算子知,中心像素的突变将影响邻域梯度的计算结果,从而导致该匹配点梯度邻域有 6 个像素点的梯度数值均发生改变,同样利用均值替换中心数值,计算得到的编码仍为 0001110000011110。灰度值50 70 8862 68 6967 73 7714 82 6520 74 5370 158 4950 70 8862 88 6967 73 7754 122 6560 74 1370 118 950 70 8862 70 6967 7300 01 11 00 00 01 11 1000 01 11 00 00 0
23、1 11 107714 82 6520 64 5370 158 4950 70 8862 70 6967 73 7754 122 6560 64 1370 118 9梯度值中心均值替换中心均值替换灰度值梯度值图1改进 Census 变换示意图Fig.1SchematicdiagramofimprovedCensustransform本文将改进 SAD 和 Census 变换算法进行融合并做归一化处理,得到算法的初始匹配代价,其融合计算函数如式(8)所示:C(p,d)=2expCSAD(p,d)expCcen(p,d),(8)2.3代价聚合模型建立立体匹配得到的视差值通常易存在诸多误匹配结果,需
24、对视差值做进一步分配,更新原来的代价权重,进而提升视差结果的稳定性。对此,本文提出一种自适应阈值的十字交叉法(Cross-BasedCostAggregation,CBCA)和引导滤波相融合的代价聚合方法。如图 2 所示,十字交叉法以像素为中心往左右及上下延伸,当遇到颜色(亮度)和该像素灰度值差别较大时停止延伸。其判别函数可表示为:Dc(p1,p)1andDcp1,p1+(1,0)1,Ds(p1,p)L1,Dc(p1,p)2ifL2 Ds(p1,p)0=1,(20)dRpdL(p),0式(20)中 dL(p)为 左 视 图 中 点 p 的 视 差 值,为右视图中与点 p 对应的视差值,0为容限
25、阈值,若左右对应点视差大于 1 则为异常点。为进一步细化视差值,本文将对视差图进行插值处理,并采用亚像素法处理 d(p)。为减少深度不连续性引起的误差,将通过如式(21)所示的内插视差的子像素值,进一步提高其匹配精度。其表达式为:d(p)=d(p)Cagg(p,d+1)Cagg(p,d1)2(Cagg(p,d+1)2Cagg(p,d)+Cagg(p,d1),(21)其中,d(p)为像素点 p 的视差值,Ccgg(p,d+1)和Ccgg(p,d1)分别为 p 点在视差为 d+1 和 d1 时的聚合代价。最后利用中值滤波,得到最终的视差。3实验结果与分析本算法采用C+语言实现,编译环境为VS201
26、7并采用OpenCV 库完成,所用计算机配置为Window10专业版,16GRAM,i5-10400FCPU。为进一步检验本文所提算法的有效性和优越性,利用双目标准数据库 Middlebury 对立体匹配算法进行评估。实验相关参数如表 1 所示。表1实验参数设置Tab.1ExperimentalparametersettingParameterValueParameterValue20.0031160.0012497L13010.6L21520.4013.1匹配计算的验证为验证本文算法中所用匹配计算方法的性能,对改进前后的方法分别实验,并进行比较分析。第一种为传统 SAD 与 Census 变
27、换的融合;第二种为传统 SAD 与优化 Census 变换的融合;第三种为本论文所提算法,其实验结果如图 4 所示。实验结果表明,所提算法的视差图中误匹配区域面积(方框)更小,整体效果明显优于其它两种方法,表明本文所提算法可更好地进行像素点定位,降低其误匹配率。第2期吴福培,等:基于多特征 SAD-Census 变换的立体匹配算法2833.2算法对比分析如图 5 和图 6(彩图见期刊电子版)所示,选取 3 种经典的立体匹配算法 Census、AD-Census、SAD-Census 与本文算法进行比较,其中,Non为非遮挡区域错误匹配率,All 为全部区域的错误匹配率,Disc 表示深度不连续
28、区域误匹配率。通过实验结果可知,在不同测试图中,本文所提算法的全局误匹配率和非遮挡误匹配率均低于其它算法,在视差不连续以及重复纹理区域具有较高匹配精度,其平均全局误匹配率为 7.3%,非遮挡误匹配率为 4.56%。通过实验表明所提算法的效果明显优于其它 3 种算法,其匹配结果表现最优。(a)(b)(c)图43 种代价计算方法的视差图。(a)传统 SAD-Census 算法;(b)传统 SAD+改进 Census 算法;(c)本文算法Fig.4Parallaxmapsofthreecostcalculationmethods.(a)TraditionalSAD-Censusalgorithms;
29、(b)traditionalSAD+im-provedCensusalgorithm;(a)theproposedalgorithmMiddlebury benchmarkimages Middlebury benchmarkdisparity maps Census algorithmAD-Census algorithmSAD-Census algorithmThe proposed algorithm图54 种算法的实验结果图Fig.5Experimentalresultsof4kindsofalgorithms284中国光学(中英文)第17卷为进一步验证本文所提算法的鲁棒性和准确性,对
30、受到不同亮度和噪声干扰的左右视图进行立体匹配实验,结果如图 7 和图 8(彩图见期刊电子版)所示。由该实验结果可知,本文算法获得的视差图轮廓更为清晰,且有效区域的视差结果更平滑,误匹配区域较小。该实验结果表明本文所提算法可进一步降低误匹配率,能有效提高匹配精度和稳定性。为客观评价本文算法的性能,利用 Middle-bury 平台的数据集将本文算法与另外 6 种算法进行错误匹配实验,6 种算法包括 HCA17、Semi-Glob19、RTCensus22、Cross-ScaleGF23、GC-occ24、GradAdaptWgt25,并计算其在非遮挡区域和全部区域的误匹配率,如表 2 所示。由表
31、 2 可知,本文所提算法平均非遮挡区域和全部区域的误匹配率为分别为 2.67%和 5.69%,在深度不连续区域的平均误匹配率为 2.08%,明显低于其他算法,且在 Venus 图像的误匹配率最低分别为0.15%和 0.31%,其比 GC-occ、RTCensus 更具有优越性。(a)All region1412108All/(%)6420TeddyPianoRecycleAdirondackCensusAD-CensusSAD-Census本文算法Non/(%)012345678TeddyPianoRecycleAdirondack(b)Non regionCensusAD-CensusSAD
32、-Census本文算法Disc/(%)02468101214161820TeddyPianoRecycleAdirondack(c)Disc regionCensusAD-CensusSAD-Census本文算法图6不同算法的误匹配率Fig.6Mismatchrateofdifferentalgorithms(a)不均匀图像(a)Uneven image(b)AD-Census 算法(b)AD-Census algorithm(c)SAD-Census 算法(c)SAD-Census algorithm(d)本文算法(d)The proposed algorithm图7不同亮度下几种算法的实验
33、结果Fig.7Experimentalresultsof4kindsofalgorithmsatdifferentbrightnesslevels第2期吴福培,等:基于多特征 SAD-Census 变换的立体匹配算法2853.3算法三维精度测量实验为进一步检验本文所提算法的测量精度,基于所提算法进行立体匹配实验,对三维距离进行测量与分析,其结果如表 3 所示。由表 3结果可知,距离越近,其测量误差率越低,在200mm 距离的测量误差为 0.79%,而在 900mm处的测量误差为 1.36%,误差相对较大。主要原因在于:在相机分辨率不变的情况下,测量远距离像素点所占用的实际面积较大,易影响检测点
34、的定位,从而导致测量精度降低。在此基础上,本文针对距离测量的误差率进行实验对比,所选方法分别来自文献 26-30,其结果如图 9 所示。可知本文所提算法的平均误差率最小,明显优于其他算法,表明在测量距离实验中能够保持较高的正确率。(a)噪声干扰图像(a)Noise jamming image(b)AD-Census 算法(b)AD-Census algorithm(c)SAD-Census 算法(c)SAD-Census algorithm(d)本文算法(d)The proposed algorithm图8噪声干扰下各算法的实验结果Fig.8Experimentalresultsofdiffe
35、rentalgorithmsundernoiseinterference表2不同算法在非遮挡区域和全部区域的误匹配率Tab.2Mismatchrateofdifferentalgorithmsinthenon-occludedregionandallregions(%)AlgorithmTsukubaVenusTeddyConesAvgNonallDiscNonallDiscNonallDiscNonallDiscNonallDiscGC-occ1.192.016.241.642.196.7511.2017.4019.805.3612.4013.004.848.5011.45SemiGlob3
36、.263.9612.801.001.5711.306.0212.2016.303.069.758.903.346.8712.32RTCensus5.086.2519.201.582.4214.207.9613.820.304.109.5412.204.688.0116.48HCA1.312.470.940.110.230.244.239.453.675.6411.594.302.835.942.29Cross-ScaleGF2.382.858.401.131.989.267.0514.916.803.3211.007.993.477.6810.61GradAdaptWgt2.262.638.9
37、90.991.394.928.0013.1018.602.617.677.433.466.199.99Proposedalgorithm1.252.730.900.150.310.314.628.732.984.6910.984.112.675.692.08表3三维测距实验结果Tab.3Experimental results of three-dimensional dis-tancemeasurement序号 实际距离/mm 测量距离/mm 距离误差/mm 距离误差率/%1200198.421.580.792300302.552.550.853400403.763.760.94450049
38、5.054.950.995600606.066.061.016700707.567.561.087800809.529.521.198900912.2412.241.36286中国光学(中英文)第17卷为验证本文所提算法的实用性,需检验其实际三维测量精度。通过双目相机拍摄并标定校正图像,实验过程利用标准量块进行测量,且在视差图上进行边缘提以获取具体尺寸。通过定位长方形 4 个顶角的位置,并按顺序依次计算相邻两点之间的距离,最后进行均值处理获取测量数据。而在测量圆形量块时,首先定位圆心坐标,然后在圆轮廓上选取与圆心垂直的 4 个像素点,并转换为三维坐标,最后联立标准圆方程得到量块尺寸,结果如图
39、10 和表 4 所示。(b)图形轮廓检测(b)The circle contour detection(a)矩形轮廓检测(a)The rectangular contour detection图10样本视差结果图的边缘提取Fig.10Edgeextractionofsampleparallaxresultmaps图 10 和表 4 实验结果表明:通过视差结果提取样本的边缘轮廓,其中样本 1 和样本 2 为测量其长跟宽,样本 3 和样本 4 则测量其直径,总体上,实验结果的误差均小于 2%。直径的测量误差略高于直线,主要是因为在定位圆轮廓的过程中存在误差,且在深度不连续区域计算视差结果不够平滑,
40、从而影响霍夫圆的识别与提取,导致三维检测误差增加。同时,本文利用标准尺寸的量块进行厚度测量,通过本文算法求解目标场景的视差图,并利用背景与目标的深度差得到检测物体的厚度,其视差结果和检测数据如图 11 和表 5 所示。表4测量样本实验结果Tab.4Sampleexperimentalresults样本序号实际长度/mm测量长度/mm误差/mm误差率/%12019.95750.04250.213534.61440.38561.123535.16490.16490.475049.96720.03280.06354.94390.05611.121514.75650.24351.6242020.354
41、10.35410.713029.57840.42161.413000123Absolute error rate/(%)456400文献26文献29文献27文献30文献28本文算法500600700800Distance/mm900图9测距实验对比结果Fig.9Comparisonresults of distance measuring experi-ments第2期吴福培,等:基于多特征 SAD-Census 变换的立体匹配算法287通过上述实验可知,本文所提算法可实现小视场、深度变化微小物体的视差计算,其视差结果可清晰地呈现物体的表面轮廓。通过厚度测量,能够很好地控制检测误差,最小测量误
42、差为 0.0105mm,误差率为 1.05%,具有较高的检测精度。4结论针对双目视觉中立体匹配难以获取高匹配精度的问题,本文提出一种基于多特征融合的立体匹配算法,针对匹配代价计算和代价聚合进行算法优化和构建。在代价计算阶段,利用高斯加权优化 SAD变换,并与基于梯度信息的改进二进制链码的Census 变换相结合,有效降低了噪声干扰,能够更好地处理图像边缘信息,降低由于视差不连续产生的误匹配率。在代价聚合阶段,提出将基于十字交叉法的SGM 聚合与改进引导滤波相融合,在突出细节特征信息的同时能够较好地保护图像边缘区域,平滑图像的噪声。在噪声干扰与光照不均实验中,所提匹配算法具有较强的鲁棒性和准确性
43、。实验结果表明,本文所提算法的平均非遮挡区域和全部区域的误匹配率为分别为 2.67%和 5.69%,在深度不连续区域的平均误匹配率为2.08%。同时,在 200900mm 测量范围内平均误差小于 2%,实际三维数据测量的最大误差为1.5%,验证了本文所提算法的有效性参考文献:陈仁虹,梁晋,叶美图,等.柔性复合薄膜成形极限曲线的视觉测定方法J.中国光学,2022,15(1):22-33.CHENRH,LIANGJ,YEMT,et al.VisualmethodformeasuringforminglimitcurveofpliablecompositefilmJ.Chinese Optics,2
44、022,15(1):22-33.(inChinese)1任晓奎,关钧渤,殷新勇,等.基于改进局部一致性约束的立体匹配算法J.液晶与显示,2023,38(4):543-553.RENXK,GUANJB,YINXY,et al.StereomatchingalgorithmbasedonimprovedlocalconsistencyconstraintJ.Chinese Journal of Liquid Crystals and Displays,2023,38(4):543-553.(inChinese)2张强,刘婷婷,李海滨,等.基于最佳搜索域的水下图像区域匹配算法研究J.光学学报,201
45、4,34(6):0615001.ZHANGQ,LIUTT,LIHB,et al.ResearchonregionmatchingforunderwaterimagesbasedonoptimumsearchingareaJ.Acta Optica Sinica,2014,34(6):0615001.(inChinese)3LEE J,JUN D,EEM C,et al.Improved census transform for noise robust stereo matchingJ.OpticalEngineering,2016,55(6):063107.4彭新俊,韩军,汤踊,等.基于改进
46、 Census 变换和异常值剔除的抗噪立体匹配算法J.光学学报,2017,37(11):1115004.PENGXJ,HANJ,TANGY,et al.Anti-noisestereomatchingalgorithmbasedonimprovedcensustransformandoutliereliminationJ.Acta Optica Sinica,2017,37(11):1115004.(inChinese)5图11量块视差图Fig.11Gaugeblockparallaxmap表5厚度测量结果Tab.5Thicknessmeasurementresults序号 实际厚度/mm 测
47、量厚度/mm 测量误差/mm 绝对误差率/%11.001.01050.01051.0521.101.12350.02352.1331.201.23350.03352.7941.501.55630.05633.7552.001.93460.06543.27288中国光学(中英文)第17卷刘建国,俞力,柳思健,等.基于改进 Census 变换和多尺度空间的立体匹配算法J.华南理工大学学报(自然科学版),2017,45(12):43-49.LIU J G,YU L,LIU S J,et al.Stereo matching algorithm based on improved census tra
48、nsform and multi-scalespaceJ.Journal of South China University of Technology (Natural Science Edition),2017,45(12):43-49.(inChinese)6杨春雨,顾振,张鑫,等.基于深度学习的带式输送机煤流量双目视觉测量J.仪器仪表学报,2021,42(8):164-174.YANGCHY,GUZH,ZHANGX,et al.BinocularvisionmeasurementofcoalflowofbeltconveyorsbasedondeeplearningJ.Chinese
49、Journal of Scientific Instrument,2021,42(8):164-174.(inChinese)7HOSNIA,BLEYERM,GELAUTZM.SecretsofadaptivesupportweighttechniquesforlocalstereomatchingJ.Computer Vision and Image Understanding,2013,117(6):620-632.8孔令寅,朱江平,应三丛.基于引导图像和自适应支持域的立体匹配J.光学学报,2020,40(9):0915001.KONGLY,ZHUJP,YINGSC.Stereomatch
50、ingbasedonguidanceimageandadaptivesupportregionJ.ActaOptica Sinica,2020,40(9):0915001.(inChinese)9CHANGNYC,TSAITH,HSUBH,et al.Algorithmandarchitectureofdisparityestimationwithmini-censusadaptivesupportweightJ.IEEE Transactions on Circuits and Systems for Video Technology,2010,20(6):792-805.10王森,危辉,孟