收藏 分销(赏)

基于背景数据增强和改进YOLOv4的断路器试验机器人接线定位方法.pdf

上传人:自信****多点 文档编号:575430 上传时间:2024-01-02 格式:PDF 页数:10 大小:5.95MB
下载 相关 举报
基于背景数据增强和改进YOLOv4的断路器试验机器人接线定位方法.pdf_第1页
第1页 / 共10页
基于背景数据增强和改进YOLOv4的断路器试验机器人接线定位方法.pdf_第2页
第2页 / 共10页
基于背景数据增强和改进YOLOv4的断路器试验机器人接线定位方法.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 38 卷第 2 期电 力 科 学 与 技 术 学 报Vol.38 No.22023 年 3 月JOURNAL OF EIECTRIC POWER SCIENCE AND TECHNOLOGYMar.2023基于背景数据增强和改进 YOLOv4的断路器试验机器人接线定位方法何胜红,吴小平,王俊波,张殷(广东电网有限责任公司佛山供电局,广东 佛山 528000)摘要:为提高断路器试验机器人接线的准确性和可靠性,以双目视觉和深度学习目标检测技术为基础,提出一种基于背景数据增强和改进 YOLOv4的断路器试验机器人接线定位方法。该方法利用本文提出的背景混合剪切的数据增强方法,解决因断路器训练图像背

2、景特征不足而导致所训练的目标检测模型泛化能力和准确率低的问题,可以极大地提高不同试验场所(背景)和人员走动等背景扰动下机器人接线的准确性和可靠性;将标准 YOLOv4的特征网络 CSPDarknet53替换为 Mobiledets,可以优化目标检测模型的推理时间,提高机器人接线效率。仿真结果表明,本文方法的准确率为 99.9%;实测结果表明,接线准确率为 98.8%,全项目试验接线时间减少了 57 s。通过对比分析,本文方法在接线准确率和时间上优于其他方法,可为断路器机器人试验平台的实用化提供技术支持。关键词:断路器试验;机器人接线;视觉定位;背景数据增强;改进 YOLOv4DOI:10.19

3、781/j.issn.16739140.2023.02.022中图分类号:TM561.2文章编号:16739140(2023)02019609Wiring locating method for circuit breaker test robot based on backgroundaugmentation and improved YOLOv4HE Shenghong,WU Xiaoping,WANG Junbo,ZHANG Yin(Foshan Power Supply Bureau,Guangdong Power Grid Co.,Ltd.,Foshan 528000,China)A

4、bstract:In order to improve the accuracy and reliability of circuit breaker test robot wiring,a locating method withbackground augmentation and improved YOLOv4 on the basis of binocular vision and deep learning object detectiontechnology is proposed in this paper.Background mixed shear method is ado

5、pted in the proposed method to solve the lowgeneralization ability and accuracy problems caused by insufficient training background features.Therefore,the accuracyand reliability of wiring under the background disturbance such as different test sites and people walking are increased.Furthermore,the

6、backbone of YOLOv4 is replaced to Mobiledets to optimize the reasoning period of the object detectionmodel.So that the efficiency of robot wiring is improved.Simulation and test results show that the accuracy of detectionmodel based on the proposed method is 99.9%,the robot wiring accuracy is 98.8%,

7、and the wiring time is reduced by 57 s.Comparison and analysis indicate that,the method proposed in this paper is superior to other methods in robot wiringaccuracy and time,which can provide technical support for the practicability of breaker robot test platform.Key words:circuit breaker test;robot

8、wiring;vision location;background data augmentation;improved YOLOv4收稿日期:20210909;修回日期:20220425基金项目:广东电网有限责任公司科技项目(GDKJXM20182372)通信作者:王俊波(1986),男,硕士,高级工程师,主要从事高压试验及状态监测等研究;Email:何胜红,等:基于背景数据增强和改进 YOLOv4的断路器试验机器人接线定位方法第 38 卷第 2 期准确可靠接线是断路器试验机器人实用化的关键技术之一,它要求机器人对断路器触头识别和定位的目标检测算法具有很强的泛化能力和很高的准确率,使之能在不

9、同试验场所(背景)或人员走动等背景扰动影响下仍能准确可靠地进行试验线夹的抓取和断路器触头的接入。目前,目标检测采用的单阶段目标检测算法1通过训练好的卷积神经网络,对图像进行识别且用矩形框定位目标。单阶段目标检测算法主要有 SSD、RetinaNet、YOLO 等算法26。其中 YOLOv4引入了先进的改进策略,具有较高的检测准确率和速度7,因而被广泛应用于车辆、绝缘子缺陷、输电线路异物及其他目标对象的识别和定位810。实际上,因训练样本不足,往往会导致所训练的模型泛化能力较差,从而致使目标检测算法准确率不高11。针对各种训练样本不足的问题,通常采用相应的数据增强方法对原图像训练样本进行扩充,如

10、:通过亮度和饱和度数据增强方法扩充不同亮度和饱和度条件下的图像训练样本;通过添加高斯噪声数据增强方法扩充误差正态分布的图像训练样本;通过 mixup、cutout、cutmix 和mosaic等数据增强方法1113扩充图像前景训练样本等。上述数据增强方法均可使得目标特征不变但图像特征更加多样化,变相增加了图像训练样本数量,使得所训练的目标检测模型具有更强的泛化能力和准确率。但对背景特征不足的训练图像而言,不能通过上述数据增强方法扩充并得到具有足够背景特征的图像训练样本,难以满足目标检测模型泛化能力和准确率对训练图像样本的要求。针对断路器试验图像背景特征不足的问题,为提高所训练的目标检测模型的鲁

11、棒性和泛化能力,保证断路器试验机器人接线在任意试验场所(背景)、试验过程人员走动等背景扰动下仍有较高的准确率,本文提出一种新的图像背景训练样本扩充的数据增强方法,提高目标检测模型的泛化能力和准确率,保证接线机器人的准确可靠接线。此外,为优化目标检测模型的推理时间,对 YOLOv4进行改进,即将标准 YOLOv4 的特征网络 CSPDarknet53替换为 Mobiledets,使得改进 YOLOv4 不仅准确率高而且推理时间短。本文方法可以极大地提高真空断路器试验机器人接线准确率和效率,为断路器机器人试验平台的实用化提供技术支持。1机器人接线及视觉定位原理真空断路器机器人试验平台由测试台、机器

12、人、机器视觉元件及待测断路器等组成。在真空断路器试验过程中,机器人需要识别目标断路器触头并获取其在机器人坐标系的三维坐标,即定位,才能实现准确可靠接线。而机器人接线动作的准确可靠性取决于机器人对目标断路器触头的定位精度,为保证机器人精准定位且准确可靠接线,本文通过视觉元件(双目相机),利用双目视觉定位技术实现机器人准确可靠接线。通过双目视觉定位14获取断路器触头在接线机器人坐标系三维坐标的定位原理如图 1所示。Camera LCamera RbAfBXxrxlOlZlZrP(x,y,z)Or图 1双目视觉定位原理Figure 1Principle of binocular vision loc

13、ating图 1中 Camera L和 Camera R分别为左、右摄像头,其相机坐标系的原点、Z 轴分别为 Ol和 Or、光轴Zl和 Zr,2 个摄像头的 X 轴重合,Y 轴垂直于图片向上,b 为左、右摄像头的间距,P 为机器人动作目标点,或称之为断路器触头外边缘点。P在左、右摄像头中分别成像于点 A、B,其在各自图像坐标系中的坐标分别为(xl,yl)和(xr,yr),利用该坐标和图 1的几何关系,可计算机器人动作目标点 P的坐标(x,y,z)分别为 x=xlz/fy=ylz/fz=b f/(xl-xr)(1)其中,f为摄像头的焦距。由式(1)可见,已知点 A、B的坐标即可计算点 P的三维坐

14、标。为实现双目视觉定位,本文采用深度学习目标检测算法对双目相机拍摄的断路器左、右图像中的197电力科学与技术学报2023 年 3 月断路器触头进行检测,即采用预测框对图像中目标断路器触头的位置和尺寸进行标记,根据预测框的位置和尺寸信息得到点 A、B 的坐标,进而计算机器人动作目标点 P 的坐标,实现机器人对动作目标的定位。2基于 YOLOv4的断路器触头目标检测模型本文采用 YOLOv4 目标检测算法对断路器触头目标进行检测,其目标检测模型框架如图 2所示。BNConvActN特征提取多尺度融合525226261313NMS双目图像训练后的目标检测模型预测结果+图 2基于 YOLOv4的断路器

15、触头目标检测模型框架Figure 2Framework of object detection model forcircuit breaker contacts based on YOLOv4由图 2 可见,该模型框架主要由特征网络、多尺 度 融 合 及 非 极 大 值 抑 制(NMS)等 组 成。YOLOv4 的 特 征 网 络 为 CSPDdarknet53,由 N 个卷积块组成,每个卷积块包含卷积层(Conv)、归一化层(BN)和非线性激活层(Act)。该特征网络提取的图像纹理、颜色等特征是网络预测目标的重要依据。然后对特征网络输出的 3 种尺度的特征图进行多尺度融合,预测不同大小尺寸

16、的目标。最后采用 NMS 算法消除冗余的目标检测框,获取最佳目标检测框。YOLOv4引入了 Mosaic数据增强方法,对图像前景样本进行扩充,提高了前景样本不足条件下所训练的目标检测模型的检测准确率。但受拍摄条件限制,本文所获取断路器训练图像的背景差异性较小,即背景训练样本不足,使得所训练的目标检测模型的检测准确率较低,会导致不同测试场所(背景)或人员走动等背景扰动下机器人接线的准确性和可靠性降低。测试表明,采用 Mosaic数据增强方法所训练的目标检测模型的检测准确率仅为95.23%,不能满足机器人接线的技术要求。因此,需要研究新的数据增强方法以解决背景训练样本不足的问题。此外,本文采用双目

17、视觉定位技术和多帧图像定位信息均值策略,将大幅增加图像处理量,从而导致机器人接线速度降低。因此,需要优化目标检测模型的推理时间,以提高断路器试验机器人的接线效率。3图像背景数据增强与推理时间优化3.1图像背景数据增强YOLOv4 断路器触头目标检测模型的训练流程如图 3所示。断路器断口触头目标检测模型训练结束是否更新权重计算损失标签信息图像数据数据增强预训练模型预测信息训练数据集图 3断路器触头目标检测模型训练流程Figure 3Training process of circuit breaker contactobject detection model由图 3可见,首先,对双目摄像头拍摄

18、获取断路器触头的训练图像集进行标注,得到检测目标的标签信息(置信度、类别及框的位置和尺寸),并对标注后的训练图像进行初始化;然后,为凸显图像前景(目标)的特征,将原始图像进行数据增强后输入至预训练模型,得到检测目标的预测信息(置信度、类别及框的位置和尺寸);最后,通过标签信息和预测信息,计算综合损失函数(含置信度损失、分类损198何胜红,等:基于背景数据增强和改进 YOLOv4的断路器试验机器人接线定位方法第 38 卷第 2 期失和框回归损失),并根据综合损失函数数值更新预训练模型的权重。若训练未结束,则重复上述训练过程,若训练结束则将模型权重保存得到训练好的断路器触头目标检测模型。如图2所述

19、,为提高断路器触头目标检测模型的泛化能力和准确率,需要有足够的前景和背景特征的图像样本训练目标检测模型。在断路器机器人试验环境下,断路器试验图像训练样本是在某一试验场所(背景)拍摄获取的,所摄取图像中的前景目标(断路器触头)纹理特征较多,前景训练样本足够。但受拍摄条件限制,所摄取的训练图像背景差异性较小,即断路器背景训练样本(负样本)不足,从而导致所训练出的模型在不同背景下的检测准确率下降15。针对该问题,本文提出一种基于背景混合剪切的数据增强方法,对原训练图像的背景进行扩充,以获得具有足够背景特征的图像训练样本。基本思路:对原训练图像的背景生成切片并复制提取(统称提取),将所提取的切片粘贴到

20、其他图像对应的背景区域,形成新的背景。经不断扩充后可得到具有足够背景特征的图像训练样本。以 batch 内连续 2 张图像img(i)、img(i+1)为例介绍图像背景切片提取与粘贴流程。断路器触头图像背景切片提取流程如图4所示,object为图像img(i)中断路器触头标注框,(x1,y1)、(x2,y2)分别为该标注框左上角、右下角坐标。toptoprightrightimg(i)leftleftbottomobject(x1,y1)(x2,y2)bottom背景切片切片生成区域切片提取图 4图像背景切片提取流程Figure 4Image background slices extract

21、ion process图像背景切片提取流程:在图像背景的上(top)、左(left)、下(bottom)和右(right)4个相应区域生成尺寸和位置均为随机的矩形切片pti、pli、pbi和pri。切片不能包含前景特征,因此,pti底部边界应高于y1,pli右侧边界应小于x1,pbi上部边界应低于y2,pri左侧边界应大于x2。提取图像中生成的切片pti、pli、pbi和pri作为图像img(i+1)的粘贴切片。图像背景切片粘贴流程如图 5 所示。按图 4 流程在图像img(i+1)中提取背景切片,然后在图像img(i+1)背景生成尺寸和位置均为随机的矩形粘贴区域。将图像img(i)提取的背景

22、切片pti、pli、pbi和pri进行尺寸调整,使得其与图像img(i+1)对应的粘贴区域尺寸相同,再将其粘贴至图像img(i+1)背景上、左、下和右对应的粘贴区域。ptpttopplplleftobjectrightimg(i+1)prprpbpb(x2,y2)(x1,y1)粘贴区域背景切片切片粘贴尺寸调整.图 5图像背景切片粘贴流程Figure 5Image background slices pasting process以 batch_size=4(img(i),i=1,2,3,4)为例,基于图像背景切片生成及提取和粘贴方法的图像背景训练样本扩充方法如图 6所示,具体如下:1)对图像i

23、mg(1)按方法生成并提取上、左、下和右 4个背景切片存入缓存;2)对图像img(2)按方法生成并提取上、左、下和右 4个背景切片存入缓存;3)将缓存中的图像img(1)提取的背景切片,按方法粘贴至图像img(2)背景对应的粘贴区域;4)对图像img(3)按方法生成并提取上、左、下和右 4个背景切片存入缓存;5)将缓存中的图像img(2)提取的背景切片,按方法粘贴至图像img(3)背景对应的粘贴区域;6)为进一步增加背景特征的多样性,对图像img(4)背景按方法生成上、左、下和右 4个背景粘贴199电力科学与技术学报2023 年 3 月区域,将前 3 张图像的背景切片统一尺寸并拼接生成新的背景

24、切片,按方法将其粘贴至图像img(4)背景对应的粘贴区域。pb3pb2pb1pr3pr2pr1pl3pl2pl1pt3pt2pt1pt3pl3pb3pr3pb2pr2pl2pt2pb1pr1pl1pt1pt1pt2pl2pr1pl1pr2pb1pb2img(1)img(2)img(3)img(4)pr2pr1pr3pl2pl1pl3pt1pt2pt3pb1pb2pb3背景切片提取切片粘贴切片切片拼接图 6batch_size=4的图像背景训练样本扩充方法Figure 6Background samples expanding method forbatch_size=4为使得对不同正、负比例的

25、训练集均有较好的增强效果,该方法设置粘贴切片数和切片缩小系数2 个参数,以调整训练的正、负样本比例。2 个参数值越小,则训练图像间的背景差异越小,训练的负样本越少;反之,训练图像间的背景差异越大,负样本越多。本文取每个 batch 各训练图像粘贴的切片数量比为 0 4 4 12,且各切片尺寸缩小系数均为0.8时训练效果最佳。采用本文方法扩充的图像背景样本所训练的模型将具有很强的泛化能力,其准确率不受背景扰动的影响,断路器试验机器人在任一试验场所均能准确可靠接线。3.2基于改进 YOLOv4的推理时间优化机器人接线耗时主要包括机器人运动、图像处理和目标检测模型推理(识别和定位)时间。本文对标准

26、YOLOv4进行改进,引入轻量化的特征提取网络,以优化目标检测模型推理时间,提高断路器试验机器人接线效率。Mobiledets是一种应用于移动端和嵌入式设备的目标检测模型,为适应边缘计算需求,其特征网络采用了轻量化设计,具备推理时间短的优点16。本文为优化目标检测模型推理时间,将 YOLOv4的特征提取网络 CSPDarknet53 替换为 Mobiledets,并调整该网络输出的特征图分支与通道数,使其与YOLOv4的后续网络兼容。调整后的 Mobiledets主要由 4 个 IBN、17 个 Fused 和 3 个 Tucker模块组成,其网络结构如图 7所示。Inputs416416IB

27、NFusedTucker525226261313block1block2block3block4block5图 7Mobiledets网络结构Figure 7Networt structure of MobiledetsIBN 模块含深度可分离卷积块16和标准卷积块(1 1卷积核)各 1个,该模块的特征提取计算次数Kdj为Kdj=Ddj Mdj Dpj+Mcj Ccj Dpj(2)式中,Ddj=ddj ddj,其中ddj=3为任一 IBN 模块j的 深 度 可 分 离 卷 积 块 的 卷 积 核 的 维 度,j=1,2,m;Ccj为标准卷积块卷积核的个数或通道数;Mdj、Mcj分别为输入深度可

28、分离卷积块和标准卷积块的特征图通道数;Dpj为每个卷积核水平和垂直滑动次数。Fused和 Tucker模块包含 2种不同参数的 11标准卷积块,其特征提取计算次数分别为Ksk=Dsk Csk s Msk DpkKeq=Deq Ceq e Meq Dpq(3)式中,Dsk、Deq分别为 11 卷积块,取 1;s、e为特征图通道缩放倍率,s取 4 或 8,e取 0.75 或 0.25;Csk、Ceq为卷积核个数或通道数;Msk、Meq为输入特征图的通道数;Dpk、Dpq分别为每个卷积核水平、垂直滑动次数。若输入特征图维度和通道数固定不变,即Dpk、Dpq和Msk、Meq固定不变,则特征网络 Mob

29、iledets 提取特征总计算次数为Fm=k=1ns Ksk+q=1ne Keq+i=1nc Kic+j=1nd Kdj+g=1np BN(Kpg)+Act(Kpg)(4)式中,Kic为第 i个标准卷积块的特征提取计算次数;ns=20、ne=3 分别为 2 种不同参数的 11 标准卷积块个数;nc=24为 33卷积块的个数;nd为深度可分离卷积块的个数;nr=ns+ne+nc+nd为特征网络卷积块总数;BN()表示对卷积输出特征图进行归一化计算;Act()为对归一化后的特征图进行非线性200何胜红,等:基于背景数据增强和改进 YOLOv4的断路器试验机器人接线定位方法第 38 卷第 2 期激活

30、计算,其计算次数均与卷积输出特征图维度线性相关。与 Mobiledets不同,CSPDarknet53 由 5 个跨阶段局部网络(cross stage partial,CSP)模块组成,如图 8所示。Inputs416416525226261313CSP4CSP5CSP1CSP2CSP3图 8CSPDarknet53网络结构Figure 8Networt structure of CSPDarknet53CSPDarknet53的 CSP模块均由标准卷积块组成,共计有 76 个标准卷积块。CSPDarknet53 总的特征提取计算次数可表示为Fc=i=1n Kci+i=1n BN(Kpi)+

31、i=1n Act(Kpi)(5)式中,Kci为第i个卷积块的特征提取运算次数;n=76为特征网络所包含卷积块的个数;Kpi为卷积输出特征图的参数总数。对比式(4)、(5),由于深度可分离卷积块和 11 卷积块的特征提取计算次数均低于标准卷积块,即Kdj、Ksk、Keq分别为Kci的 1/9、4/9(或 8/9)、1/12(或 1/36),Kic与Kci相同,则 Mobiledets提取特征总计算次数Fm小于 CSPDarknet53 的特征提取次数Fc。因此,Mobiledets的推理时间Tm=FmT0(不同浮点数标准下单次特征提取所需的计算时间)小于CSPDarknet53 的推理时间Tc=

32、FcT0。经测试,Mobiledets 和 CSPDarknet53 的 推 理 时 间 分 别 为7.1、17.9 ms,约为 CSPDarknet53推理时间的 40%。4机器人接线定位仿真与测试及结果分析4.1机器人接线定位仿真及结果分析采用本文所提出的断路器触头目标检测模型,该模型由背景数据增强方法扩充的图像背景样本训练得到,分别以图像和视频流帧图像样本为测试对象,通过仿真试验验证模型的泛化能力、准确率及稳定性。1)断路器触头目标检测模型的泛化能力和准确率仿真试验及结果分析。断路器触头目标检测模型的准确率仿真试验步骤如下:在某一试验场所拍摄获取 504 张背景特征不足的断路器试验图像作

33、为训练数据集,采用背景数据增强方法对该图像背景进行扩充;分别摄取断路器图像和不含断路器的图像各 30张,通过图像变换获得测试样本共计 120 张作为测试数据集;然后对上述测试样本的断路器触头目标进行真实框的类别、尺寸和位置的标注,作为图像测试样本标签;利用图像背景扩充训练样本对断路器触头目标检测模型进行训练;每代训练后即采用训练的目标检测模型对图像测试样本进行预测,利用预测框和真实框信息计算断路器触头的定位准确率;按以上流程训练,得到损失函数和定位准确率随训练代数变化的趋势分别如图 9、10所示;断路器触头识别结果如图 11所示。1412108642训练损失训练代数30025020015010

34、0500图 9损失函数随训练代数变化趋势Figure 9Trend of loss function varies with training steps10080604020框参数预测准确率/%训练代数30025020015010050d-accuracyc-accuracyciou-loss0图 10定位准确率随训练代数变化趋势Figure 10Trends of locating accuracy varieswith training steps201电力科学与技术学报2023 年 3 月图 11断路器触头识别结果Figure 11Detection result of breaker

35、 contact由图 9可见,训练初期,模型对训练图像数据集背景的差异性适应较差,损失函数数值较大;随着训练代数增加,损失函数数值下降逐渐趋缓;训练至 300 代,训练图像背景的差异性对损失函数数值的影响很小且收敛。由图 10 可见,预测框的回归损失函数 ciouloss数值随着训练代数的增加而下降逐渐趋缓,定位准确率则逐渐提高;当训练至 300代,模型输出的预测框位置和尺寸的准确率 daccuracy、caccuracy 均达到 99.9%。仿真试验结果表明,采用背景数据增强方法扩充得到的图像样本训练的断路器触头目标检测模型,不受测试样本背景的影响,具有很强的泛化能力和很高的准确率。2)基于

36、不同数据增强方法训练的断路器触头目标检测模型准确率仿真计算结果及对比分析。利用背景数据增强方法和典型数据增强方法(mosaic、cutmix、mixup和 cutout)对原图像样本进行扩充,然后分别基于扩充后的图像训练样本对模型进行训练,得到对应的目标检测模型。利用已训练好的目标检测模型对测试图像样本进行预测并计算准确率,仿真计算结果如表 1所示。表 1基于不同数据增强方法训练的断路器触头目标检测模型准确率仿真计算结果Table 1Simulation results of detection models based onvarious data augmentation methods%

37、数据增强方法无任何一项背景数据增强mosaiccutmixcutoutmixupmAP80.9199.8895.2395.7891.6488.45daccuracy82.1499.8996.2196.0291.4287.74caccuracy78.4399.8994.7694.4791.0588.67由表 1 可知,采用背景数据增强方法训练的断路 器 触 头 目 标 检 测 模 型 的 平 均 精 度 均 值(meanaverage percise,mAP)为 99.90%,预测框位置和尺寸 的 准 确 率 均 为 99.90%,优 于 mosaic、cutmix、mixup 和 cutout

38、等典型数据增强方法训练的断路器触头检测模型的准确率。3)不同数据增强方法训练的断路器触头目标检测模型稳定性分析。断路器触头目标检测模型是通过双目摄像头获取的视频流帧图像进行目标检测并输出预测框位置和尺寸信息。实际上,由于光强、摄像头传感器和测光算法等因素的影响,视频流帧图像的像素值均存在随机性波动,从而增强了背景扰动的影响,使得断路器触头目标检测模型输出的预测框出现抖动而影响定位结果的稳定性。因此,本文将利用视频流帧图像作为测试样本,通过预测框尺寸和位置信息的样本方差来评估断路器触头检测模型的稳定性。截取视频流连续 100 帧图像,用不同数据增强方法的训练目标检测模型进行检测,得到的样本方差的

39、统计如图 12所示。2.01.51.00.5样本方差帧数100806040200nonecutoutmixupmosaiccutmixbg_mix图12不同数据增强下的视频流帧图像测试样本方差统计Figure 12Sample variance statistics for video streamingframe image with different data augmentation由图 12可见,采用背景数据增强方法训练的断路器触头目标检测模型的测试样本方差约为 0.23,且仅用 10 帧图像的预测框位置和尺寸的均值就可基本消除视频流帧图像波动对模型检测结果的影响,具有较高的稳定性,

40、优于其他方法扩充得到的图像样本训练的断路器触头目标检测模型。4.2断路器试验机器人接线准确率和时间测试结果及分析本文利用所研制的断路器试验机器人在采用背 景 数 据 增 强 方 法 和 不 采 用 该 方 法 对 改 进YOLOv4进行训练,并进行接线准确率测试;同时,还202何胜红,等:基于背景数据增强和改进 YOLOv4的断路器试验机器人接线定位方法第 38 卷第 2 期对标准YOLOv4和改进YOLOv4的机器人试验所需接线时间进行测试。断路器试验机器人接线测试现场图片如图13所示;不同背景扰动下的图像测试样本如图14所示。接线准确率和时间测试步骤如下:1)以图 14(a)所示的某试验场

41、所背景拍摄获取训练图像,采用背景数据增强方法对训练图像背景样本进行扩充,得到训练后的目标检测模型;2)利用不同背景扰动条件下的图像测试样本进行目标检测模型准确率测试;3)根据测试过程中机器人接线出现的碰撞逼停和准确可靠接线次数计算机器人接线的准确率;4)根据机器人接线(含拆线等)识别、定位以及动作的时间,计算各试验项目接线时间。(a)视觉定位抓取组件(b)测试线夹插入断路器触头(c)抓取线夹图 13断路器试验机器人接线测试现场图片Figure 13Scene photos of wiring test for circuit breaker test(a)试验背景(b)试验场所改变(c)人员走

42、动干扰(d)外来物干扰图 14不同背景扰动下的图像测试样本Figure 14Image test samples under differentbackground disturbances根据上述测试步骤进行50次断路器全试验项目机器人接线准确率测试(一次全试验项目测试需要机器人进行80次接线),50次全试验项目机器人接线准确率测试中准确率最低的测试结果如表2所示。表 2断路器试验机器人接线准确率测试结果Table 2Wiring accuracy results of circuit breaker test robot测试模型标准 YOLOv4(无背景增强)标准 YOLOv4(有背景增强

43、)改进 YOLOv4(有背景增强)碰撞逼停/次1811准确接线/次627979接线准确率/%77.5098.8098.80由表 2 可见,采用背景数据增强方法训练的YOLOv4 和改进 YOLOv4 的准确率均为 98.80%,优于未进行背景数据增强方法扩充样本训练的YOLOv4的准确率。测试结果表明,在试验场所改变、人员走动等背景扰动影响时,断路器试验机器人仍能准确可靠接线,也表明采用背景数据增强方法训练的目标检测模型具有很强的泛化能力和很高的准确率。全试验项目机器人接线时间(回路电阻、绝缘电阻、交流耐压、机械特性等 4个试验项目接线时间之和)测试结果如表 3所示。因 50次全试验项目机器人

44、接线时间测试结果基本相同,故表 3 仅列出某次全试验项目机器人接线时间测试结果。表 3全试验项目断路器试验机器人接线时间测试结果Table 3Test results of wiring time of circuit breaker testrobot in different test itemssYOLOv4标准改进试验项目接线时间回路电阻89.374.4绝缘电阻114.296.8交流耐压89.374.4机械特性59.549.6总计352.3295.2由表 3 可见,基于改进 YOLOv4 目标检测模型的全试验项目的接线时间小于基于标准 YOLOv4目标检测模型的接线时间。断路器机器人接

45、线测试结果表明,本文提出的基于背景数据增强和改进YOLOv4的断路器试验机器人接线定位方法,不仅接线准确率高而且接线时间短,可满足断路器机器人试验平台应用的技术要求。5结语为保证断路器机器人试验接线的准确可靠性203电力科学与技术学报2023 年 3 月以及接线效率,本文提出了一种基于图像背景数据增强和改进 YOLOv4 的断路器试验机器人接线定位方法,主要结论如下:1)针对断路器机器人试验原图像训练样本背景特征不足而导致所训练的断路器触头目标检测模型泛化能力和准确率不高的问题,采用本文提出的背景数据增强方法对原图像训练样本背景特征进行扩充,利用扩充后的图像样本训练得到的断路器触头目标检测模型

46、具有很强的泛化能力和很高的准确率,使得在不同试验场所(背景)和人员走动等背景扰动下,断路器试验机器人均能准确可靠接线;2)对标准 YOLOv4 的特征网络进行了改进,用 Mobiledets 替代 CSPDarknet53,优化并减少了断路器触头目标检测模型的推理时间,提高了断路器试验机器人的接线效率。实际测试结果表明,本文提出的断路器试验机器人接线定位方法的接线准确率高达 98.80%,且接线时间可缩短 57 s。本文的研究成果为断路器机器人试验平台的实用化提供了有效的技术支持。参考文献:1刘俊明,孟卫华.基于深度学习的单阶段目标检测算法研究综述J.航空兵器,2020,27(3):4453.

47、LIU Junming,MENG Weihua.A review of singlestageobject detection algorithm based on deep learningJ.AeroWeaponry,2020,27(3):4453.2LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shotmultiboxdetectorC/14thEuropeanConferenceonComputer Vision,Amsterdam,Netherlands,2016.3LIN T Y,GOYAL P,GIRSHICK R.et al.Focal l

48、oss fordense object detectionJ.IEEE Transactions on PatternAnalysis and Machine Intelligence,2020,42(2):318327.4REDMON J,DIVVALA S,GIRSHICK R,et al.You onlylookonce:unified,realtimeobjectdetectionC/29thIEEEConferenceonComputerVisionandPatternRecognition(CVPR),Las Vegas,NV,United States,2016.5张廷锋,陶熠昆

49、,何凛,等.基于遗传算法的电力巡检机器人作业调度优化方法J.电网与清洁能源,2022,38(3):6873.ZHANG Tingfeng,TAO Yikun,HE Lin,et al.A geneticalgorithmbased optimization method for job scheduling ofelectric power inspection robotsJ.Power System andClean Energy,2022,38(3):6873.6赵永良,付鑫,郭阳,等.基于深度学习和图像识别的电力配件智能出入库J.中国电力,2021,54(3):5560.ZHAO Yo

50、ngliang,FU Xin,GUO Yang,et al.Intelligentstorage and retrieval of power accessories based on deeplearning and image recognitionJ.Electric Power,2021,54(3):5560.7郑含博,李金恒,刘洋,等.基于改进 YOLOv3的电力设备红 外 目 标 检 测 模 型 J.电 工 技 术 学 报,2021,36(7):13891398.ZHENG Hanbo,LI Jinheng,LI Yang,et al.Infrared objectdetectio

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服