收藏 分销(赏)

改进YOLOv5在电力生产违规穿戴检测中的应用.pdf

上传人:自信****多点 文档编号:568801 上传时间:2023-12-28 格式:PDF 页数:9 大小:12.50MB
下载 相关 举报
改进YOLOv5在电力生产违规穿戴检测中的应用.pdf_第1页
第1页 / 共9页
改进YOLOv5在电力生产违规穿戴检测中的应用.pdf_第2页
第2页 / 共9页
改进YOLOv5在电力生产违规穿戴检测中的应用.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第51 卷 第14 期 电力系统保护与控制电力系统保护与控制 Vol.51 No.14 2023年7 月16 日 Power System Protection and Control Jul.16,2023 DOI:10.19783/ki.pspc.221785 改进 YOLOv5 在电力生产违规穿戴检测中的应用 杨 乐1,郭一鸣1,霍勇博1,任晓龙1,林平远2,张志宏2(1.国网陕西省信息通信有限公司,陕西 西安 710065;2.厦门大学信息学院,福建 厦门 361000)摘要:为了解决现有目标检测系统在电力现场识别中存在的环境复杂、检测物体形状方差过大以及视觉特征辨识性不佳等问题,提出

2、了一种适用于电力现场穿戴识别的目标检测模型。首先,通过在 YOLOv5 特征提取网络中嵌入非对称卷积模块,从而得到更加具备辨识性及鲁棒性的视觉特征。其次,为了能够在全局背景噪声的影响下自适应地关注与检测物体特征相关性更强的区域,采用全局注意力机制进行上下文信息的建模,改进了视觉信息处理的效率与准确性。最后,通过对比现有的目标检测算法,证明了所提针对 YOLOv5 改进算法的有效性和优越性。同时,通过消融实验证明了所改进的模块在目标检测模型中的有效性。关键词:非对称卷积网络;注意力机制;目标检测;违规穿戴检测;YOLOv5 Application of improved YOLOv5 for i

3、llegal wearing detection in electric power construction YANG Le1,GUO Yiming1,HUO Yongbo1,REN Xiaolong1,LIN Pingyuan2,ZHANG Zhihong2(1.State Grid Shaanxi Electric Power Company Information and Communication Co.,Ltd.,Xian 710065,China;2.School of Informatics,Xiamen University,Xiamen 361000,China)Abstr

4、act:There are problems in existing object detection systems caused by the complicated detection environment of electric power construction,large variance of detected object shape and poor recognition of visual features.This paper proposes an object detection model for illegal wearing detection in el

5、ectric power construction.First,an asymmetric convolutional group is added to the feature extraction backbone network of YOLOv5 to obtain more discriminative and robust visual features.Second,in order to be able to adaptively focus on feature regions that are more relevant to the detected object und

6、er the influence of visual noise,a transformer-based global attention mechanism for modeling contextual information is used to improve the efficiency and accuracy of visual information processing.Finally,the effectiveness and superiority of the improved YOLOv5 algorithm in this paper are demonstrate

7、d by comparing with existing object detection algorithms.Meanwhile,the effectiveness of the improved modules in the target detection model is demonstrated by ablation experiments.This work is supported by the National Natural Science Foundation of China(No.62176227 and No.U2066213).Key words:asymmet

8、ric convolutional network;attention mechanism;object detection;illegal wearing detection;YOLOv5 0 引言 随着智慧电网项目的全面推进,如何保证电力现场的施工安全成为了备受关注的问题。由于施工人员常在高危环境下进行作业,因此存在大量的安 基金项目:国家自然科学基金资助项目资助(62176227,U2066213);中央高校基本科研业务费资助(20720210047);国家电网陕西省电力公司科技项目资助(SGSNXT00GCJS2200106)全隐患。在此背景下国家电网提出了多种施工规范,通过要求施工人

9、员规范穿戴安全保障设备来降低安全隐患。然而,许多施工人员由于安全意识薄弱而未穿戴安全防护器具,这个现象成为了电力施工现场发生事故的重大导火索。因此,研究如何展开智能化监管,从而提高施工人员安全意识并减少施工事故,对于电力公司的可持续发展具有重要意义1。目前绝大多数违规行为的发现依赖于现场安全员以及远程的实时监测,而人力监管一方面会造成杨 乐,等 改进 YOLOv5 在电力生产违规穿戴检测中的应用 -161-人力资源的浪费,增大企业成本;另一方面长时间工作容易视觉疲劳导致遗漏。因此,为了尽可能降低人为干扰因素,提高监管响应的速度以及准确率,急需引入人工智能技术以实现智能自动化监控与响应,其中涉及

10、到多种计算机视觉算法,如图像识别2与目标检测3方法。与现有的电力现场视频监控系统结合,无需额外改造成本就可以降低企业人力成本,提高企业效益。目标检测方法是解决电力现场违规穿戴简单且有效的工具,按照特征提取方法的不同可分为两类。1)基于数字图像处理的方法。这类方法通过设计手工特征对头部、面部和肤色等区域进行特征提取,进而利用分类算法对特征进行识别。文献4利用 Harris 检测和方向梯度直方图特征描述图像,然后利用支持向量机对目标进行检测。文献5选取尺度不变性特征、变换角点特征和颜色统计特征的方法对目标物体进行检测。虽然这些方法能够初步应用于简单背景下的目标检测,但随着应用场景的变化其准确度也会

11、有相应的波动,泛化能力较差。随着电力公司规模迅速扩大,这类方法已无法适应电网发展与数字化变革的要求。2)基于深度学习的方法。近年来,随着人工智能技术的高速发展,采用深度学习方法进行目标检测取得了阶段性的成果。文献6利用在线困难实例挖掘方法对目标检测模型进行优化,实现了边缘终端的实时运算。文献7利用人体关键点检测模型提取人员图像,此后YOLO8(you only look once)能够实现电力现场保障设备的实时佩戴检测。文献9基于 Faster R-CNN10算法,融合多尺度特征提取方案与特征增强模块,通过剔除无关背景区域来提高检测精度。然而,由于实际场景中要检测的物体种类以及数量的快速增长,

12、尤其是针对密集及不规则形状物体的检测难以取得令人满意的效果。为了实现电力现场违规穿戴的准确检测,本文以 YOLOv5 算法作为基线模型进行改进,提出了一种改进 YOLOv5(improved YOLO,IYOLOv5)算法。该方法引入非对称卷积网络11(asymmetric convolutional network,ACNet)中的非对称卷积结构(asymmetric convolutional block,ACB),利用中心增强机制提高视觉特征在不规则物体上的表现力与鲁棒性。为了降低电力现场中环境背景噪声的影响,该方法将自注意力机制12嵌入到模型检测中,通过获取图像的全局依赖信息,进而改进

13、视觉信息处理的效率与精准程度。通过上述改进,本文所提出的方法泛化能力与检测精度均得到有效提升。1 相关工作与技术背景 1.1 目标检测 目标检测可以根据是否包含兴趣区域搜索分为一阶段方法和二阶段方法。二阶段方法将目标检测任务分解为两个不同的阶段,其中第一个阶段主要是对图片中的候选区域进行筛选,随后的第二阶段则是对筛选出的兴趣区域物体进行分类。作为二阶段目标检测的开创性工作,R-CNN13通过选择性搜索14获得区域建议,然后通过提取卷积神经网络的机器特征对结果进行细化。为了提高 R-CNN 的速度,Fast R-CNN15从整幅图像中提取特征,然后分别通过空间金字塔池和兴趣区域池生成区域特征,最

14、后根据区域特征对预测结果进行细化。Faster R-CNN10可以完全端到端训练,它通过区域建议网络给出预测结果。Cascade R-CNN16通过多级细化改进 Faster R-CNN,可以帮助网络实现更加准确的预测。与二阶段检测方法相比,一阶段方法效率更高,但精确度较低。SSD17在多尺度特征上扩展锚盒,采用 CNN 直接预测类概率和锚偏移量。EfficientDet18使用网络架构搜索算法自适应构建最优模型。而上文提及的 YOLO8是第一个将目标检测重新定义为一个简单的回归问题的,它可以直接从图像像素中获得边界框坐标和类概率。1.2 注意力机制 注意力机制的本质是根据不同的输入自适应对特

15、征的权重进行更新,将与检测物体更加相关的特征权重加强,而忽略一些相关性较低的区域特征。该机制来自于人类注意力视觉系统的启发,通过相关性对视觉特征建立动态权重参数组合,可以有效地帮助模型理解复杂的场景12。注意力机制已广泛用于目标检测,DERT19能够有效地建模图像中的远程依赖关系,并使得目标检测算法完全摒弃了以往算法中依赖人工先验的后处理步骤,构造了一个完全端到端的检测框架。文献20构建的方法与本文方法类似,区别之处在于文献20所使用的空间注意力21与本文所引入的基于 Transformer 的自注意力机制有所不同。2 建模方法 2.1 YOLOv5 概述 YOLOv5主要包括特征提取主干网络

16、BackBone、特征聚合网络 Neck 以及检测头 Head。其中采用CSPDarknet5322作为特征提取主干网络,深度为 53层,在主干网络输入阶段的数据操作与 YOLOv3 相-162-电力系统保护与控制电力系统保护与控制 同,都利用了 Focus 层来对输入数据进行维度上的切片,从而对通道进行扩充,相较于 YOLOv3 所采用 DarkNet53,其采用的 CSP 结构通过 ResNet23残差模块的叠加来扩大局部特征的感受野,同时采用 SiLU 激活函数来替代 YOLOv3 所使用的 Leaky ReLU,增加了梯度的平滑程度,使其效果更好。同时在主干网络的最后使用空间金字塔池化

17、层24来获取不同特征尺度下的空间语义信息,进而提升模型的鲁棒性。然而,在电力现场中普遍存在的拍摄角度、环境影响、检测对象不规则等不利因素,使得 YOLOv5的表现结果并不理想。本文针对性地引入两个结构,以挖掘更具有辨识性的语义特征信息来提高模型的识别能力。2.2 非对称卷积网络 卷积神经网络(convolutional neural network,CNN)由于其局部感受野和权值共享的特性,具有较好的平移不变性,在计算机视觉领域倍受欢迎。然而,在面对图像背景复杂且目标物体不规则的情况下,普通卷积提取的视觉特征鲁棒性不佳。文献25尝试将标准方形卷积核dd分解为1 d和1d 两个非对称卷积核,在保

18、证模型性能不剧烈降低的同时减少了1/3的参数。其结果间接地说明了,在标准卷积神经网络中,起最主要作用的是其方形卷积核中间骨架的权重。与此同时,本文发现标准卷积在面对电力现场情况下,其学习的视觉特征辨识度不足,鲁棒性不佳。为了解决这个问题,本文在视觉特征主干网络中引入了ACNet11中的ACB结构,即在标准卷积核()dd中额外添加水平(1)d和垂直(1)d 两个非对称卷积组,显式地增强了方形卷积核中心骨架位置的权重,在目标检测中能使矩形框中与物体相关性更高的中心十字区域得到了更多的关注,加强了视觉特征的辨识力与鲁棒性。图 1 以3 3的卷积核为例,在训练阶段分别经过所构建的 3 组不同的卷积核后

19、,再将 3 组计算后的视觉特征融合,可表示为(1)(2)(3)IKIKIK (1)式中:I 表示输入卷积的图像特征;(1)K、(2)K和(3)K分别表示dd、1 d和1d 卷积核组;表示卷积操作。在训练阶段利用不同形式的额外卷积操作扩充特征空间,自适应地学习不同长宽比目标。相反地,添加额外卷积操作不可避免地增加了额外的参数量。但是根据卷积运算的可加性,利用重参数技巧,可以将这 3 组卷积操作融合为原始标准卷积大小,降低推理阶段的计算开销,3 3非对称卷积操作的推理阶段如图 2 所示。其通用形式可以表示为 (1)(2)(3)(1)(2)(3)()IKKKIKIKIK(2)式中,(1)(2)(3)

20、()KKK表示将卷积核中对应位置的权重相加。这意味着,在推理阶段非对称卷积组被归一成了一个标准卷积,在不额外增加计算量和参数量的同时,提高了检测模型的效果。图 1 ACB 训练阶段示意图 Fig.1 Schematic diagram of ACB module in the training stage 图 2 ACB 推理阶段示意图 Fig.2 Schematic diagram of ACB module in the inference stage 2.3 自注意力Transformer结构 Transformer结构最早在自然语言处理(natural language process

21、ing,NLP)领域中被提出12。该结构利用全局自注意力机制自适应地捕获全局上下文消息,在多项NLP任务中取得卓越成果。而在计算机视觉领域中,视觉Transformer模型成为近年来学者们的热门研究对象26-27。本文在YOLOv5模型中添加了文献27中的视觉Transformer模块,增强了模型在电力现场检测任务下的长距离上下文建模能力,进而缓解由物体远近不一致、场景复杂度等噪声干扰所带来的影响。视觉Transformer模块架构如图3所示,针对下采样阶段输出的阶段性特征,采取与VIT中相同的数据处理,对输入特征进行Patch Embedding操作,即采取图像切分的方式将语义图片从二维结构

22、信息转化为一维序列信息,以降低计算的复杂度,同时通过添加位置信息编码以保留图像中各个切片像素的相对位置,本文在具体实现中将图像特征划分为1414的Patch大小。后续的结构包含多头注意力层(multi-head self attention,MSA),标准化层(layer norm,LN),多层感知机层(multi-layer perceptron,杨 乐,等 改进 YOLOv5 在电力生产违规穿戴检测中的应用 -163-MLP)以及残差恒等映射,并在训练过程中添加Dropout正则化层来防止网络过拟合。图 3 Transformer 模块架构 Fig.3 Architecture of th

23、e Transformer module 多头注意力模块是视觉Transformer的核心结构,由多个自注意力机制组成,各个注意力分别关注不同粒度的上下文信息,聚合得到多尺度的注意力信息。自注意力机制由3个关键矩阵 Q、K 和 V组成,其获得方式可表示为(1)lqFQW (3)(1)lkFKW (4)(1)lvFVW (5)式中:l为网络深度;(1)lF为前一层的特征输出结果;qW、kW 和vW 为可学习的权重矩阵,其目的为对1lF进行仿射变换得到 Q、K 和 V。后续利用Q 和 K 的相关性得到注意力信息,公式可表示为 T(,)()GdQKQ K VV (6)式中:()G 为自注意力机制函数

24、;()为非线性激活函数Softmax;d为通道维度,1/d为缩放操作以防止梯度消失。上述介绍了自注意力机制的过程,而多头注意力机制聚合若干个注意力的结果,每个自注意力头可表示为 111(,)lllqkviiiihG FFFWWW (7)式中,下标i表示自注意力头的序号。多头注意力可表示为 12()onOhhh W (8)式中:为特征聚合操作;oW为输出层;O代表输出的特征;下标n表示注意力头的总数,本文将n设置为2。MLP层由两个全连接层组成,LN层能够调整输入分布,残差恒等映射构建输入输出的链接关系,防止网络层数过深、梯度消失导致的模型退化。正如文献26提及的,Transformer具有优秀

25、的特征建模能力。本文希望利用Transformer的全局注意力与卷积建模领域像素的局部能力相结合互补,将Transformer作为卷积网络的补充,以提高整体网络的特征建模关注能力28。2.4 IYOLOv5 IYOLOv5的整体模型结构如图4所示。本文针对复杂电力施工场景中可能存在的不规则物体检测以及背景噪声影响,基于YOLOv5的网络结构做出了以下两方面的改进。首先,本文将特征提取主干网络中的标准卷积模块替换为ACB结构。通过ACB的中心增强机制将权重进行倾斜,针对不规则物体得到更具有辨识性和鲁棒性的视觉特征。该机制能够在推理阶段不额外增加计算开销的情况下,更好地服务于后续的下游任务,以构建

26、更适合不同长宽比物体的检测模型。其次,本文将Transformer结构融于YOLOv5中,形成卷积局部关注和全局上下文信息的互补,在保留CNN的归纳偏置的同时,也避免了全Transformer结构在数据量偏小情况下易出现的过拟合现象。具体实现的细节包括,在特征主干网络的最后输出层添加了6层Transformer结构,用于对之前所提取的不同尺度特征进行融合,利用大尺度特征中的兴趣区域对小尺度特征图进特征重构。Neck层学习的目的是更好地利用BackBone提取的多尺度视觉特征,从相邻尺度特征之间捕捉细节部位。因此在特征聚合网络Neck中也同样应用了Transformer结构,为了避免之前获取的金

27、字塔特征因为连续的自注意力机制出现过拟合现象,在Neck融合中的下采样阶段并未应用注意力机制,而是将其应用于后续的连续上采样层中,利用其对于全局上下文信息的优秀建模能力,自适应地关注与检测物体更加匹配的特征模式,更好地筛选出与检测对象高度相关的特征区域,并通过着重考虑这些区域来提高最终的检测效果。-164-电力系统保护与控制电力系统保护与控制 图 4 IYOLOv5 模型结构 Fig.4 Architecture of the IYOLOv5IYOLOv5在网络结构上与原始YOLOv5不同,但其训练时损失函数与原始YOLOv5保持一致。本文参考YOLOv5的参数设置对IYOLOv5进行端到端的

28、训练。3 实验验证 3.1 数据集与实现细节 本文所使用的电力现场穿戴检测数据集来自阿里天池大赛广东电网智能现场运营挑战赛,其检测对象总共有6种,包括施工人员、佩戴安全袖章、佩戴绝缘手套、未佩戴绝缘手套、手持操作栏和手持验电笔。该数据集总共有2561张图像,其中的标签数目分布如表1所示。本文将数据标注格式处理为Pascal VOC29的组成格式,并将数据集随机划分成两组,其中90%的样本用于训练,而剩余10%的样本则作为测试集用于验证模型性能。本文采用Pytorch1.7.0深度学习框架搭建IYOLOv5模型,并在NVIDIA RTX 2080Ti上完成模型训练。输入图像的大小为1280 12

29、80 3,设定非极大值抑制和交并比(interaction-over-union,IoU)的阈值分别为0.3和0.5。优化策略使用Adam优化器进行梯度下降,设定批次大小为2,轮次为150,初始学习率为0.001。除此之外,采用余弦模拟退火算法实现对学习率的动态衰减,并在最后一个轮次时将学习率固定为0.0003。表 1 数据集标签个数 Table 1 Number of categories in the dataset 标签 个数 佩戴绝缘手套 5094 未佩戴绝缘手套 1871 佩戴安全袖章 796 手持操作杠 863 手持验电笔 801 施工人员 4732 3.2 评估指标 为了对模型性

30、能进行更好的定性评估,本文选取平均精确度均值(mean average precision,MAP)来衡量IYOLOv5对电力现场不同类别的总体识别效果。首先需要计算每个类别的平均精确度值(average precision,AP)。AP的计算方式又依赖于精确率P和召回率R两项指标,P和R可表示为 PPPTPTF (9)PPNTRTF (10)式中:PT表示预测为正类且实际也为正类的样本个数;PF表示预测为正类但实际为负类的样本个数;NF表示预测为负类而实际为正类的样本个数。P和R在某些情况下是互相矛盾的,因此通常计算P-R杨 乐,等 改进 YOLOv5 在电力生产违规穿戴检测中的应用 -16

31、5-曲线下的面积作为AP指标来衡量目标检测的性能,可表示为 1P0()dAP RR (11)APM为多个类别的AP值的均值,可表示为 P1APNiiAMN (12)式中:下标i表示类别序号;N表示数据集中存在的总类别数目。本文在实验过程中所采用的评估指标为AP(0.5)M和AP(0.5:0.95)M。其中AP(0.5)M表示当预测结果与真实目标的IoU阈值大于等于0.5标注为检测成功;AP(0.5:0.95)M则表示在不同IoU阈值下(从0.5至0.95,步长为0.05)的平均值。3.3 对比实验 本文通过对比现有的目标检测算法,来验证其在电力现场检测下的优良性能。所对比的方法包括一阶段方法(

32、YOLOv5、SSD17、CenterNet30)和二阶段方法(Faster R-CNN15)。在本实验中,根据对比方法的推荐训练参数在本训练集上进行训练。为了对各个不同的方法进行公平的比较,首先需要保证每一个方法在训练阶段达到收敛,不同方法的训练损失曲线如图5所示,观察图5可得SSD、CenterNet、YOLOv5以及IYOLOv5在20个epoch 之后损失曲线都逐渐趋于平稳,Faster R-CNN在20个epoch后虽然整体损失曲线有所波动,但经过平滑处理后整体还是趋于平缓,从训练曲线中也不难看出,基于YOLOv5的方法在训练中收敛速度也相对较快。测试集APM对比结果如表2所示。首先

33、将本文的IYOLOv5与改进前的基线模型YOLOv5进行对比,其网络性能好于对比的基线模型,分别在两项指标上提高了约15%和13%,由此证明了本文所提出的基于YOLOv5的改进方法IYOLOv5在电力现场环境下的优越性与有效性。对比其他方法,IYOLOv5的性能也表现得更好,其主要原因是由于YOLOv5模型的良好设计,以及本文所提出的两项针对电力现场环境的特殊改进。为了更加直观地表现IYOLOv5在电力现场环境下检测的优越性,随机选取两幅测试图像并分别采用表2中的对比方法进行测试,检测结果如图6所示。由图6可以发现,IYOLOv5的表现更好,尤其是面对远景下的不规则物体,如第二行的操作杠,IY

34、OLOv5能够很好地检测识别。综上所述,在电力现场检测环境下,IYOLOv5依赖其ACB和Transformer模块能够更好地建模视觉特征,在忽视视觉噪声的同时能够更聚焦于检测物体上,达到更高的检测精度和识别效果。IYOLOv5更多的可视化结果如图6示。图 5 不同方法训练损失对比 Fig.5 Training loss comparison results of different algorithms-166-电力系统保护与控制电力系统保护与控制 (a)YOLOv5 (b)Fast R-CNN (c)SSD (d)CenterNet (e)IYOLOv5 图6 不同算法检测结果对比 Fig

35、.6 Detection results comparison of different algorithms 表 2 违规穿戴数据集上不同物体检测器的比较 Table 2 Comparison of different object detectors on the violation of wear dataset 对比方法 APM(0.5)APM(0.5:0.95)YOLOv5 51.5 26.2 Faster R-CNN 35.5 16.8 SSD 36.5 19.9 CenterNet 50.2 24.7 IYOLOv5 59.2 29.7 3.4 消融实验 消融实验将分别从两个方面

36、对IYOLOv5进行设置,分别仅保留ACB以及Transformer模块来训练网络,以验证每个模块的作用。其结果如表 3所示。实验表明,本文所添加的ACB与Transformer模块皆对电力现场检测有积极作用。其中,ACB对 表 3 消融实验结果 Table 3 Experiment results of the ablation study 网络设置 ACB Transformer APM(0.5)APM(0.5:0.95)51.5 26.2 57.4 28.7 53.5 27.3 59.2 29.7 网络的提升效果最明显,鲁棒的视觉特征是目标检测效果好坏的基石。而一旦移除Transform

37、er模块,模型缺乏捕捉全局信息的能力将会导致结果变差。4 结论 本文以YOLOv5为基础,提出了改进算法IYOLOv5,并在电力现场环境下的目标检测任务上取得了优越的结果。首先为了得到更具有辨识性与鲁棒性的视觉特征,将非对称卷积组添加进YOLOv5的特征提取主干网络。然后,利用Transformer的全局注意力机制建模上下文信息,进而缓解由视觉噪声干扰所带来的负面影响,能够自适应地关注检测物体更相关的特征区域。实验结果表明,本文所提出的IYOLOv5在电力现场检测任务中表现卓越,尤其是针对复杂环境和物体下具有更强的辨识能力与抗干扰能力,表现出良好的泛化能力,为电网的智能化改革提供了解决方案。参

38、考文献 1 吕学宾,李岩,李英,等.变电站施工作业人员安全管控及评价系统研究J.电力系统保护与控制,2021,49(4):21-27.L Xuebin,LI Yan,LI Ying,et al.Research on safety management and an evaluation system for substation 杨 乐,等 改进 YOLOv5 在电力生产违规穿戴检测中的应用 -167-construction personnelJ.Power System Protection and Control,2021,49(4):21-27.2 HU Zhuangli,HE To

39、ng,ZENG Yihui,et al.Fast image recognition of transmission tower based on big dataJ.Protection and Control of Modern Power Systems,2018,3(2):149-158.3 魏贤哲,卢武,赵文彬,等.基于改进 Mask R-CNN 的输电线路防外破目标检测方法研究J.电力系统保护与控制,2021,49(23):155-162.WEI Xianzhe,LU Wu,ZHAO Wenbin,et al.Target detection method for external

40、 damage of a transmission line based on an improved Mask R-CNN algorithmJ.Power System Protection and Control,2021,49(23):155-162.4 林晓林,孙俊.基于机器学习的小目标检测与追踪的算法研究J.计算机应用研究,2018,35(11):3450-3453.LIN Xiaolin,SUN Jun.Research on small object detection and tracking algorithm based on machine learningJ.Appl

41、ication Research of Computers,2018,35(11):3450-3453.5 冯国臣,陈艳艳,陈宁,等.基于机器视觉的安全帽自动识别技术研究J.机械设计与制造工程,2015,44(10):39-42.FENG Guochen,CHEN Yanyan,CHEN Ning,et al.Research on automatic recognition technology of safety helmet based on machine visionJ.Machine Design and Manufacturing Engineering.2015,44(10):

42、39-42.6 吴晖,李铭钧,杨英仪,等.面向变电站视频监控终端的目标检测方法及其优化J.广东电力,2019,32(9):62-68.WU Hui,LI Mingjun,YANG Yingyi,et al.An object detection method and its optimization for substation video surveillance terminalsJ.Guangdong Electric Power,2019,32(9):62-68.7 曾纪钧,温柏坚,梁哲恒.基于深度学习的安全帽识别算法研究与模型训练J.电力系统保护与控制,2021,49(21):107

43、-112.ZENG Jijun,WEN Bojian,LIANG Zheheng.Research and model training of helmet recognition algorithm based on deep learningJ.Power System Protection and Control,2021,49(21):107-112.8 REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detectionC/Proceedings of the IEEE Co

44、nference on Computer Vision and Pattern Recognition,June 27-30,2016,Las Vegas,Nevada,USA:779-788.9 王纪武,罗海保,鱼鹏飞,等.基于Faster R-CNN的多尺度高压塔鸟巢检测J.北京交通大学学报,2019,43(5):37-43.WANG Jiwu,LUO Haibao,YU Pengfei,et al.Birds nest detection in multi-scale of high-voltage tower based on faster R-CNNJ.Journal of Beij

45、ing Jiaotong University,2019,43(5):37-43.10 REN Shaoqing,HE Kaiming,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networksJ.IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,39(6):1137-1149.11 DING Xiaohan,GUO Yuchen,DING Guiguang,et al.Acnet

46、:strengthening the kernel skeletons for powerful CNN via asymmetric convolution blocksC/Proceedings of the IEEE/CVF International Conference on Computer Vision,June 16-20,2019,Long Beach,California,USA:1911-1920.12 VASWANI A,SHAZEER N,PARMAR N,et al.Attention is all you needC/31st Annual Conference

47、on Neural Information Processing Systems,December 4-9,2017,Long Beach,California,USA:6000-6010.13 GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentationC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,June

48、23-28,2014,Columbus,Ohio,USA:580-587.14 UIJLINGS J R R,VAN DE SANDE K E A,GEVERS T,et al.Selective search for object recognitionJ.International Journal of Computer Vision,2013,104(2):154-171.15 GIRSHICK R.Fast R-CNNC/Proceedings of the IEEE International Conference on Computer Vision,December 7-13,2

49、015,Santiago,Chile:1440-1448.16 CAI Zhaowei,VASCONCELOS N.Cascade R-CNN:Delving into high quality object detectionC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,June 18-22,2018,Salt Lake City,Utah,USA:6154-6162.17 LIU Wei,ANGUELOV D,ERHAN D,et al.Ssd:Single shot mult

50、ibox detectorC/European Conference on Computer Vision,October 8-16,2016,Amsterdam,Holland:21-37.18 TAN Mingxing,PANG Ruoming,LE Q V.Efficientdet:scalable and efficient object detectionC/Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,June 14-19,2020,Seattle,Washingt

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服