收藏 分销(赏)

一种上下文信息融合的安全帽识别算法_肖立华.pdf

上传人:自信****多点 文档编号:378577 上传时间:2023-09-11 格式:PDF 页数:6 大小:1.42MB
下载 相关 举报
一种上下文信息融合的安全帽识别算法_肖立华.pdf_第1页
第1页 / 共6页
一种上下文信息融合的安全帽识别算法_肖立华.pdf_第2页
第2页 / 共6页
一种上下文信息融合的安全帽识别算法_肖立华.pdf_第3页
第3页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、计算机与现代化JISUANJI YU XIANDAIHUA2023年第1期总第329期0引 言随着信息化和数字化技术的发展及应用,智慧工地被提上日程。智慧工地是指利用互联网和信息化技术,使用信息技术和数字技术为手段提升工地的管理和决策水平。其中,采用计算机视觉技术的智能视频监控系统是应用最广泛的。各地也发布文件要求各新开工项目要安装在线监控系统,完善安全生产动态监控及预警体系。安全帽是施工人员的关键防护用具,在突发情况下能有效保护施工人的头部,减少伤害。实时检测在施工现场的人员是否正确佩戴安全帽是智慧工地的基本要求。计算机视觉技术具有文章编号:1006-2475(2023)01-0114-06

2、一种上下文信息融合的安全帽识别算法肖立华1,徐畅1,商浩亮2,3,罗仲达1,吴小忠1,马小丰2,江志文1,陈俊杰1(1.国网湖南省电力有限公司,湖南 长沙 410007;2.北京洛斯达科技发展有限公司,北京 100088;3.湖南省智能信息感知及处理技术重点实验室,湖南 株洲 412008)摘要:为了预防人员防护缺失导致的生产事故,着力探究复杂施工场景下人员安全帽佩戴情况的智能化识别。在一阶段目标检测算法的基础上,针对安全帽识别问题中的小目标和安全帽纹理信息缺失的问题,提出提取并融合上下文信息,以增强模型的表征学习能力。首先,为解决特征鉴别力不足的问题,提出局部上下文感知模块和全局上下文融合模

3、块。局部上下文感知模块能够融合人体头部信息和安全帽信息获取具有鉴别力的特征表示;全局上下文融合模块将高层的语义信息与浅层特征融合,提升浅层特征的抽象能力。其次,为了解决小目标识别问题,提出使用多个不同的目标检测模块分别识别不同大小的目标。在构建的复杂施工场景下的安全帽识别数据集上的实验结果表明:提出的2个模块将mAP提高了11.46个百分点,安全帽识别的平均精度提高了10.55个百分点。本文提出的方法具有速度快、精度高的特点,为智慧工地提供了有效的技术解决方案。关键词:智慧工地;安全帽识别;目标检测;一阶段;上下文;信息融合中图分类号:TU714;TP391.41文献标志码:ADOI:10.3

4、969/j.issn.1006-2475.2023.01.019Recognition of Safety Helmets Based on Contextual Information FusionXIAO Li-hua1,XU Chang1,SHANG Hao-liang2,3,LUO Zhong-da1,WU Xiao-zhong1,MA Xiao-feng2,JIANG Zhi-wen1,CHEN Jun-jie1(1.State Grid Hunan Electric Power Co.,Ltd.,Changsha 410007,China;2.Beijing North-Star

5、Digital Remote Sensing Technology Co.,Ltd.,Beijing 100088,China;3.Hunan Key Laboratory of Intelligent Information Perception and Processing Technology,Zhuzhou 412008,China)Abstract:In order to prevent the accidents caused by the lack of personal protection,this paper focuses on the intelligent ident

6、ification of personnel wearing helmets in complex construction scenarios.Aimingat the problems of the small object recognitionand the missing texture information of helmets,it enhances the representation learning ability of one-stage object detection methods by extracting and fusing contextual infor

7、mation.First,this paper proposes a local context perception module and global context fusion module to improve the discriminability of learned features.The local context perception module combines the information of head and helmet to obtain discriminative feature representations.The global context

8、fusion module merges the semantic information from high-level layers with shallow features;it helps the model obtain more abstract feature representations.Secondly,to address the small object detection issue,this paper uses multiple object detection modules to recognize multiscale objects.Experiment

9、al results on the helmet recognition dataset show that the proposed two modules improve the mAP by 11.46 percentagepoints and the AP of helmet detection by 10.55 percentage points.The proposed method has the advantages of high speed andhigh precision,and provides effective technical solutions for sm

10、art construction sites.Key words:smart construction site;helmet recognition;object detection;one stage;context;information fusion收稿日期:2022-03-15;修回日期:2022-04-14基金项目:国家自然科学基金资助项目(61871432)作者简介:肖立华(1966),男,湖南长沙人,正高级工程师,博士,研究方向:电力系统设计,E-mail:;徐畅(1978),男,高级工程师,本科,研究方向:电力工程技术,E-mail:;商浩亮(1981),男,高级工程师,硕士

11、,研究方向:电力工程建设;罗仲达(1970),男,高级工程师,本科,研究方向:电力工程技术;吴小忠(1974),男,高级工程师,硕士,研究方向:电力工程技术;马小丰(1987),男,高级工程师,硕士,研究方向:电力工程建设;江志文(1976),男,高级工程师,本科,研究方向:电力工程技术;陈俊杰(1983),男,高级工程师,硕士,研究方向:电力工程技术。2023年第1期使用方便、能适应多种复杂场景的优点。因此,采用计算机视觉技术自动化的安全帽识别对智慧工地的建设、减少事故具有重要意义1。施工场所一般处于室外,这类场景具有光照不稳定、环境复杂、人员流动性高的特点,对安全帽佩戴检测算法的实时性和准

12、确性提出了更高的要求。目前,对安全帽的检测都是采用基于深度学习的目标检测方法2-9。根据使用的检测方法的原理,可以将这些方法分为2类:一阶段的方法(one-stage)和两阶段的方法(two-stage)。一阶段的方法采用的是直接回归的方法,只提取一次图像特征,同时预测物体的类别并回归物体在图像中的坐标位置。这类方法的优点是速度快,适合应对实时性要求高的场景或者移动端设备,但这类方法的检测精度比两阶段的方法低。代表性的一阶段目标检测方法有 YOLO10、SSD11、UnitBox12,在这些方法的基础上改进得到了诸多安全帽检测方法2-6。两阶段的目标检测方法使用两阶段级联的方式检测目标,先进行

13、粗定位,再进行分类和精细定位。两阶段的方法精度高,但速度慢、训练复杂。代表性的两阶段目标检测方法有 RCNN13、Fast R-CNN14、Faster R-CNN15、Mask R-CNN16。在两阶段目标检测方法的基础上发展出了基于两阶段的安全帽检测方法7-9。为了满足施工场景下安全帽检测的实时性需求,本文改进 UnitBox目标检测算法12并将其应用于安全帽检测问题中。本文有针对性地解决了如下2个问题:1)特征鉴别力不足问题,安全帽纹理单一,导致提取的特征鉴别力不足;2)小目标识别问题,施工场景范围广,图像中大部分待检测的安全帽都小于45个像素。首先,为了解决特征鉴别力不足的问题,本文提

14、出局部上下文感知模块(Local Context PerceptionModule,LCPM)。如图1所示,通过对局部图像区域的上下文信息建模,同时提取多尺度的人体头部特征和安全帽的特征,提升特征的识别能力。同时引入了全局上下文信息融合模块(Global Context FusionModule,GCFM),融合不同层的特征,增强特征的抽象能力。其次,为了应对小目标识别问题,本文设计的多尺度目标检测模块使用了多个目标检测器分别处理不同大小的目标。此外,为了提高检测速度,本文使用速度更快的MobileNet17替换UnitBox算法12中原有的主干网络VGG-1618。在安全帽检测数据集上的实验

15、结果表明,本文提出的方法在没有降低检测速度的前提下,大幅提高了检测精度。实地测试表明,可满足安全帽检测任务高精度和实时的要求。图1多尺度的上下文建模1相关工作1.1UnitBox目标检测算法UnitBox12是一种基于图像分割的一阶段人脸检测算法,采用全卷积神经网络,将人脸检测问题转化为图像分割问题和边界框回归问题。对于图像分割问题,UnitBox将图像中的像素点分为人脸和非人脸2个类别,直接预测每一个像素点的类别,使用交叉熵损失。为了得到人脸的坐标,UnitBox预测人脸区域内每一个像素点相对人脸上下左右4个边界的偏移量,根据像素点的坐标和偏移量得到预测人脸矩形框的坐标位置,优化预测矩形框与

16、真实矩形框的交并比。UnitBox同时优化交叉熵损失和交并比来训练模型。UnitBox具有速度快的优点,但UnitBox没有融合上下文信息,提取的特征的识别能力有限,精度较低。本文在UnitBox算法的基础上加入了局部多尺度特征提取模块和金字塔特征融合模块,提升特征的鉴别能力。此外,本文还将UnitBox从单类别目标检测(人脸检测)推广到了多类别目标检测任务(佩戴安全帽的人员、未佩戴安全帽的人员)。1.2多尺度特征融合在目标检测中有诸多工作通过融合不同尺度的特征来提升特征的鉴别能力19-22,这些方法提出融合神经网络不同层的特征来达到融合不同尺度的上下文信息的目的,从而提升特征的鉴别能力。王成

17、济等19提出使用双线性插值将不同层的特征图调整为相同的大小再进行融合。文献 20-22 则提出将高层特征经过双向性插值放大后与浅层特征融合改善特征的抽象能力。从本质上来说,这些方法都是从不同的特征层感知不同尺度的信息。与这些方法不同的是,本文在同一个特征层提取多尺度的特征,受到图像分割工作23-24的启发,提出了局部上下文感知模块,充分建模局部上下文信息,提高特征的识别能力。2算法框架图2安全帽识别训练和测试流程本章将详细介绍所提出的安全帽识别的训练和测试流程,整体流程如图2所示。在训练阶段,有3个输入:监控相机采集到的图像、像素点得分标签、坐标迁移标签。从监控相机采集到的图像经过预处理,输

18、测试图像图像采集图像预处理图像预处理训练图像训练图像模型参数模型参数拷贝拷贝拷贝FCN模型FCN模型更新梯度像素点分类得分坐标偏移预测像素点分类得分坐标偏移预测更新后处理识别结果测试流程训练流程像素点类别标签坐标偏移标签肖立华,等:一种上下文信息融合的安全帽识别算法115计算机与现代化2023年第1期入基于全卷积神经网络(Fully Convolutional NeuralNetwork,FCN)的目标检测模型(FCN 模型)中得到三通道的像素点类别得分图和四通道的坐标偏移图。使用梯度下降法更新模型的参数。在测试阶段,从摄像机采集图像,经过预处理输入FCN模型中,分别得到像素点类别得分和坐标偏

19、移预测,经过非极大值抑制得到最终的识别结果。2.1上下文信息融合的安全帽识别模型本文提出模型的整体网络结构如图3所示,使用MobileNetv117作为主干网络,分别从第6个卷积层、第12个卷积层和第14个卷积层提取特征,提取的特征表示为x1、x2和x3。首先,将3个特征分别输入局部上下文感知模块中,获得编码了局部上下文信息的特征表示;其次,将特征输入全局上下文融合模块中,将高层的语义信息融合进浅层特征中,提升特征的识别能力;最后,使用3个目标检测器分别识别不同大小的目标。图3提出模型的结构2.1.1局部上下文感知人类视觉感知系统是由多个具有不同大小的感受野的子系统组成的,能在不同的尺度上感知

20、物体。人在观察一个物体时,不仅会提取物体本身的信息,也会提取物体周边的背景信息。卷积神经网络每层特征的感受野是固定的,无法在同一层捕获不同尺度的信息,同时,安全帽本身的纹理信息不足,只提取颜色特征和形状特征还不足以应对多样的安全帽识别问题,因此不仅需要安全帽本身的信息,还需要利用人体头部的信息来识别安全帽。受人类视觉系统的启发,如图4所示,本文提出使用不同大小的卷积核来感知多尺度的上下文信息,以增强特征的鉴别能力。图4多尺度的上下文信息如图5所示,本文提出的局部上下文感知模块包含4个卷积操作,分别感知不同尺度的上下文信息:一个11卷积,3个空洞卷积25(空洞数量r分别为0、1、2)。本文将得到

21、的多尺度上下文特征按照通道拼接在一起,使用一个11卷积层融合上下文特征。假定输入特征为x,上述计算过程可以表示如下:图5局部上下文感知模块(LCPM)o1(x)=Conv1(x)o2(x)=DConv0(x)o3(x)=DConv1(x)o4(x)=DConv2(x)(1)o(x)=o1(x),o2(x),o3(x),o4(x)(2)l(x)=ReLU(Conv1(o(x)(3)其中,Conv1()表示11卷积层,DConvr()表示空洞数量为r的空洞卷积,ReLU()为激活函数,表示按通道拼接特征。给定多尺度的特征x1、x2和x3,得到的融合了局部上下文信息的特征可以表示为:l(x1)、l(

22、x2)和l(x3)。此处,不同特征层的局部上下文感知模块的参数不共享,不同卷积层参数不共享。2.1.2全局上下文融合高层特征编码了丰富的语义信息,浅层特征缺乏抽象的语义信息。将高层特征与浅层特征融合,能够让深层特征的语义信息融合到浅层特征中,提升浅层特征的语义识别能力。此外,高层特征具有更大的感受野,将高层特征与浅层特征融合能够有效地建模全局上下文信息。本文引入特征金字塔将高层特征与浅层特征融合,改善特征的识别能力。如图3所示,使用上采样层将高层特征的分辨率放大后与浅层特征相加得到语义增强的特征表示。对于最高层的特征直接应用一个11卷积层得到最终的特征表示,全局上下文融合模块的计算过程表示如下

23、:f(x3)=Conv1(l(x3)(4)f(x2)=Conv1(l(x2)+U(f(x3)(5)f(x1)=Conv1(l(x1)+U(f(x2)(6)其中,U()表示上采样层。2.1.3多尺度安全帽识别由于施工人员离摄像机的远近不同,图像中的安全帽的尺度变化大。受到特征感受野的限制,单一特征层无法应对多尺度的目标检测问题。因此,本文使用3个参数共享的目标检测模块(Detection Module,DM)在不同的特征层检测不同大小的目标。给定特征f(x1)、f(x2)和f(x3),目标检测模块由2个独立的子网络组成,分别预测类别得分和坐标偏移,如图6所示,第一个卷积层有256个卷积核,第二个

24、卷积层得到预测结果,这4个卷积层不改变特征图的大小。图6目标检测模块(DM)LCPMLCPMLCPMDM1DM2DM3X/16X/8X/32x x3x x2x x1Conv14Conv12Conv6Conv1-5输入图像X=WHGCFMUUGCFM:全局上下文融合模块LCPM:局部上下文感知模块DM1,DM2,DM3:目标检测模块 3364r=1Concat112563364r=23364r=0Conv11164特征11256类别得分坐标偏移11311256114特征1162023年第1期分别将特征f(x1)、f(x2)和f(x3)输入到目标检测模块中。特征f(xi)的第k个类别的得分表示为p

25、ki。相应的坐标偏移表示为(t,b,li,ri),分别表示像素点坐标相对目标上下左右4个边界的坐标偏移量,根据像素点的坐标和预测的坐标偏移量,可以得到预测矩形框qi。本文使用3个目标检测模块(DM1,DM2,DM3)来检测不同大小的目标,不同目标检测模块与待检测目标的关系见表1。表1检测模块与目标大小的关系检测模块特征特征图大小感受野目标大小预测结果标签DM1f(x1)X/8小1632pk1,q1yk1,g1DM2f(x2)X/16中3264pk2,q2yk2,g2DM3f(x3)X/32大64pk3,q3yk3,g32.1.4损失函数给定一张图像,在制作类别标签时,本文将标注的目标中心的10

26、10区域(以像素为单位)视为前景,设为1;标注区域外视为背景,设为0;使用交叉熵损失训练模型。同样地,计算对应的1010区域的交并比损失。使用交叉熵函数计算分类损失,设置类别0表示背景,类别1表示佩戴安全帽的人员,类别2表示未佩戴安全帽的人员。分类损失计算如下:Lce=-13i=13k=02ykilogpki(7)本文增加预测矩形框与真实矩形框的交并比,交并比损失计算如下:Liou=-13i=13ln(gi qigi qi)(8)其中,gi和qi分别表示标注的矩形框和预测的矩形框。采用多任务学习同时优化分类损失和交并比损失来训练模型。最终的损失函数表示如下:L=1Lce+2Liou(9)其中,

27、1和2是损失函数的权重。2.2模型性能评价指标本文使用平均精度值(Average Precision,AP)和平均精度均值(mean AP,mAP)来评价模型的结果。AP是Precision-Recall曲线下的面积,AP可以用于评价单个类别精度。mAP是所有类别的平均精度值的平均,可以评价所有类别的检测结果的好坏。3实验与结果分析3.1数据采集与处理本文使用的数据集包括10000张图片,分别来自于历年施工场所的监控照片和以“施工”“工地”“施工人员”等作为关键字从图片网站(https:/ https:/ labelImg(https:/ 2 类物体:佩戴安全帽的人员(Helmet,紫色框标注

28、)、未佩戴安全帽的人员(Person,绿色框标注)。数据集中标注的目标最小为1616。总共标注了48762个Helmet目标,13954个 Person目标。所有的图片通过裁剪、拼接等手段调整为640640,按照8:2的比例随机将数据集划分为训练集和测试集,详细的数据集划分见表2。其中8000张图片作为训练集,2000张图片作为测试集,并按照VOC数据集格式进行存储。经过粗略统计,本数据集中标注的小目标(长和宽均小于45个像素点)占比超过83.4%,80%的照片是户外场景。本数据集更符合实际施工场景,但给安全帽识别问题提出了较大的挑战。图7数据集标注样例(紫色矩形框表示佩戴安全帽,绿色矩形框表

29、示未佩戴安全帽)表2安全帽识别数据集划分数据训练集测试集数量图片/张80002000Helmet/个388969866Person/个109642990本文对训练集中的图片做了数据增强,对图片进行随机翻转、旋转,改变对比度、饱和度和亮度,以扩充数据集,提高模型的训练精度和性能。此外,模型对图片做了归一化处理。在后处理阶段,使用非极大值抑制算法去除重复矩形框。余下的检测框与真实标注的矩形框的交并比大于 0.5则为正确的检测结果。本文使用平均精度值评价模型。3.2实验设置本文所有实验都是在深度学习服务器上进行。硬件配置为NVIDIA GeForce GTX 1080 Ti显卡,Inter Core

30、 i7-8750H6处理器,32 GB内存,1 TB机械硬盘。使用Ubuntu18.04操作系统,所有代码都是使用 Python 语言和 PyTorch 深度学习库实现。使用Adam优化器训练模型26,模型的关键实验参数如表3所示。所有的模型都是使用MobileNetv1作为主干网络,对比算法使用MobileNetv1和PyTorch深度学习库复现后在相同的实验环境下进行实验。模型完成训练需要4 h 20 min。表3部分实验参数参数名iterationsbatch sizelearning ratelr factor参数说明模型训练轮次每次输入的样本数模型初始学习率学习率衰减因子参数值500

31、00640.0010.1本文的基线模型为复现后的UnitBox模型,使用MobileNetv1作为主干网络,分别从Conv14层、Conv12 肖立华,等:一种上下文信息融合的安全帽识别算法117计算机与现代化2023年第1期层和Conv6层提取特征,使用3个目标检测模块进行目标检测。基线模型在Helmet和Person 这2个类上的AP分别为82.12%和76.45%,平均精度均值为79.28%。3.3实验结果对比与分析表4是本文方法与其他先进方法的对比,对比方法 有 UnitBox12、YOLO-V310、SSD11、Faster R-CNN7。表4中模型的训练配置所使用的硬件和软件设置都

32、相同。本文的方法在平均检测精度(AP)和检测帧速度(fps)上都是最优的,本文提出的改进方案将mAP提升了11.46个百分点,安全帽识别的平均精度提高了10.55个百分点,足以说明本文方法的优越性。UnitBox12、YOLO-V310、SSD11检测速度快,但是检测精度低,不能满足复杂施工场景下的高精度要求;虽然 Faster R-CNN7检测精度较高,但速度慢。本文的方法在没有牺牲检测速度的前提下,显著提高了模型的检测精度。基于上述实验结果,可以发现本文改进的模型在真实场景下有更好的性能,且能满足实时性的应用要求,具有速度和精度的双重优势。表4本文方法与其他方法对比方法UnitBoxYOL

33、O-V3SSDFaster R-CNN本文的方法AP/%Helmet82.1284.1882.1691.4792.67Person76.4580.5479.5987.3688.82mAP/%79.2882.3680.8789.4190.74帧速度/fps3733286303.4消融实验结果与分析为了验证本文提出的模块的有效性,进行了消融实验。实验结果见表5,分别对局部上下文感知模块(LCPM)、全局上下文融合模块(GCFM)进行实验分析。有如下观察:1)当增加了局部上下文感知模块后,2个类别的 AP分别提高了 5.22个百分点和 7.33个百分点,这说明该模块能有效地感知到多尺度的局部上下文信

34、息;2)当使用了全局上下文融合模块后,AP分别提高了7.47个百分点和8.94个百分点,这说明全局上下文融合模块能够将深层的语义特征融合到浅层特征中,解决浅层特征语义不足的问题。在图8中,对比了本文方法与基线模型的检测结果,可以看出最终模型的检测效果显著好于基线模型。3.5损失函数权重分析(a)参数1变化实验结果(固定2=1)(b)参数2变化实验结果(固定1=1)图9参数1和2变化实验结果在这个实验中,通过改变1和2的值进行了参数分析。为了识别出安全帽,分类损失和交并比损失是缺一不可的。因此,本文将1和2的范围设定为0,1,2,固定其中一个参数的值为1,变化另一个参数的值,从而分析分类损失和交

35、并比损失对实验结果的影响,对应的实验结果见图9。可以观察到:1)随着参数1和2值的增加,模型的准确率先稳步上升后开始下降;2)当参数1和2的值在1附近时,模型取得最好的结果。3)图9(a)和图9(b)中3条曲线的变化规律基本一致;4)随着参数1和2值的差距的增加,模型准确率随之下降。以上观察结果说明2个损失是同等重要的。基于以上观察,本文设置1=1和2=1。4结束语针对安全帽识别实际应用中小目标识别困难问题,对一阶段的目标检测方法进行改进,提出了局部上下文感知模块和全局上下文融合模块,增强网络的表征学习能力。通过采集10000张施工场景下的图像,构建了面向施工场景下的安全帽识别数据集,进表5消

36、融实验结果方法基线模型+LCPM+GCFM+LCPM+GCFMAP/%Helmet82.1287.3489.5992.67Person76.4583.7885.3988.82mAP/%79.2885.5687.4990.74图8本文方法与基线模型的检测结果对比(紫色矩形框表示佩戴安全帽,绿色矩形框表示未佩戴安全帽)基线模型本文的方法/1182023年第1期行训练和测试。在该数据上的实验结果表明,本文提出的改进方案将mAP提升了11.46个百分点,安全帽识别的平均精度提高了10.55个百分点。本文提出的安全帽识别方法能有效解决复杂开放场景下的安全帽识别问题,显著提升了智慧工地的建设水平。在下一步

37、研究中,将开展危险环境和施工人员不安全动作的实时识别,从更多角度为智慧工地建设提供技术解决方案。参考文献:1 李华,王岩彬,益朋,等.基于深度学习的复杂作业场景下安全帽识别研究 J.中国安全生产科学技术,2021,17(1):175-181.2 林俊,党伟超,潘理虎,等.基于YOLO的安全帽检测方法 J.计算机系统应用,2019,28(9):174-179.3 李明山,韩清鹏,张天宇,等.改进SSD的安全帽检测方法 J.计算机工程与应用,2021,57(8):192-197.4 秦嘉,曹雪虹,焦良葆.基于深度学习的安全帽佩戴检测与跟踪 J.计算机与现代化,2020(6):1-6.5 施辉,陈先

38、桥,杨英.改进 YOLO v3 的安全帽佩戴情况检测方法 J.计算机工程与应用,2019,55(11):213-2206 方明,孙腾腾,邵桢.基于改进 YOLOv2 的快速安全帽佩戴情况检测 J.光学精密工,2019,27(5):1196-1205.7 GUO S Q,LI D X,WANG Z H,et al.Safety helmet detection method based on faster R-CNN C/2020 International Conference on Artificial Intelligence and Security.2020:423-434.8 徐守坤

39、,王雅如,顾玉宛,等.基于改进FasterRCNN的安全帽佩戴检测研究 J.计算机应用研究,2020,37(3):901-905.9 孙国栋,李超,张航.融合自注意力机制的安全帽佩戴检测方法 J.计算机工程与应用,2022,58(20):300-30410 REDMON J,DIVVALA S,GIRSHICK R,et al.You onlylook once:Unified,real-time object detectionC/2016IEEE Conference on Computer Vision and Pattern Recognition(CVPR).2016:779-788

40、.11 LIU W,ANGUELOV D,ERHAN D,et al.SSD:Singleshot multibox detector C/2016 European Conference onComputer Vision.2016:21-37.12 YU J H,JIANG Y N,WANG Z Y,et al.Unitbox:An advanced object detection networkC/Proceedings of the24th ACM International Conference on Multimedia.2016:516-520.13 GIRSHICK R,DO

41、NAHUE J,DARRELL T,et al.Richfeature hierarchies for accurate object detection and semantic segmentation C/Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition.2014:580-587.14 GIRSHICK R.Fast R-CNN C/Proceedings of the 2015IEEE International Conference on Computer Vision

42、.2015:1440-1448.15 REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:Towards real-time object detection with region proposal networks C/Proceedings of the 28th International Conferenceon Neural Information Processing Systems.2015:91-99.16 HE K M,GKIOXARI G,DOLLAR P,et al.Mask R-CNNC/Proceedings of the 20

43、17 IEEE International Conference on Computer Vision.2017:2961-2969.17 HOWARD A G,ZHU M,CHEN B,et al.MobileNets:Efficient convolutional neural networks for mobile vision applications J.arXiv preprint arXiv:1704.04861,2017.18 SIMONYAN K,ZISSERMAN A.Very deep convolutionalnetworks for large-scale image

44、 recognitionJ.arXiv preprint arXiv:1409.1556,2014.19 王成济,罗志明,钟准,等.一种多层特征融合的人脸检测方法 J.智能系统学报,2018,13(1):138-146.20 姜文涛,张驰,张晟翀,等.多尺度特征图融合的目标检测 J.中国图象图形学报,2019,24(11):1918-1931.21 LI H T,LIN K Z,BAI J X,et alSmall object detectionalgorithm based on feature pyramid-enhanced fusion SSDJ.Complexity,2019(3)

45、:1-13.22 LIN T Y,DOLLA R P,GIRSHICK R,et al.Feature pyramid networks for object detection C/2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).2017:936-944.23 ZHANG L,DAI J,LU H C,et al.A bi-directional message passing model for salient object detectionC/Proceedings of the 2018 IE

46、EE Conference on Computer Visionand Pattern Recognition.2018:1741-1750.24 ZHAO H S,SHI J P,QI X J,et al.Pyramid scene parsingnetworkC/2017 IEEE Conference on Computer Visionand Pattern Recognition(CVPR).2017:6230-6239.25 YU F,KOLTUN V.Multi-scale context aggregation by dilated convolutionsJ.arXiv pr

47、eprint arXiv:1511.07122,2015.26 KINGMA D P,BA J.Adam:A method for stochastic optimization J.arXiv preprint arXiv:1412.6980,2014.肖立华,等:一种上下文信息融合的安全帽识别算法J.北京航空航天大学学报,2021,47(10):2149-2154.18 葛义攀,王晓红.基于本质矩阵的无人机影像精确匹配J.测绘通报,2020(8):55-58.19高金璐.戈壁背景下的图像配准与拼接技术研究 D.长沙:国防科学技术大学,2015.20 李蓓智,陈华江,杨建国,等.一种适用于特

48、征稀少零件的图像精确拼接方法 J.机械设计与制造,2012(1):263-265.21 贾迪,朱宁丹,杨宁华,等.图像匹配方法研究综述 J.中国图象图形学报,2019,24(5):677-699.22 包晓安,詹秀娟,张俊为,等.基于稀疏结构的图像特征匹配算法 J.计算机系统应用,2018,27(4):178-183.23 刘帅,芮挺,王东,等.基于特征匹配质量的GMS改进算法研究 J.电光与控制,2021,28(7):31-34.24雷远华,曾德培.基于ORB+GMS算法的航拍图像匹配方法的研究 J.矿山测量,2021,49(2):43-46.25蔡欣展,刘艳艳.基于自适应筛选Harris角点检测的快速图像配准算法 J.半导体光电,2020,41(6):875-878.26边后琴,张皓霖,黄福珍.局部二值描述子的研究进展综述 J.图学学报,2020,41(2):254-261.27 李丹,徐倩南.基于网格运动约束的遥感图像配准算法J.计算机工程与设计,2020,41(7):1947-1951.(上接第113页)119

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 毕业论文/毕业设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服