ImageVerifierCode 换一换
格式:PDF , 页数:4 ,大小:2.83MB ,
资源ID:2266262      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/2266262.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(基于跟踪关联的行人检测方法研究.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于跟踪关联的行人检测方法研究.pdf

1、1引言随着技术的发展和基础设施建设的完善,为保证交通安全,从视频或图像中对行人目标进行检测已成为近年来研究的热门课题。在道路交通场景中,由于受到行人的关节部位的运动变化、背景遮挡、行人重叠等因素的影响,对行人进行即时准确的检测就变得十分复杂。行人检测算法可以根据行人检测的研究过程分为传统行人检测算法和基于深度学习技术的行人检测算法1。目前基于深度学习的行人检测技术主要被分为两类:基于回归模型的一阶段检测算法和基于区域生成的二阶段检测算法。行人被遮挡的情况在行人检测问题中是占绝大多数的,令许多学者的目光关注到对被遮挡的行人的检测上。在遮挡行人检测中,行人突然从司机的视野里出现或消失这一现象虽然属

2、于小概率事件,但不能完全避免,也一直缺乏解决的对策。对于被遮挡行人的检测算法,遮挡面积的大小以及遮挡的部位都对检测的准确性有一定影响,且由于行人的遮挡情况比较复杂,无法对每种遮挡情况进行逐一研究;同时由于遮挡行人的姿态较为多样,模板匹配法不能很好地匹配被遮挡行人的目标特征。针对现有的诸多问题,在此提出一种基于前后帧关联的部分被遮挡行人检测方法。基于跟踪关联的行人检测方法研究张可心1,宋辉1,刘淇2(1.沈阳工业大学信息科学与工程学院,沈阳 110870;2.烟台东方威思顿电气有限公司,烟台 264000)摘要:无人驾驶领域中因行人与物体的重叠、遮挡,会导致检测算法的准确度较低、漏检率较高,针对

3、此问题,提出一种基于跟踪关联的行人检测算法。本算法以 TPH-YOLOv5 为基线网络,将第一次的预测结果作为知识与数据集一同输入到基于跟踪关联的检测模型中;利用卡尔曼滤波算法找出“感兴趣区域”后进行目标关联,直至所有缺失目标图像均检测完成,通过目标关联的方式提高被遮挡行人检测的准确率。实验结果表明,本算法的检测 AP 值、召回率、有遮挡行人情况的检测 AP 值均有一定程度提高,检测模型显著提高了行人部分遮挡的检测准确度。关键词:YOLOv5 模型;跟踪关联;目标检测;辅助驾驶DOI:10.3969/j.issn.1002-2279.2023.05.015中图分类号:TP391.41文献标识码

4、:A文章编号:1002-2279(2023)05-0061-04Research on Pedestrian Detection Method Based on Tracking CorrelationZHANG Kexin1,SONG Hui1,LIU Qi2(1.School of Information Science and Engineering,Shenyang University of Technology,Shenyang 110870,China;2.Yantai Dongfang Wisdom Electric CO.,LTD.,Yantai 264000,China)A

5、bstract:In the unmanned driving field,because of the overlap and occlusion of pedestrians andobjects,the accuracy of the detection algorithm is low and the missed detection rate is high.To solve theproblem,a pedestrian detection algorithm based on tracking correlation is proposed.In the algorithm,TP

6、H-YOLOv5 is used as the baseline network,and the first prediction result is input into the detection modelbased on tracking correlation as knowledge and data set.Kalman filter algorithm is used to find out theregion of interest and then target correlation is carried out until all the missing target

7、images are detected,and the accuracy of blocked pedestrian detection is improved by target correlation.The experimental resultsshow that the detection AP value,recall rate and the detection AP value of pedestrians with occlusion areimproved to some extent,and the detection model significantly improv

8、es the detection accuracy of pedes-trians with partial occlusion.Key words:YOLOv5;Tracking correlation;Object detection;Driver assistance作者简介:张可心(1997),女,黑龙江省海伦市人,硕士研究生,主研方向:机器视觉检测。收稿日期:2023-05-23微处理机MICROPROCESSORS第 5 期2023 年 10 月No.5Oct.,2023微处理机2023 年2网络设计2.1算法模型的发展在基于卷积神经网络的行人检测算法中,二阶段算法的特点是需要使用

9、生成算法找到不同的候选框,然后将候选框提取的特征组作为回归和分类输入2。2014 年,Donahue 等人3提出了经典二阶段目标检测算法 R-CNN,采用卷积神经网络进行特征提取,替代了传统的特征提取方法,之后用 SVM 分类器进行回归分类,是首次将深度学习应用到目标检测之上的算法。2015 年,何凯明团队提出了 FasterR-CNN 网络4,采用区域生成网络(Region ProposalNetwork,RPN)获取预选区域,并使用多种尺度的锚框解决多尺度目标和检测问题,提升了网络检测速度。在此基础上,特征金字塔网络5(Feature PyramidNetworks,FPN)采用多尺度特征

10、融合模型解决了目标尺度差异较大的问题。另一类方法是基于回归的一阶段算法,常用的包括 YOLO6、SSD7、RetinaNet8等。这类算法只需要一步即可完成所有操作,极大地提高了网络的检测速度。YOLOv5 算法在速度与精度的平衡上做了许多优化,比如最近有人提出的改进 YOLOv5 的行人检测算法9,通过放大数据集的训练网格的方式,提高了对遮挡行人的检测精度。针对部分遮挡行人目标的检测问题,在此提出一种基于目标跟踪的被遮挡行人检测方法,其网络整体设计流程图如图 1 所示。方法的总体思路为:通过目标跟踪的方式对被遮挡的行人目标进行图像前后帧关联,将数据集输入到基线网络模型中进行训练,输出预测结果

11、;同时对同一个视频的视频帧判断输出的预测结果中是否存在目标缺失,若存在目标缺失,即可能存在未被检测出的被遮挡行人目标。将预测结果作为训练样本再次输入基线模型进行二次训练,通过卡尔曼滤波算法对未被检出的目标可能出现的区域进行预测,随后利用匈牙利算法对目标消失区域进行特征两两匹配,以实现前后帧目标关联,从而检测出未能被检出的被遮挡目标。2.2基于目标跟踪的被遮挡行人检测算法为解决行人目标被遮挡问题,通过目标跟踪的方式对被遮挡的行人目标进行前后帧关联,整体检测结构如图 2 所示。将数据集输入到模型中进行第一次训练,判断模型的预测结果在同视频的情况下是否存在目标缺失,若存在目标缺失的问题,则将全部的预

12、测结果输入到针对被遮挡的行人检测模型中。模型通过卡尔曼滤波利用图像中行人目标的运动信息和外观信息得到关联矩阵,对第一次检测中存在目标缺失的区域进行位置预测,关联出感兴趣的区域,然后通过匈牙利算法进行预测匹配,通过比较完整行人目标与感兴趣区域的颜色特征、纹理特征以及轮廓特征,在该模型的感兴趣区域找出与完整目标部分特征相同的区域。当存在部分特征相同,则代表信息匹配,说明这是缺失的目标,因此能够检测出在第一次检测中未被检出的被遮挡的行人目标。此方法能够减小网络的搜索区域,在提高被遮挡行人检测的准确率的同时也能提高检测效率。图 1网络整体设计流程图前后帧检测出的行人目标是否存在目标缺失?基线网络模型输

13、入图像输出最终结果检测结果作为被遮挡行人检测模型数据集再次进行检测否是图 2基于跟踪关联的行人检测结构图预测结果输出最终预测结果不匹配否是目标相似度检验 是否视频最后一帧?利用匈牙利算法进行目标匹配卡尔曼滤波对缺失目标的位置预测TPH-YOLOv5训练数据归一化k-Means聚类算法匹配窑62窑5 期3实验验证3.1实验建模实验选择滴滴发布的 D2-City 视频跟踪数据集为样本库,它是大规模行车视频数据集,涵盖不同的天气、道路、交通情况,视频均以高清或超高清分辨率录制。选取含遮挡行人的视频片段转换成视频帧,标签用 labelimg 工具进行标注。数据集样本总量3744 张,并按 6:2:2

14、的数量比例进行划分。采用 TPH-YOLOv510作为基线网络模型。它是一种基于 YOLOv5 网络的改进算法,在 YOLOv5 的基础上,在 Head 部分加入一个用于检测更小尺度物体的检测头。此处采用 Transformer Prediction Head(TPH)替换 YOLOv5 的预测头,提升了预测潜力。为了能大范围覆盖图像,此处采用注意力模块 CBAM生成注意力图,提高对一些易混淆类别的分辨能力。评价指标选用平均精度 AP、召回率 R、平均对数漏检率。其中,召回率 R 指的是在所有正样本中,TP 所占比例,即:平均对数漏检率 LAMR 是衡量模型漏检的指标,定义为:LAMR 越大,

15、模型的漏检率越高,性能也就越好。同样,平均精确率 AP 值越高,模型的检测效果也越好。3.2实验结果与分析实验所得到的数据如表 1 所示。包括常规 AP、召回率 砸、LAMR 以及 AP(遮挡行人)四个指标,再分不同情况进行分析。1)光线不足(过暗)的情况在光线过暗场景且行人服装颜色几乎与背景融为一体的情况下,本模型的检测准确率较原模型有所提高。主要是在将目标跟踪的关联方式引入模型后,相当于在原模型中加入了一个“注意力机制”,预测被遮挡的目标可能出现的位置,以减小模型的搜索范围,同时提高模型的检测效率和对行人特征的识别度。检测效果的实际对比如图 3 所示。从图 3 可以看出,在光线不足时,由于

16、行人所穿衣服以黑色居多,与昏暗背景环境几乎融合,因此导致原模型只检测出了两个行人,而本模型检测出了四个,其中包括一个被严重遮挡的行人目标。2)遮挡面积较大的情况影响模型检测准确度的因素有很多,遮挡面积也是重要影响因素之一。本模型通过在制作数据集时选取大量部分被遮挡的行人样本来使网络对其进行学习,同时通过对被露出的特征进行匹配,以期解决对被遮挡的行人目标检测准确度较低甚至漏检的问题。从数据集中选取行人被严重遮挡的图片进行检测检测。检测效果的实际对比图 4 所示。(a)TPH 模型的检测结果(b)本模型实验检测结果TPTP+FNR(2)(1)92.25 0.2511LAMRexpln MR(10)

17、9jjRA孕(遮挡行人)80.21%30.24%网络模型AP(常规)TPH-YOLOv5本模型88.74%72.66%85.23%20.40%Epoch300300LAMR31.92%24.53%表 1对比实验结果图 3光线不足情况下的实验效果对比(a)TPH 模型的检测结果(b)本模型实验检测结果图 4遮挡范围较大情况下的实验效果对比张可心等:基于跟踪关联的行人检测方法研究窑63窑微处理机2023 年表 1 数据表明,本算法的 LAMR 相比原模型降低了 7.39%,被遮挡行人的 AP 值也提高了 9.84%。行人的漏检情况得到了很大的改善。图 4 中行人被栅栏的遮挡面积很大,只露出了约 2

18、0%,且由于书包颜色与栅栏在颜色上很相似,模型很难识别。对此,原网络只检测到了 2 个行人,而本模型检测出了 3 个行人,其一被严重遮挡,也被检测出来。4结束语本研究提出的基于目标跟踪的前后帧关联的行人检测算法模型在对网络预测结果进行目标关联的情况下,被遮挡的行人目标检测准确率获得了极大的提升,即使在同样只检测出一个行人目标的情况下,本算法模型的置信度也要高于原模型的表现,表明基于目标跟踪的行人检测算法在被遮挡行人目标的检测准确度上有实质性的改善。参考文献:1钟南莎.复杂场景下的行人检测方法研究D.成都:电子科技大学,2022.ZHONG Nansha.Research on pedestri

19、an detection methodsin complex scenesD.Chengdu:University of ElectronicScience and Technology of China,2022.2孟利霞.基于深度学习的车辆行人检测方法研究D.太原:中北大学,2021.MENG Lixia.Research on vehicle pedestrian detection me-thod based on deep learningD.Taiyuan:North Universityof China,2021.3GIRSHICK R,DONAHUE J,DARRELL T,e

20、t al.Rich fea-ture hierarchies for accurate object detection and semanticsegmentationC/Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition,June23-28,2014,Columbus,OH,USA.Piscataway:IEEE,2014:580-587.4REN Shaoqing,HE Kaiming,GIRSHICK R,et al.FasterR-CNN:towards real-time obje

21、ct detection with region pro-posal networksJ.IEEE Transactions on Pattern Analysisand Machine Intelligence,2017,39(6):1137-1149.5LIN Tsungyi,DOLLAR P,GIRSHICK R,et al.Feature py-ramid networks for object detectionC/Proceedings of theIEEE Conference on Computer Vision and Pattern Recog-nition,July 21

22、-26,2017,Honolulu,HI,USA.Piscataway:IEEE,2017:936-944.6REDMON J,DIVVALA S,GIRSHICK R,et al.You onlylook once:unified,real-time object detectionC/Proceedingsof the IEEE Conference on Computer Vision and PatternRecognition,June 27-30,2016,Las Vegas,NV,USA.Pis-cataway:IEEE,2016:779-788.7LIU Wei,ANGUELO

23、V D,ERHAN D,et al.SSD:single shotmultibox detectorC/Proceedings of the Computer Vision-ECCV 2016:14th European Conference,Part I,October 11-14,2016,Amsterdam,The Netherlands.Springer Interna-tional Publishing,2016:21-37.8LIN Tsungyi,GOYAL P,GIRSHICK R,et al.Focal loss fordense object detectionJ.IEEE

24、 Transactions on Pattern An-alysis and Machine Intelligence,2020,42(2):318-327.9GUO Weijie,SHEN Nanbo,ZHANG Tianze.Overlappedpedestrian detection based on YOLOv5 in crowded scenesC/2022 3rd International Conference on Computer Vision,Image and Deep Learning&International Conference onComputer Engine

25、ering and Applications,May 20-22,2022,Changchun,China.Piscataway:IEEE,2022:412-416.10ZHU Xingkui,LYU Shuchang,WANG Xu,et al.TPH-YOLOv5:improved YOLOv5 based on transformer predic-tion head for object detection on drone-captured scenariosC/Proceedings of the IEEE/CVF International Conferenceon Computer Vision Workshops,October 11-17,2021,Montreal,BC,Canada.Piscataway:IEEE,2021:2778-2788.窑64窑

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服