收藏 分销(赏)

基于图像识别技术的被困人员智能探测定位系统.pdf

上传人:自信****多点 文档编号:2339950 上传时间:2024-05-28 格式:PDF 页数:5 大小:3.23MB
下载 相关 举报
基于图像识别技术的被困人员智能探测定位系统.pdf_第1页
第1页 / 共5页
基于图像识别技术的被困人员智能探测定位系统.pdf_第2页
第2页 / 共5页
基于图像识别技术的被困人员智能探测定位系统.pdf_第3页
第3页 / 共5页
亲,该文档总共5页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、消防设备研究Fire Science and Technology,October 2023,Vol.42,No.10基于图像识别技术的被困人员智能探测定位系统张博1,蒋慧灵2,孙敬1(1.西安市消防救援支队,陕西 西安 710000;2.北京科技大学 金属冶炼重大事故防控技术支撑基地,北京 100083)摘要:对各类灾害事故现场被困人员位置的准确掌握,能为救援人员制定救援方案提供科学的决策支持,进一步提高救援效率。为了更加快速精准地获取灾害事故现场被困人员位置,本文在对已有方法分析和总结的基础上,探索建立被困人员智能探测定位系统。该系统基于图像识别技术开发,通过自动获取并分析疏散通道上的视频

2、监控画面,判断该监控对应区域下是否有人员作出特定的求救姿势或者处于被困状态,从而将被困位置和相关信息发送至救援人员,协助救援。经测试,系统在人员姿势测试集上的检测准确率为 94%,在人员状态测试集上的探测准确度为 90%。关键词:被困人员;人员定位;求救姿势;应急救援中图分类号:X913.4;TP391.9 文献标志码:A 文章编号:1009-0029(2023)10-1408-05各类灾害事故一旦发生,基于有限数据快速获取被困人员被困点及被困画面信息,能为救援人员制定救援方案提供更加科学的决策支撑,对公共安全和消防救援意义重大。随着城市数字化、智能化发展进程的深入推进,智能监控摄像头得到广泛

3、使用,图像探测识别及跨域应用为安防、预警、救援提供了硬件和数据支撑。基于深度学习的图像识别技术1-2的出现,为基于视频图像分析获取被困人员位置提供了新的解决途径。当前,由于灾害事故现场混乱、数据信息获取不畅、热烟气流动影响、被困人员错误描述误导等因素,救援人员无法快速定位被困人员,只能盲目地开展地毯式排查搜救,既浪费了有限救援力量又降低了被困人员营救效率。为快速准确地定位灾害事故现场被困人员,制定有针对性的救援方案,现有的技术方法主要分为 3类。一是基于 ZigBee、UWB、Wi-Fi 等室内定位技术的方法3-6,可以通过预设基站,疏散人员携带定位模块(特制胸针、腕带、卡片)的方式,得到人员

4、的近似位置,但这类方法目前造价较高、定位有误差,且需要逃生人员随身携带定位模块。二是基于固定式呼救系统的方法,如消防电话、呼救按钮等,此类方法可根据消防电话、呼救按钮点位图获取被困人员位置,但此类方法对管线要求苛刻、布线繁琐、维护困难,且对于已丧失意识的人员来说,不能主动判断逃生人员是否处于被困状态。三是基于视频监控识别的方法,现多为救援人员通过建筑物内视频监控人为识别被困人员位置,此类方法需要救援人员第一时间到达视频监控室,观察监控画面,并通过对讲机、语音电话不间断协助其他救援人员开展救援,此类方法效率较低,当有较多被困人员时,观察人员往往手忙脚乱,且救援成功与否很大程度上取决于对现场态势的

5、把握和配合默契度。近年来,基于深度学习的图像分析技术在目标检测、智慧疏散等方面的应用逐渐深化,表现出效率高、精度高、不需要人为参与识别的巨大优势。比如,基于级联CNN 的疏散场景中人群数量估计模型7可以基于疏散通道上的监控画面自动分析该视频监控范围内的人员密度;基于深度学习的人体交通智慧姿势识别方法研究8结合 RGB、骨骼关键点和密集姿态 3 种不同的交通指挥姿态数据进行姿势识别;面向消防演练应用的姿势识别和目标定位9,利用双目相机实现对消防体验者的特殊姿势识别和灭火器定位。本文在前期工作基础上10,进一步考虑光照不足、能见度低等不利救援环境的影响,并基于 Django 框架开发被困人员智能探

6、测定位系统,为救援人员快速、准确地探测定位灾害事故现场被困人员位置提供了数据支撑。1被困人员智能探测定位系统工作原理基于图像识别技术的被困人员智能探测定位系统的工作流程如图 1 所示。系统通过分析建筑内各视频监控上传的实时画面,智能判断是否有人员作出求救姿势或者已经处于被困状态。当发现有人员被困时,系统会自动将被困人员位置和实时监控画面发送至救援人员,协助救援。系统包含人员求救姿势探测和人员状态探测两个模块。其中,人员求救姿势探测模块通过分析疏散通道上的监控画面,判定该画面内是否有人员作出特定的求救姿势,人员状态探测模块针对已经丧失意识或者无法主动作出求救姿势的逃生人员进行设计,通过分析监控画

7、面中一段时间内(本文设定为 15 s)人员状态变化情况,判断该画面中是否存在被困人员。逃生疏散过程中,监控画面上人员状态的变化如图 2所示。图 2 中,1 为初始画面有人员但人员呈不完整状态,即部分身体被遮盖、蹲下等,而在 15 s内从镜头消失;2为初始时人员呈卧倒姿态,而在 15 s内从镜头消失;3为初始时人员呈站立姿态,而在 15 s 内从镜头消失。图 2中,1、2、3 均为初始画面中有人员,但人员在 15 s 内从画面消失,系统判别在此情况下人员具有疏散能力,不进行报警;4为 15 s内人员从不完整姿态转化为站立姿态;5为基金项目:国家重点研发计划(2021YFC1523504);国家应

8、急管理部科技计划(2021XFCX25)15 s内人员从卧倒姿态转化为站立姿态;6 为 15 s内人员一直呈站立姿态且发生了移动,但移动范围较小。4、5、6均为人员姿态发生变化,但不能确定人员是否还具有逃生能力,需继续向后采集 10 s视频画面,判断人员是否还存在于当前镜头,若不存在,系统判别人员具有逃生能力,若存在,需请求系统进行识别分析。7 为 15 s 内人员一直呈不完整姿态,8为 15 s内人员一直呈卧倒状态,9为15 s内人员不完整状态和卧倒状态相互转化,10为 15 s内人员由站立状态转化为卧倒状态,11 为 15 s 内人员由站立状态转化为不完整状态。7、8、9、10、11 均为

9、人员在 15 s内还在当前监控范围内,需请求系统进行识别分析。2系统中探测模块的设计与实现2.1模型的基础架构被困人员智能探测定位系统中,人员求救姿势探测模型和人员状态探测模型的整体架构基于 YOLOv8目标检测算法,但在综合考虑低光照、低能见度等不利因素的影响下,本文增加了生成图像反馈层。模型整体架构如图 3 所示。其中,Backbone层通过卷积、池化等操作提取图像特征;Head层通过特征融合、重组等方式来进行目标检测、类别预测;生成图像反馈层通过特征提取层生成的特征片段来重建生成 RGB图像,并通过其生成的 RGB图像和正常光图像之间的损失值来更新整个网络权值,从而使得提取的特征片段更偏

10、向于正常光图像。2.2网络层设置模块基于 PyTorch 深度学习框架实现,网络层设置如表 1 所示,共分为 Backbone、Generate、Head 三个分区,其中 conv、C2f、SPPF 分别为 YOLOv8 模型中的卷积层、残差块、池化层,UpSample 为上采样,generate 为图片生成层,输出为正常光图像。2.3数据集制作在图像识别领域中,数据对模型结果具有很大的影响力,获取合适的数据集是决定学习效果的第一步,也是极其关键的一步。本文需要解决的是紧急情况下疏散通道人员识别定位问题,该场景具有如下特点:监控摄像头角度多为俯视,且涉及到人员侧面、背面等多个角度;通道上光照不

11、足;火灾场景下受烟气影响,能见度相对不足;被困人员多为卧倒、低身位状态;疏散时人员会发生重叠遮挡现象。为了使数据集更接近于真实场景,本文采用自建数据集,共制作人员求救姿势数据集原图 1 060张,人员状态数据集原图 1 200组(1张为当前帧照片,1张为与之形成状态对比的 15 s 前照片)。数据集制作具体流程如图 4 所示,首先对图像进行了缩放、旋转、裁剪、调色等操作,然后采用 labelImg 开源软件对目标类别、目标区域进行标注,并生成 txt格式的标注文件。2.4模型的训练2.4.1人员求救姿势探测模型人员求救姿势探测模型的训练是通过生成图片与正常光图片的损失值、目标类别的损失值和目标

12、区域的损失值来迭代更新网络各层参数,其损失函数分为生成损失、分类损失和回归损失。生成损失:生成图像与正常光图像之间的 RGB 值差别,采用均方误差函数11,见式(1)。L1=m=1M(Ym-Pm)2(1)式 中:Pm为正 常 光 图 像 的 RGB 值;Ym为生 成 图 像 的RGB值;M 为输入图像包含像素点总个数。报警是是是否作出求救姿势是否被困人员状态探测模块是画面中是否有人监控画面图 1被困人员识别定位系统流程图Fig.1Flowchart of trapped person identification and location model1234561110987人员呈站立状态人员

13、呈卧倒状态人员呈不完整状态图 2人员状态变化图Fig.2The graph of personnel status change输入图像生成图像反馈层生成图像特征融合特征融合特征融合融合特征回归预测特征提取特征提取特征提取BackboneHeadY0L0v8图 3人员求救姿势探测模块和人员状态探测模型架构Fig.3The infrastructure of personnel posture detection and status detection module1408消防科学与技术2023年 10 月第 42 卷第 10 期15 s内人员从卧倒姿态转化为站立姿态;6 为 15 s内人员一

14、直呈站立姿态且发生了移动,但移动范围较小。4、5、6均为人员姿态发生变化,但不能确定人员是否还具有逃生能力,需继续向后采集 10 s视频画面,判断人员是否还存在于当前镜头,若不存在,系统判别人员具有逃生能力,若存在,需请求系统进行识别分析。7 为 15 s 内人员一直呈不完整姿态,8为 15 s内人员一直呈卧倒状态,9为15 s内人员不完整状态和卧倒状态相互转化,10为 15 s内人员由站立状态转化为卧倒状态,11 为 15 s 内人员由站立状态转化为不完整状态。7、8、9、10、11 均为人员在 15 s内还在当前监控范围内,需请求系统进行识别分析。2系统中探测模块的设计与实现2.1模型的基

15、础架构被困人员智能探测定位系统中,人员求救姿势探测模型和人员状态探测模型的整体架构基于 YOLOv8目标检测算法,但在综合考虑低光照、低能见度等不利因素的影响下,本文增加了生成图像反馈层。模型整体架构如图 3 所示。其中,Backbone层通过卷积、池化等操作提取图像特征;Head层通过特征融合、重组等方式来进行目标检测、类别预测;生成图像反馈层通过特征提取层生成的特征片段来重建生成 RGB图像,并通过其生成的 RGB图像和正常光图像之间的损失值来更新整个网络权值,从而使得提取的特征片段更偏向于正常光图像。2.2网络层设置模块基于 PyTorch 深度学习框架实现,网络层设置如表 1 所示,共

16、分为 Backbone、Generate、Head 三个分区,其中 conv、C2f、SPPF 分别为 YOLOv8 模型中的卷积层、残差块、池化层,UpSample 为上采样,generate 为图片生成层,输出为正常光图像。2.3数据集制作在图像识别领域中,数据对模型结果具有很大的影响力,获取合适的数据集是决定学习效果的第一步,也是极其关键的一步。本文需要解决的是紧急情况下疏散通道人员识别定位问题,该场景具有如下特点:监控摄像头角度多为俯视,且涉及到人员侧面、背面等多个角度;通道上光照不足;火灾场景下受烟气影响,能见度相对不足;被困人员多为卧倒、低身位状态;疏散时人员会发生重叠遮挡现象。为

17、了使数据集更接近于真实场景,本文采用自建数据集,共制作人员求救姿势数据集原图 1 060张,人员状态数据集原图 1 200组(1张为当前帧照片,1张为与之形成状态对比的 15 s 前照片)。数据集制作具体流程如图 4 所示,首先对图像进行了缩放、旋转、裁剪、调色等操作,然后采用 labelImg 开源软件对目标类别、目标区域进行标注,并生成 txt格式的标注文件。2.4模型的训练2.4.1人员求救姿势探测模型人员求救姿势探测模型的训练是通过生成图片与正常光图片的损失值、目标类别的损失值和目标区域的损失值来迭代更新网络各层参数,其损失函数分为生成损失、分类损失和回归损失。生成损失:生成图像与正常

18、光图像之间的 RGB 值差别,采用均方误差函数11,见式(1)。L1=m=1M(Ym-Pm)2(1)式 中:Pm为正 常 光 图 像 的 RGB 值;Ym为生 成 图 像 的RGB值;M 为输入图像包含像素点总个数。报警是是是否作出求救姿势是否被困人员状态探测模块是画面中是否有人监控画面图 1被困人员识别定位系统流程图Fig.1Flowchart of trapped person identification and location model1234561110987人员呈站立状态人员呈卧倒状态人员呈不完整状态图 2人员状态变化图Fig.2The graph of personnel s

19、tatus change输入图像生成图像反馈层生成图像特征融合特征融合特征融合融合特征回归预测特征提取特征提取特征提取BackboneHeadY0L0v8图 3人员求救姿势探测模块和人员状态探测模型架构Fig.3The infrastructure of personnel posture detection and status detection module人员求救姿势探测模块1409Fire Science and Technology,October 2023,Vol.42,No.10低光照图像正常光照图像缩放、调色旋转(任意角度)标记目标类别标记目标区域对比图像图 4数据集制作流程

20、Fig.4The process of making a dataset of detection module分类损失:目标区域判别类别与实际类别的差别,采用交叉熵损失函数12,如式(2)所示。L2=-1Ni=1Nj=1Myijlog(pij)(2)式中:N 为样本数;M 为类别数;yij为第 i个样本的真实标签是否为第 j 类;pij为模型预测第 i 个样本为第 j 类的概率。回归损失:目标区域与目标实际所在区域的差别,采用DFL损失函数和CLoU损失函数13,如式(3)所示。L3=DFL(Si,Si+1)+CLoU(3)式中:为权重系数,需根据网络训练进行调整;DFL损失函数以概率的方式

21、对预测框进行回归;CLoU 函数通过预测框和标记框的重叠面积、中心点距离、长宽比等因素来综合计算预测损失。整个网络训练过程中使用的损失函数如式(4)所示。LS=L1+L2+L3(4)式中:、为各损失模块的权重系数,需根据网络训练损失值变化情况进行实时调整。本文共设置人员求救姿势探测模型训练的次数为100次,误差函数随着迭代次数的变化如图 5所示。4321(b)train/cls_loss0 50 100迭代次数损失值3.53.02.52.01.51.00 50 100(a)train/bos_loss迭代次数损失值0 50 1003.53.02.52.01.51.0迭代次数(d)val/box

22、_loss损失值0 50 1004.03.53.02.52.01.5(c)train/dfl_loss迭代次数损失值30201000 50 100(e)val/cls_loss迭代次数损失值0 50 1004.03.53.02.52.01.5(f)val/dfl_loss迭代次数损失值图 5人员求救姿势模型损失值迭代变化图Fig.5The change of personnel posture detection model loss value实际的目标类别、区域和模型估计的目标类别、区域表 1人员求救姿势探测模块网络层分区设置表Table 1The network layer of pos

23、ture detection module分区BackboneGenerateHead参数设置L0:Conv(ch_in=3,ch_out=64,kernel=3,slide=2,padding=1,activation=SiLU)L1:Conv(ch_in=64,ch_out=128,kernel=3,slide=2,padding=1,activation=SiLU)L2:C2f(ch_in=128,ch_out=128)L3:Conv(ch_in=128,ch_out=256,kernel=3,slide=2,padding=1,activation=SiLU)L4:C2f(ch_in=

24、256,ch_out=256)L5:Conv(ch_in=256,ch_out=512,kernel=3,slide=2,padding=1,activation=SiLU)L6:C2f(ch_in=512,ch_out=512L7:Conv(ch_in=512,ch_out=1024,kernel=3,slide=2,padding=1,activation=SiLU)L8:C2f(ch_in=1024,ch_out=1024)L9:SPPF(ch_in=1024,ch_out=512,k=5)G0:UpSample(scale_factor=4,mode=nearest)G1:conv(c

25、h_in=512,ch_out=256,kernel=3,slide=1,padding=1,activation=SiLU)G2:c2f(G1,L4)G3:UpSample(scale_factor=2,mode=nearest)G4:conv(ch_in=256,ch_out=128,kernel=3,slide=1,padding=1,activation=SiLU)G5:c2f(G4,L2)G6:UpSample(scale_factor=4,mode=nearest)G7:generate(ch_in=128,ch_out=3,kernel=3,slide=1,padding=1,a

26、ctivation=SiLU)H0:UpSample(scale_factor=2,mode=nearest)H1:Concat(H0,L6)H2:C2f(ch_in=1024,ch_out=512)H3:UpSample(scale_factor=2,mode=nearest)H4:Concat(H3,L4)H5:C2f(ch_in=512,ch_out=256)H6:conv(ch_in=256,ch_out=256,kernel=3,slide=2,padding=1,activation=SiLU)H7:Concat(H6,L12)H8:C2f(ch_in=256,ch_out=512

27、)H9:conv(ch_in=512,ch_out=512,kernel=3,slide=2,padding=1,activation=SiLU)H10:Concat(H9,L9)H11:C2f(ch_in=512,ch_out=1024)H12:Detect(H5,nc=3);Detect(H8,nc=3);Detect(H11,nc=3)之间的误差随着迭代次数的增加逐渐减少,最终趋于稳定。2.4.2人员状态探测模型人员状态探测模型的输入数据是当前帧视频画面和15 s前视频画面,系统通过预处理将图像组合成为 6维矩阵,输出为所预测的类别(0 为画面中无人员、1 为画面中有人员但不处于被困状态

28、、2为画面中有人员且该人员处于被困状态)。整个网络训练过程中使用的损失函数为生成损失和分类损失。本文设置人员姿势探测模型训练迭代次数为 300次,模型训练时,误差函数、模型准确率随着迭代次数的变化如图 6所示,实际的图片类别和估计的图片类别之间的误差逐渐减少,最终趋于稳定。2.5复杂环境下模型的验证为验证模型在实际救援现场的表现,本文制作低光、低能见度等复杂环境测试集 100 张。图 7 为在复杂环境下,随着训练次数的变化,人员求救姿势探测模型、人员状态探测模型和 YOLOv8模型准确率的变化图。图中蓝色点为 YOLOv8 模型在测试集上的准确率,左图中黄色点为人员求救姿势探测模型在测试集上的

29、准确率,右图中黄色点为人员状态探测模型在测试集上的准确率。从图中可以看出,加入生成图像反馈层后,模型在灰暗、烟雾等复杂环境下的准确率提高约 10%。3系统的实现与应用基于图像识别技术的被困人员智能探测定位系统架构如图 8 所示。系统整体采用 Python 编程语言进行开发,服务器端基于 Django框架,部署于腾讯云托管服务平台,数据库中相关信息为与监控摄像头 id 对应的预存储信息,视频监控采用海康威视 4G 断电可续航版,客户端采用微信小程序实现。当接到报警信息后,救援人员第一时间进入小程序启动系统,服务器端开始不间断读取并识别分析该区域建筑内的视频监控画面,当人员求救姿势和人员状态探测模

30、块判定出有人员作出求救姿势或处于被困状态后,服务器端对该监控画面对应的摄像头进行记录,同时服务器端将根据所记录的摄像头 id 在数据库查询预存储的地址、救援路线和注意事项等数据,并整合相关信息和被困人员画面发送至救援人员小程序端进行展示。本文所进行的系统应用测试主要分为人员求救姿势测试和人员状态测试两大类。测试环境为不同光照条件下的楼梯拐角、疏散通道等,测试次数各为 100次,测试结果如图 9 和图 10 所示。图 9 为人员姿势探测混淆矩阵。从图中可以看出,系统将正常人员预测为发出求救姿势的被困人员占比 3%,识别正常人员准确率 97%;将发出求救姿势的被困人员探测为正常人员占比为 6%,识

31、别被困人员准确率为 94%。从图 10 中可以看出,系统将正常场景预测为有人员处于被困状态占比 2%,识别准确率 98%;将有人员处于被困状态的场景识别为正常场景的占比为 10%,识别准确率为 90%。(a)train/loss0.150.100.050.000 100 200 300迭代次数损失值(b)val/loss0.250.200.150 100 200 300迭代次数损失值图 6人员状态探测模型损失值变化图Fig.6The change of status detection model loss value0.80.70.60.50.40.30.20.100 20 40 60 80

32、 100accuracy_YOLOV8accuracy Detect0.90.80.70.60.50.40.30.20.100 80 100 150 200 250 300accuracy_YOLOV8accuracy Detect迭代次数迭代次数准确率准确率(a)人员求救姿势探测模型(b)人员状态探测模型图 7复杂环境下模型准确率对比图Fig.7The Comparison of model accuracy in complex environments启动系统有 被 困 人 员 的实 时 监 控 画 面及相关信息客户端人员状态探测模块人员求救姿势探测模块读取视频流服务器摄像头对应位置所在

33、区域信息摄像头ID对应信息数据库图 8被困人员智能探测定位系统架构Fig.8The architecture of the intelligent identification and location model0.06实际为被困人员实际为正常人员0.030.970.94预测为正常人员预测为被困人员0.80.60.40.20.0准确率图 9人员姿势探测混淆矩阵Fig.9Personnel posture detection confusion matrix1410消防科学与技术2023年 10 月第 42 卷第 10 期之间的误差随着迭代次数的增加逐渐减少,最终趋于稳定。2.4.2人员状态探

34、测模型人员状态探测模型的输入数据是当前帧视频画面和15 s前视频画面,系统通过预处理将图像组合成为 6维矩阵,输出为所预测的类别(0 为画面中无人员、1 为画面中有人员但不处于被困状态、2为画面中有人员且该人员处于被困状态)。整个网络训练过程中使用的损失函数为生成损失和分类损失。本文设置人员姿势探测模型训练迭代次数为 300次,模型训练时,误差函数、模型准确率随着迭代次数的变化如图 6所示,实际的图片类别和估计的图片类别之间的误差逐渐减少,最终趋于稳定。2.5复杂环境下模型的验证为验证模型在实际救援现场的表现,本文制作低光、低能见度等复杂环境测试集 100 张。图 7 为在复杂环境下,随着训练

35、次数的变化,人员求救姿势探测模型、人员状态探测模型和 YOLOv8模型准确率的变化图。图中蓝色点为 YOLOv8 模型在测试集上的准确率,左图中黄色点为人员求救姿势探测模型在测试集上的准确率,右图中黄色点为人员状态探测模型在测试集上的准确率。从图中可以看出,加入生成图像反馈层后,模型在灰暗、烟雾等复杂环境下的准确率提高约 10%。3系统的实现与应用基于图像识别技术的被困人员智能探测定位系统架构如图 8 所示。系统整体采用 Python 编程语言进行开发,服务器端基于 Django框架,部署于腾讯云托管服务平台,数据库中相关信息为与监控摄像头 id 对应的预存储信息,视频监控采用海康威视 4G

36、断电可续航版,客户端采用微信小程序实现。当接到报警信息后,救援人员第一时间进入小程序启动系统,服务器端开始不间断读取并识别分析该区域建筑内的视频监控画面,当人员求救姿势和人员状态探测模块判定出有人员作出求救姿势或处于被困状态后,服务器端对该监控画面对应的摄像头进行记录,同时服务器端将根据所记录的摄像头 id 在数据库查询预存储的地址、救援路线和注意事项等数据,并整合相关信息和被困人员画面发送至救援人员小程序端进行展示。本文所进行的系统应用测试主要分为人员求救姿势测试和人员状态测试两大类。测试环境为不同光照条件下的楼梯拐角、疏散通道等,测试次数各为 100次,测试结果如图 9 和图 10 所示。

37、图 9 为人员姿势探测混淆矩阵。从图中可以看出,系统将正常人员预测为发出求救姿势的被困人员占比 3%,识别正常人员准确率 97%;将发出求救姿势的被困人员探测为正常人员占比为 6%,识别被困人员准确率为 94%。从图 10 中可以看出,系统将正常场景预测为有人员处于被困状态占比 2%,识别准确率 98%;将有人员处于被困状态的场景识别为正常场景的占比为 10%,识别准确率为 90%。(a)train/loss0.150.100.050.000 100 200 300迭代次数损失值(b)val/loss0.250.200.150 100 200 300迭代次数损失值图 6人员状态探测模型损失值变

38、化图Fig.6The change of status detection model loss value0.80.70.60.50.40.30.20.100 20 40 60 80 100accuracy_YOLOV8accuracy Detect0.90.80.70.60.50.40.30.20.100 80 100 150 200 250 300accuracy_YOLOV8accuracy Detect迭代次数迭代次数准确率准确率(a)人员求救姿势探测模型(b)人员状态探测模型图 7复杂环境下模型准确率对比图Fig.7The Comparison of model accuracy

39、in complex environments启动系统有 被 困 人 员 的实 时 监 控 画 面及相关信息客户端人员状态探测模块人员求救姿势探测模块读取视频流服务器摄像头对应位置所在区域信息摄像头ID对应信息数据库图 8被困人员智能探测定位系统架构Fig.8The architecture of the intelligent identification and location model0.06实际为被困人员实际为正常人员0.030.970.94预测为正常人员预测为被困人员0.80.60.40.20.0准确率图 9人员姿势探测混淆矩阵Fig.9Personnel posture det

40、ection confusion matrix1411Fire Science and Technology,October 2023,Vol.42,No.104结 论本文在对疏散场景特征分析的基础上,基于图像识别技术和 Django框架开发被困人员识别定位系统。被困人员识别定位系统通过设置人员求救姿势探测模块和人员状态探测模块,智能识别分析监控画面中是否有人员发出求救姿势或处于被困状态,并通过加入生成图像反馈模块,有效地避免了黑暗、烟气等环境因素对探测模型的影响。通过自建的方式构建了符合灾害事故现场救援环境的数据集。通过在楼梯拐角、疏散通道上进行测试,系统人员姿势探测准确率为 94%,人员状

41、态探测准确率为 90%,并可实时将报警信息、现场画面发送至救援人员的小程序客户端辅助救援。参考文献:1 REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:Unified,realtime object detectionC/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016:779-788.2 陈鑫浩.具有被困人员定位功能的火灾报警系统的研究与设计D.长春:吉林建筑大学,2021.3 方建博,张福文,刘旭,等.

42、基于火灾报警和被困人员定位功能的消防系统设计J.无线互联科技,2018,15(11):72-73.4 王祥瑞.ZigBee技术和 CAN 技术在高层建筑被困人员定位系统的应用研究J.吉林建筑工程学院学报,2013,30(6):52-55.5 戚美月.高层建筑被困人员准确定位和疏导系统研究D.长春:吉林建筑大学,2014.6 刘小洪.采用 WIFI 技术的震后被困人员定位算法研究D.成都:成都理工大学,2015.7 邓青,张博,李宜豪,等.基于级联 CNN 的疏散场景中人群数量估计模型J.清华大学学报(自然科学版),2023,63(1):146-152.8 李亚楠.基于深度学习的人体交通指挥姿势

43、识别方法研究D.长沙:湖南大学,2020.9 黄祎,李彬,付道繁.面向消防演练应用的姿势识别和目标定位J.福建电脑,2023,39(5):26-29.10 张博,蒋慧灵.基于图像深度识别的被困人员救援辅助系统:中国,CN111738205AP.2020-10-02.11 CHANG,W G,YOU,T,SEO S,et al.Domainspecific batch normalization for unsupervised domain adaptationC/CVPR2019,2019.12 RUBY U,YENDAPALLI V.Binary cross entropy with de

44、ep learning technique for image classificationJ.International Journal of Advanced Trends in Computer Science and Engineering,2020,9(4):5393-5397.13 ZHENG Z H,WANG P,LIU W,et al.DistanceIoU loss:Faster and better learning for bounding box regressionJ.arXiv:1911.08287.A trapped person detection and lo

45、cation model based on the image recognition technologyZhang Bo1,Jiang Huiling2,Sun Jing1(1.Xian Fire and Rescue Division,Shaanxi Xian 710000,China;2.Technical Support Center for Prevention and Control of Disastrous Accidents in Metal Smelting,CPAM,University of Science and Technology Beijing,Beijing

46、 100083,China)Abstract:The accurate acquisition of the location of trapped persons at various disaster scenes can provide decision support for the formulation of rescue plans and further enhance rescue efficiency.In order to obtain the location of people at disaster scenes more accurately,this paper

47、 explores an intelligent model for detect and locate the trapped person based on the analysis and summary of existing methods.The system is developed based on the image recognition can automatically analyses realtime video surveillance footage and recognizes whether a person is in a specific distres

48、s posture or trapped,so as to send the trapped location and relevant information to rescue personnel for assistance.After testing,the detection accuracy of the system on the personnel posture test set is 94%,and the detection accuracy on the personnel status test set is 90%.Key words:trapped person;personnel location;distress posture;emergency rescue作者简介:张 博(1996-),男,陕西西安人,西安市消防救援支队,硕士,主要从事智慧消防、人员疏散方面的工作,陕西省西安市雁塔区翔悦路与雁翔路交叉口西 40米,710000。收稿日期:2023-05-09(责任编辑:毛星)0.900.980.020.100.80.60.40.20.0预测为正常人员预测为被困人员准确率实际为被困人员实际为正常人员图 10人员状态探测混淆矩阵Fig.10Personnel status detection confusion matrix1412

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服