收藏 分销(赏)

基于边缘设备轻量化行为识别算法.pdf

上传人:自信****多点 文档编号:2103026 上传时间:2024-05-16 格式:PDF 页数:7 大小:2.23MB
下载 相关 举报
基于边缘设备轻量化行为识别算法.pdf_第1页
第1页 / 共7页
基于边缘设备轻量化行为识别算法.pdf_第2页
第2页 / 共7页
基于边缘设备轻量化行为识别算法.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、现代电子技术Modern Electronics Technique2023年12月1日第46卷第23期Dec.2023Vol.46 No.230 引 言在机场加油车等场景下,工作人员在完成相关的操作后需要做出确认动作,如手指、弯腰等,机场方面需要对工作人员的行为进行监督,目前使用的方法是人工监管或是视频监控,但实际处理起来耗时耗力,难以做到全天候实时处理,可能会存在安全隐患。得益于目前深度学习的发展,基于深度学习的行为识别算法可以对监控视频进行智能分析和处理,对工作人员的行为进行全天候、实时的识别监测。目前基于视频的行为识别算法主要有传统算法和基于深度学习的方法两大类1。传统方法使用统计学习

2、的方法,对手工设计的特征进行行为分类;目前基于深度学习的人体行为识别方法主要有以下三种:基于双流网络(twostream)2、基于三维卷积网络(C3D)3、基于长短时记忆网络(LSTM)4。有学者利用深度学习推进行基于边缘设备轻量化行为识别算法郑永生1,肖 军2,温高能3,雷 磊4,彭勃兴4,文润玉4(1.中国航油集团海鑫航运有限公司,上海 200051;2.中国航空油料有限责任公司华北公司,北京 100102;3.航天神舟智慧系统技术有限公司,北京 100029;4.四川大学 电子信息学院,四川 成都 610065)摘 要:针对机场加油车等某些生产场景下工作人员的行为得不到实时性监督的问题,

3、提出一种可部署至边缘设备轻量化加油员行为识别算法。该算法首先使用基于YOLOv5s改进的目标检测网络进行快速人体检测;再使用IoU和直方图相似度相结合的跟踪算法对检测到的人体目标进行跟踪,由跟踪得到的序列图像通过轻量级的姿态估计网络预测出人体的骨骼关键点序列数据;最后将骨骼关键点序列数据输入到 6层的全连接网络分类器中进行动作分类,判断加油员动作是否规范完成。实验数据表明:该算法大大减少了网络权重和计算量,其中改进后的人体检测网络 YOLOv5mini在边缘设备比特大陆Sophon SE5上单帧检测速度可达18 ms;在实际场景数据集上,算法行为检测准确率可达95.92%。关键词:目标检测;Y

4、OLOv5;目标跟踪;骨骼关键点;行为识别;轻量化中图分类号:TN91134;TP311 文献标识码:A 文章编号:1004373X(2023)23013707Lightweight behavior recognition algorithm based on edge devicesZHENG Yongsheng1,XIAO Jun2,WEN Gaoneng3,LEI Lei4,PENG Boxing4,WEN Runyu4(1.China National Aviation Fuel Group Haixin Shipping Co.,Ltd.,Shanghai 200051,China

5、;2.North China Company of China National Aviation Fuel Supply Co.,Ltd.,Beijing 100102,China;3.Aerospace Shenzhou Intelligent System Technology Co.,Ltd.,Beijing 100029,China;4.College of Electronics and Information Engineering,Sichuan University,Chengdu 610065,China)Abstract:In order to solve the pro

6、blem that the behavior of the staff in some production scenarios,such as airport refueling trucks,can not be monitored in real time,a lightweight refueling staff behavior recognition algorithm that can be deployed to edge devices is proposed.In the algorithm,the improved object detection network bas

7、ed on YOLOv5s is used to perform fast human detection first,and then the tracking algorithm combining IoU and histogram similarity is used to track the detected human objects,so as to predict the sequence data of human skeleton key points by the lightweight pose estimation network based on the track

8、ed sequence images,and the sequence data of skeleton key points is input into the 6layer fullyconnected network classifier for action classification,so as to judge whether the fuel dispensers actions are completed in a standard manner.The experimental data show that the algorithm can greatly reduce

9、the network weight and computation.The improved human detection network YOLOv5mini can achieve a single frame detection speed of 18 ms on the edge device BITMAIN Sophon SE5,and the accuracy of behavior detection of this algorithm can reach 95.92%on the actual scene dataset.Keywords:object detection;

10、YOLOv5;object tracking;skeleton key point;behavior recognition;lightweightDOI:10.16652/j.issn.1004373x.2023.23.025引用格式:郑永生,肖军,温高能,等.基于边缘设备轻量化行为识别算法J.现代电子技术,2023,46(23):137143.收稿日期:20230317 修回日期:20230413137137现代电子技术2023年第46卷为识别研究,如基于骨骼关键点的行为识别5等。得益于 深 度 学 习 的 发 展,轻 量 化 的 姿 态 估 计 网 络SimplePose6、HrNet7

11、等的出现,使得基于骨骼关键点的行为识别具有较高的可行性。本文提出了一种轻量级行为识别算法,基于序列关键点实现,算法包括人体检测和行为识别两部分。人体检测算法基于 YOLOv5进行了轻量化优化,网络结构调整后既能够保持高准确率,又能够加快推理速度,从而减少推理计算量。在行为识别算法中,通过姿态估计获得骨骼关键点数据,然后将其输入到全连接网络中实现了快速的行为分类。该算法能够与现有的监控系统相结合,对监控场景中的工作人员进行实时行为识别监测,从而保证生产的安全性。1 相关工作1.1 目标检测算法目标检测算法主要有两大类:一阶段目标检测(onestage)和二阶段目标检测(twostage)8。其中

12、二阶段目标检测先进行预测框的回归,再对预测框目标进行分类,相关算法有 RCNN9系列、SPPNET10等。而一阶段目标检测则是直接对输入图片进行网格化处理,经网络提取特征后进行目标位置回归和分类预测,相关算法有YOLO11系列、SSD12等。YOLO系列中,YOLOv5在输入端、特征提取网络、特征多尺度融合等多个方面进行了优化13,目标检测性能优越,但是直接部署至边缘设备等算力较弱的终端上时,其难以达到实时检测的要求。因此,可以对网络结构进行轻量化调整,选择微小的精度损失换取更快的推理速度14。YOLOv5目标检测网络的调整主要有三个方面:1)对MobileNetV215的Bottleneck

13、模块进行改进,同时 对 网 络 层 数 和 通 道 数 进 行 调 整,使 用 调 整 后 的MobileNetV2网络替换YOLOv5的特征提取网络。2)在特征提取网络的末端加入空间金字塔池化结构。3)特征融合部分,将3层的特征融合调整为2层的特征融合。1.2 目标跟踪算法目标跟踪16算法能够预测和估计视频或图像序列中运动物体的位置和其他信息。当前对目标跟踪的研究与实现大都是基于检测的跟踪17,首先通过目标检测算法得到目标的定位框,然后根据定位框进行下一步的跟踪。IOUTracker18是Erik等人提出的一种简单高效的目标跟踪模型,速度快且不需要额外的图像信息。该算法的提出基于两个假设:一

14、是检测器性能足够好;二是视频帧率较高。为提升算法稳定性,选择对IOUTracker算法进行改进,在 IoU 匹配结束后,对未匹配的检测框计算其与激活状态检测框的直方图相似度,再次进行匹配。1.3 行为分类算法行为分类19即识别输入图像中人体行为所属类别,其关键在于建立人体图像与行为类别之间的关系。根据输入数据的不同,主要有两种方法:一是基于静态图像;二是基于视频或图像序列。基于静态图像的行为分类 是 通 过 单 帧 静 态 图 像 来 判 断 其 所 属 特 征。如ResNet20系列、轻量级MobileNet系列21等。但在分类过程中没有利用到图像之间的时间关联信息,因而在一些连续性的动作或

15、行为的识别中效果不佳。基于图像序列的行为分类算法取得了不错的效果,本文在此基础上结合基于骨骼关键点的行为分类方法22,提出基于序列关键点的行为识别算法,该算法先将人体序列图通过姿态估计网络得到序列关键点数据,然后将序列关键点数据输入到一个全连接网络中进行分类。2 轻量级行为检测算法设计2.1 目标检测算法网络设计2.1.1 目标检测算法网络改进为减少网络计算量和参数量,在保证精度的前提下,MobileNetV2网络使用深度可分离卷积代替传统卷积,将传统卷积操作拆分为深度卷积(DepthWise,DW)与逐点卷积(PointWise,PW),相较于普通卷积减少了运算量,因而 MobileNet网

16、络结构简单、参数量少、推理速 度 较 快,被 广 泛 应 用 于 边 缘 设 备 和 移 动 端。MobileNetV2网络结构如表 1所示。其中:Input是每层输入大小;Operator代表执行的操作;t是推理时扩展因子;c为通道数;n为模块堆叠层数;s表示步长。表1 MobileNetV2网络结构Input2242 31122 321122 16562 24282 32142 64142 9672 16072 32072 1 2801 1 1 280OperatorConv2dbottleneckbottleneckbottleneckbottleneckbottleneckbottle

17、neckbottleneckConv2d 1 1Avgpool 7 7Conv2d 1 1t1666666c3216243264961603201 280kn1123433111s2122212111138第23期为了更好地进行特征提取,避免特征信息损失,MobileNetV2 使用倒残差结构(Inverted Residual Block)代替之前的残差结构,倒残差结构利用 PW卷积对输入的特征先作 PW 卷积提升通道数,然后使用 DW 卷积提取特征,最后使用PW卷积将通道数减少。文献23提出了 SandGlass Block。其相比较于原bottleneck 模块有两点改进:一是为了提升梯

18、度回传效果,尽可能保证残差结构从bottom上传到top时具有更多的信息;二是在原来 DW 卷积的基础上再进行一次 CW卷积,从而获得更多的特征信息,提升网络的学习能力。改进MobileNetV2网络两种模块结构如图1所示。图1 改进MobileNetV2网络模块结构由于实际应用场景中只需检测人体这一 目 标,在 保 持 精 度 的 前 提 下,对MoblieNetV2 的网络结构进一步调整,减少网络层数,将网络拓展因子减小为4,减少网络的通道数,网络最大通道数减少为160,调整后的网络结构如表2所示。表2 调整后特征提取网络结构Input3042 31522 321522 24762 647

19、62 64382 96382 96192 160192 160OperatorConv2dBlockSandGlassBlockSandGlassBlockSandGlassBlockSandGlasst44444444c322464649696160160n121222212s21212121由于数据集中图片尺寸多样,为了获得更真实的特征信息,可以通过空间金字塔池化结构24对不同尺寸的特征信息进行压缩和融合。考虑到人体目标检测框尺寸,使用4个尺寸的池化层,其结构如图2所示。图2 空间金字塔池化模块SPP模块的处理流程为:将提取到的特征图并行地通过尺寸分别为 3、5、7、9的最大池化层,得到

20、4个不同尺寸的池化层输出,再与原特征图进行拼接,然后通过卷积操作实现不同尺度的特征图进行信息融合。2.1.2 特征融合改进由于人体检测目标单一且属于较大目标,因而可以在不降低精度的前提下减少特征融合的层数,提高推理速度,因而使用 2层特征信息融合,同时选择保留路径聚合网络PANet25。为了更充分地融合不同尺度的特征信息,PANet在原来基础上增加自下而上的特征融合路径,对 1919 和 3838 两个输入特征层进行特征融合,融合得到的特征信息都包含两种不同尺度的特征信息,因此得以实现特征增强的效果。2.1.3 改进后的YOLOv5网络结构综上所述的调整,改进的人体目标检测网络结构如图3所示,

21、将其称为YOLOv5mini。2.2 基于IoU与直方图相似度的目标跟踪法引入IOUTracker算法将前后帧检测目标进行关联,实现对单个人体目标的追踪,改进的目标追踪算法结构图见图 4。算法的基本原理是将每一帧中的检测框与图3 YOLOv5mini的网络结构郑永生,等:基于边缘设备轻量化行为识别算法139现代电子技术2023年第46卷激活状态的目标进行重叠度 IoU 匹配,找到 IoU 最大的检 测 框,当 IoU 大 于 设 定 的 阈 值 时(实 验 中 设 定 为0.25),认为两个检测框为同一目标,使用新的检测框代替原来目标的位置,完成跟踪目标框的更新。图4 改进跟踪算法结构图为了提

22、高算法的稳定性,在 IoU 匹配之后,对未匹配的检测框再次进行匹配。再次匹配时,计算相邻帧检测框颜色直方图的相关性 Hist 作为匹配的相似度,匹配过程也是先找到和激活状态检测框直方图相似度Hist最大的检测框,当其值大于阈值时,更新激活状态目标的位置,未匹配的检测框则设置为激活状态。2.3 基于序列的人体关键点行为识别SimplePose是一个轻量级的单人姿态估计模型,该模型采用自上向下的方法,即先进行人体检测,然后将检测得到的目标区域裁剪后输入到姿态估计网络中进行二维的姿态估计,得到人体的骨骼关键点。相 比 Hourglass26和 CPN27姿 态 估 计 模 型,SimplePose直

23、接使用基于光流对姿态进行追踪的方法,直接从单帧图像估计导致被遮挡关键点产生误检漏检的问题,并在以下两方面进行了创新:1)在检测网络的基础上使用光流法对检测框进行补充,这样可以解决检测网络漏检的问题。2)使用 Object Keypoint Similiarity(OKS)代替检测框的IoU来计算相似度。当人的位置变化较快,或是检测速度跟不上时,使用 IoU并不合理。OKS是关键点度量的一种方式,计算方式如下:OKS=iexp()-d2i2s2k2iii,i 0 式中:di是标注关节点和预测关节点的欧氏距离;s表示人体尺度因子;ki表示第i个骨骼点归一化因子;i表示第i个关键点是否可见。这样得到

24、的OKS都会在0,1之间,OKS值越大,预测结果越接近,反之则相差较大。在得到骨骼关键点数据后,使用一个全连接网络对骨骼关键点序列数据进行行为分类。全连接神经网络作为一种基础的网络模型,不包含卷积层,分类效果较好,具有较快的运算速度,适用于部署到边缘设备上。除此之外,全连接神经网络也具有较强的非线性拟合能力,对于一维长向量数据具有较强的推理能力。网络结构图如图5所示。图5 基于骨骼关键点的全连接分类网络结构图3 实验与结果分析3.1 实验准备3.1.1 实验数据集由于缺少用于机场场景下的人体目标检测的公开数据集,本文在COCO、PASCAL等公开数据集中选取4 200张包含人体的图像,同时通过

25、实验室实地录制、实际应用场景录制以及网络公开图片资源,采集4 362张包含人体的图像,制作成人体检测数据集,其共有8 562张图片,训练前以7 1 2的比例划分训练集、验证集和测试集。本文的行为识别算法是对手指、弯腰两个动作进行分类,人物整体动作幅度较大、关节移动明显,公开数据集较少。本文通过在应用场景实地采集、网上搜集以及实际模拟手指和弯腰动作,制作1 340个视频样本,为了增强网络的泛化能力,在Poser、PoseTrack等公开数据库选取了520个包括手指或弯腰动作的视频样本。数据集总共1 860段视频,模型训练之前,训练时对每段视频进行抽帧得到样本。模型训练之前,同样以7 1 2的比例

26、划分训练集、验证集和测试集。3.1.2 实验平台实验选用本地 PC作为实验的模型训练平台,PC硬件配置如表3所示。表3 本地计算机相关参数模块处理器GPU内存深度学习框架参数Intel Core i57500 CPU,主频为3.4 GHzNVIDIA GeForce GTX1080Ti12 GB16 GBPyTorch选择比特大陆 Sophon SE5终端作为实际部署的边缘计算设备,终端参数如表 4 所示。其中,推理引擎140第23期TPU是终端上抽象而成的深度学习推理资源,对卷积操作有专门的优化,具有快速、高效、低能耗的特点。表4 比特大陆Sophon SE5相关参数模块操作系统处理器内存推

27、理引擎参数DebianBM1684 8核A532.3 GHz12 GBTPU3.2 实验结果验证3.2.1 1080Ti GPU上人体检测网络结果验证为了验证 YOLOv5mini 算法的人体检测效果,在1080Ti GPU 上 使 用 自 制 数 据 集 分 别 训 练 YOLOX、YOLOv5mini和 YOLOv5。分别记录三种算法的帧率、模型权重文件大小和准确率,实验结果如表5所示。表5 三种网络测试结果算法名称YOLOXYOLOv5YOLOv5miniFPS5294156模型大小/MB41.113.94.6mAP/%98.2496.8494.211080Ti GPU 上 实 验 结

28、果 表 明:相 比 YOLOv5,YOLOv5mini算法在牺牲 2.63%精度下,提升了 62 FPS的运行速度,模型大小减小为原来的1 3。三种算法检测效果如图6所示。图6 GPU测试结果3.2.2 Sophon SE5上人体检测网络结果验证基于嵌入式设备、边缘设备等智能终端功耗低、易批量部署等优点,选择将本文提出的人体目标检测算法YOLOv5mini移植到比特大陆Sophon SE5终端上,为了验证 YOLOv5mini 算法在终端上的检测效果,分别在1080Ti GPU 和 Sophon SE5终端上部署 YOLOv5mini算法,比较在不同环境下算法的检测帧率、算法精度和实际功耗,结

29、果如表6所示。表6 改进网络在GPU与Sophon SE5测试结果实验类型1080Ti GPU/YOLOv5SE5/YOLOv5miniFPS15656mAP/%94.2193.36功耗/W6516在Sophon SE5上检测效果图如图7所示。图7 Sophon SE5测试结果图实验结果表明,将YOLOv5mini算法部署至Sophon SE5终端上算法准确率下降了0.85%,分析原因是模型转换过程中产生了精度损失。但从图7检测结果可以看出,其在Sophon SE5上也达到了不错的检测效果,同时推理速度很快,帧率达到了56 FPS,足以胜任实时性的现场目标检测场景。在功耗方面,Sophon S

30、E5 约为 1080Ti GPU的1 4。3.3 行为识别算法实验3.3.1 Sophon SE5上SimplePose姿态估计结果验证由于本算法旨在移植到边缘设备,因而选择将SimplePose 姿态估计网络部署到 Sophon SE5 上进行测试,输入 320256的人体序列图,单张图推理速度为22 ms,骨骼关键点预测部分结果如图8所示。3.3.2 行为识别算法结果验证将提出的行为识别算法部署到 Sophon SE5上进行测试,实测算法帧率可达 23.7 FPS,能够满足实时识别检测的需求。算法精度测试是基于视频片段进行,采集多个场景下机场工作人员和模拟实际动作的视频,将视频分成 10

31、s一段,一共 270段,其中 100段为手指视频,100段为弯腰视频,70段为无动作视频。在 Sophon SE5终端上对测试视频片段进行分类,实验结果如表7所示。郑永生,等:基于边缘设备轻量化行为识别算法141现代电子技术2023年第46卷图8 Sophon SE5骨骼关键点验证结果表7 行为识别算法检测结果视频类型手指弯腰其他识别正确949768识别错误632实验选择全部视频片段的识别准确率作为评价指标,由表中数据可知,识别正确率可达 95.92%,通过分析判定错误的例子,发现当动作幅度较小或是背对时容易出现识别错误的问题,这是后续算法需要优化的问题。部分识别结果如图9图12所示。图9 实

32、验室拍摄图像手指识别结果图10 现场采集图像手指识别结果图11 实验室拍摄图像弯腰识别结果图12 现场采集图像弯腰识别结果4 结 语针对当前基于深度学习的行为识别算法计算量大,难以部署至边缘设备上的问题,提出基于边缘设备轻量化的人体行为识别算法,对算法使用到的目标检测网络进 行 改 进,提 出 YOLOv5mini 算 法,并 分 别 部 署 在1080Ti GPU 和 Sophon SE5 终端上,GPU 上实验结果表明,YOLOv5mini算法运行速度提升了 65.95%,模型准确率仅下降了 2.63%,模型权重文件大小减小为原来的1 3。Sophon SE5终端与GPU的实验结果表明,Y

33、OLOv5mini算法能充分使用Sophon SE5的TPU计算资源,且功耗为原来的1 4。基于YOLOv5mini的人体行为识别算法的识别准确率达到了 95.92%,且整个算法帧率达到了23.7 FPS,说明本文算法在实际生产中有很大的实用性。在算法部署过程中,算法的推理速度和准确率是对立的,那么如何结合智能终端的特性,在部署时以尽可能最小的精度损失换取更快的推理速度将是之后的研究重点。参考文献1 梁绪,李文新,张航宁.人体行为识别方法研究综述J.计算机142第23期应用研究,2022,39(3):651660.2 张家波,李杰,甘海洋.结合双流网络和金字塔映射的步态识别J.计算机应用研究,

34、2022,39(6):19111915.3 徐访,黄俊,陈权.基于3D卷积神经网络的动态手势识别模型J.计算机工程,2021,47(11):283291.4 SMAGULOVA K,JAMES A P.A survey on LSTM memristive neural network architectures and applications J.The European physical journal special topics,2019,228(10):23132324.5 孙满贞,张鹏,苏本跃.基于骨骼数据特征的人体行为识别方法综述J.软件导刊,2022,21(4):233239

35、.6 LI J,SU W,WANG Z.Simple pose:Rethinking and improving a bottom up approach for multi person pose estimation C/The Thirtyfourth AAAI Conference on Artificial Intelligence.S.l.:AAAI,2020:1135411361.7 SUN K,XIAO B,LIU D,et al.Deep highresolution representation learning for human pose estimation C/Pr

36、oceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition.New York:IEEE,2019:56935703.8 JIAO L,ZHANG F,LIU F,et al.A survey of deep learningbased object detection J.IEEE access,2019,7:128837 128868.9 GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate obj

37、ect detection and semantic segmentation C/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE,2014:580587.10 PURKAIT P,ZHAO C,ZACH C.SPP Net:Deep absolute pose regression with synthetic views J.British machine vision conference(BMVC 2018),2018,13(1):110.11 RED

38、MON J,DIVVALA S,GIRSHICK R,et al.You only look once:Unified,realtime object detection C/Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE,2016:779788.12 LIU W,ANGUELOV D,ERHAN D,et al.SSD:Single shot multibox detector C/European Conference on Computer Vision

39、.Heidelberg,Germany:Springer,2016:2137.13 郭磊,王邱龙,薛伟,等.基于改进 YOLOv5的小目标检测算法J.电子科技大学学报,2022,51(2):251258.14 雷磊,陶青川.基于轻量化 YOLOv4的离岗检测算法J.现代计算机,2022,28(4):513.15 SANDLER M,HOWARD A,ZHU M,et al.MobileNetV2:Inverted residuals and linear bottlenecks C/Proceedings of the IEEE Conference on Computer Vision an

40、d Pattern Recognition.New York:IEEE,2018:45104520.16 王海涛,王荣耀,王文皞,等.目标跟踪综述J.计算机测量与控制,2020,28(4):16.17 蒲良,张学军.基于深度学习的无人机视觉目标检测与跟踪J.北京航空航天大学学报,2022,48(5):872880.18 BOCHINSKI E,EISELEIN V,SIKORA T.Highspeed trackingbydetection without using image information C/2017 14th IEEE International Conference on

41、Advanced Video and Signal Based Surveillance(AVSS).New York:IEEE,2017:16.19 杨戈,邹武星.基于深度学习的视频行为分类方法综述J.电子技术应用,2022,48(7):17.20 HE K,ZHANG X,REN S,et al.Deep residual learning for image recognition C/2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).New York:IEEE,2016:770778.21 卢海燕

42、,赵红东,王添盟,等.基于轻量级卷积神经网络的红外行人行为识别J.传感器与微系统,2022,41(9):129131.22 李梦荷,许宏吉,石磊鑫,等.基于骨骼关键点检测的多人行为识别J.计算机科学,2021,48(4):138143.23 ZHOU D,HOU Q,CHEN Y,et al.Rethinking bottleneck structure for efficient mobile network design C/Proceedings of 16th European Conference on Computer Vision.Heidelberg,Germany:Sprin

43、ger,2020:680697.24 HE K,ZHANG X,REN S,et al.Spatial pyramid pooling in deep convolutional networks for visual recognition J.IEEE transactions on pattern analysis and machine intelligence,2015,37(9):19041916.25 LIU S,QI L,QIN H,et al.Path aggregation network for instance segmentation C/Proceedings of

44、 the IEEE Conference on Computer Vision and Pattern Recognition.New York:IEEE,2018:87598768.26 BAO W X,YANG Y P,LIANG D,et al.Multiresidual module stacked hourglass networks for human pose estimation J.Journal of Beijing Institute of Technology,2020,29(1):110119.27 CHEN Y,WANG Z,PENG Y,et al.Cascade

45、d pyramid network for multiperson pose estimation C/2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).New York:IEEE,2018:71037112.作者简介:郑永生,男,高级工程师,主要研究方向为模式识别、车辆工程。肖 军,男,工程师,主要研究方向为模式识别、车辆工程。温高能,男,助理工程师,主要研究方向为控制科学与工程。雷 磊,男,硕士,主要研究方向为测控技术与仪器。彭勃兴,男,硕士,主要研究方向为模式识别与智能系统。文润玉,男,硕士,主要研究方向为模式识别与智能系统。郑永生,等:基于边缘设备轻量化行为识别算法143

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服