ImageVerifierCode 换一换
格式:PDF , 页数:3 ,大小:1.25MB ,
资源ID:578884      下载积分:10 金币
验证码下载
登录下载
邮箱/手机:
验证码: 获取验证码
温馨提示:
支付成功后,系统会自动生成账号(用户名为邮箱或者手机号,密码是验证码),方便下次登录下载和查询订单;
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

开通VIP
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.zixin.com.cn/docdown/578884.html】到电脑端继续下载(重复下载【60天内】不扣币)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  
声明  |  会员权益     获赠5币     写作写作

1、填表:    下载求助     索取发票    退款申请
2、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
3、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
4、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
5、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【自信****多点】。
6、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
7、本文档遇到问题,请及时私信或留言给本站上传会员【自信****多点】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。

注意事项

本文(基于深度学习的轻量化目标检测方法研究.pdf)为本站上传会员【自信****多点】主动上传,咨信网仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知咨信网(发送邮件至1219186828@qq.com、拔打电话4008-655-100或【 微信客服】、【 QQ客服】),核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载【60天内】不扣币。 服务填表

基于深度学习的轻量化目标检测方法研究.pdf

1、鄢国家重点研发计划资助渊2020YFB1600704冤目标检测被广泛应用于自动驾驶尧机器人视觉尧智能交通尧工业质量检测等在内的许多计算机视觉任务中遥 目标检测在计算机视觉中是一项经典的挑战袁 旨在识别图片或视频中的物体类别和物体位置遥现有的目标检测算法可分为两类院基于锚框的和无锚框的遥基于锚框的一般可分为单阶段检测和两阶段检测遥通常基于锚框的两阶段目标检测咱1暂首先从图像中生成包含目标的区域袁然后在从区域中生成最终的边界框遥两阶段目标检测的检测精度更高袁 但计算量较大难以在嵌入式设备上实现实时检测遥 单阶段目标检测咱2暂在速度和精度之间有较好的平衡袁因此在实践中有广泛的应用袁其中 SSD咱2暂

2、在检测小目标对象时更友好袁但精度上没有竞争力袁YOLO 系列算法咱3暂在速度和精度方面都表现良好袁但是依然存在以下的问题院淤针对不同的数据集需要手动重新设计锚框的大小曰于生成的锚框大部分都是无用的袁导致了正负样本不均衡的问题遥 无锚框目标检测旨在消除锚框袁这是对目标检测的一个显著的改进遥 无锚框的目标检测解决了基于锚框检测的一些问题袁降低了内存开销袁提供了更精确的边界框计算袁提高了准确率遥在轻量化目标检测领域袁 人们致力于实现更精确尧更高效的目标检测遥 YOLObile咱4暂利用模型裁剪和推理加速的方法袁实现了在移动设备上的实时目标检测袁在模型复杂度上有了改进袁但对于精度没有很好兼顾遥 Nan

3、oDet咱5暂则采用了分组卷积代替标准卷积的方法袁使用了 ShffleNetv2咱6暂作为骨干网络使模型更轻袁并使用 ATSS咱7暂和 GFL 来提高精度袁 最终计算量显著下降袁 但精度损失严重遥 YOLOX鄄Nano是目前 YOLOx咱8暂系列中最轻的型号袁是无锚框目标检测算法的一种袁 解决了 YOLO 系列算法的锚框均衡问题遥 因此袁本文在通用目标检测网络算法框架的基础下袁提出一种改进的轻量化目标检测算法袁主要改进点如下院1冤结合深度卷积和线性变换袁提出了一种减少冗余特征图的 G-Module 结构袁并利用一维卷积提出了一种不降维的高效跨通道交互模块袁 同时将标准卷积替换为深度可分离卷积和

4、分组卷积袁实现了轻量化的主干网络模型遥2冤重新设计 CSP-PAN 结构袁对输入到颈部的所有分支的通道数进行 11 卷积统一化袁显著提高了特征提取能力袁降低了网络参数袁 同时将 33 的深度可分离卷积替换为 55 的深度可分离卷积袁扩大了感受野遥1网络结构在本节中袁 主要介绍了本文设计的轻量化主干网络和颈部与头部模块的增强策略遥 整体网络结构如图 1 所示院基于深度学习的轻量化目标检测方法研究鄢田青李迁迁张正渊北方工业大学信息学院袁 北京 100144冤谢莎婷渊北京市地铁运营有限公司袁北京 100044冤Research on Lightweight Target Detection Meth

5、od Based on Deep Learning摘要院针对目前常用的目标检测算法模型体积大尧计算复杂度高尧难以部署到嵌入式设备等问题袁基于通用目标检测算法的思想提出了一种全新的轻量化目标检测模型遥 首先袁利用深度可分离卷积和分组卷积重新设计了主干网络曰其次袁提出高效跨通道交互模块袁对每个通道进行加权运算袁以获得更多的关键特征曰最后袁改进了颈部的轻量化结构袁提高了网络的特征提取能力遥在 COCO 数据上袁0.99M 参数量的模型的 mAP 达到了 30.6%袁证明了该方法在准确率和效率之间实现了更好的平衡袁为目标检测轻量化研究提供了参考遥关键词院深度学习曰轻量化曰目标检测Abstract:Ai

6、ming at the problems of large volume,high computational complexity and difficult deployment to embeddeddevices,this paper proposes a new lightweight target detection model based on the idea of general target detection algo鄄rithm.Firstly,the backbone network is redesigned using deep separable convolu

7、tion and packet convolution.Secondly,anefficient cross-channel interaction module is proposed,and each channel is weighted to obtain more key features.Thelightweight structure of the neck is improved and the feature extraction capability of the network is enhanced.In terms ofCOCO data,mAP of the mod

8、el with 0.99M parameter number in this paper reaches 30.6%,which proves that the proposedmethodachieves abetterbalance betweenaccuracyandefficiency,andprovidesa referencefortheresearchonlightweight target detection.Keywords:deep learning,lightweight,object detection图 1整体网络结构基于深度学习的轻量化目标检测方法研究108叶工业控

9、制计算机曳圆园圆3 年第 猿6 卷第 8 期1.1 主干网络1.1.1 G-Module 模块随着卷积核数量的增加袁 生成的特征矩阵的通道数也会增加袁FLOPs 也会显著地增加遥 因此袁为了减少计算量袁必须减少卷积核的数量遥 本文结合深度卷积和线性变换提出了 G-Mod鄄ule 模块袁在不影响精度的同时降低了模型计算量遥 具体结构如图 2 所示院图 2G-Module 模块G-Module 可以分为两个部分袁其中第一部分是卷积运算袁在这里使用少量的卷积核以减少计算量遥其中输入特征矩阵 X 为c伊澡伊憎袁卷积运算 F 的大小为 噪伊噪袁卷积核的个数为 m 个袁故第一部分的总体参数计算量 匀伊宰伊

10、皂伊c伊k伊k=H伊W伊ns伊c伊k伊k遥第二部分是线性变换袁它使用一系列的深度卷积在 m 个特征映射上做变换渊n=m伊泽冤袁其中每个卷积核的大小是 d伊d袁输出特征矩阵 Y=n伊H伊W袁 故第二部分总体参数计算量为 匀伊宰伊皂伊d伊d伊渊泽原员冤=H伊W伊ns伊d伊d伊渊s-1冤遥当使用标准卷积的完成上述操作袁在输入特征矩阵为 c伊h伊w袁输出特征矩阵为 Y=n伊H伊W 的情况下袁标准卷积的参数计算量为 匀伊宰伊c伊k伊k伊n遥R=H伊W伊c伊k伊k伊nH伊W伊c伊k伊k伊ns+H伊W伊ns伊d伊d伊渊s-1冤=c伊k伊kc伊k伊k伊1s+d伊d伊s-1s=s伊cs+c-1抑s渊1冤R 为标

11、准卷积的参数计算量与本文提出的 G-Module 参数计算量之比遥 由此可知袁 标准卷积的参数计算量为本文提出的G-Module 参数计算量的 s 倍遥 因此袁G-Module 在获得相同的特征映射时袁 既保留冗余特征的同时又显著降低了模型的复杂度袁这对后续的模型部署有很大的影响遥1.1.2 高效跨通道交互模块 ECI-Module本文提出的高效跨通道交互模块放弃了降维操作袁 有效地捕获了跨通道之间的交互袁具体结构如图 3 所示院图 3高效跨通道交互模块本文使用的高效跨通道交互模块 ECI-Module 利用全局池化来聚合特征图的空间特征袁 然后通过 k 次一维卷积操作来生成通道权重袁并通过通

12、道维度映射自适应调整 K 值遥该模块的目的是捕获跨通道之间的交互袁其中关键的是确定交互覆盖率遥由此类推袁相互作用的覆盖率应与通道维数 C 成正比袁可以表达成公式渊2冤院C=渊运冤渊2冤由于映射未知袁一般来说袁最简单的线性函数可以表示为C=k伊赠垣b遥 但从上述分析可知袁K 与 C 呈非线性比例关系袁通道C 一般为 2 的指数次幂遥 所以袁可以将线性函数 C 转化为非线性函数的指数形式袁如公式渊3冤所示院C=渊K冤=2k伊y-b渊3冤因此袁在给定通道数 C 的情况下袁则 K 的值可以通过公式渊4冤求解院K=渊C冤=logC2y+byodd渊4冤公式渊4冤中 odd 指的是最接近公式渊4冤的奇数遥

13、 在本文中袁y 和 b的值分别为 2 和 1遥 因为 y 和 b 是确定的袁所以 K 与 C 成正比袁C 的值越大袁K 的值就越大遥1.1.3 G-Block图 4 详细展示了改进后的主干网络的单一模块 G-Block遥高效跨通道交互模块的两层激活函数分别为 ReLU 和 H-sig鄄moid遥 通道 shuffle 操作虽然提供了通道间的信息交换功能袁但会导致融合特性的丢失遥 为了解决这一问题袁在步长为 2 的 G-Block 模块中增加了深度卷积和逐点卷积以整合不同通道间的信息遥 上文提出的 G-Module 可以用更少的参数生成更多的特征映射袁以提高网络的学习能力遥 在步长为 1 的 G

14、-Block 模块中添加 G-Module 以进一步提高学习能力遥图 4G-Block 模块1.2 CSP-PAN 和 Detector head 检测头本文使用 PAN 特征金字塔结构获取多层特征图袁使用 CSP结构进行相邻特征图之间的特征拼接和融合遥 在原始的 CSP-PAN 中袁每个输出特征映射矩阵的通道数与来自主干网络的输入保持一致袁但对于移动设备来说袁具有大通道数的结构具有昂贵的计算成本袁本文通过 11 的卷积使所有特征映射矩阵的通道数等于它们之中最小的通道数来解决这个问题袁 然后通过 CSP结构进行自顶向下和自底向上的特征融合遥 此外袁本文在 CSP-PAN 的顶部增加了一个特征图

15、以检测更多的对象遥 除了 11 的卷积外袁所有的卷积都是深度可分离卷积袁深度可分离卷积都采用 55 的大小来扩展感受野袁这样的结构以更少的参数带来了相当大的精度提升遥 具体结构如图 1 所示遥在检测头中袁 本文使用 55 的深度可分离卷积来扩展感受109野袁深度可分离卷积的个数可以设为 2尧4 或者更多袁整个网络结构如图 1 所示遥颈部和头部都有 4 个独立的分支袁本文使头部的通道数和颈部模块的通道数保持一致袁并预测分类和位置回归袁在不减少通道数量的情况下性能更好遥2实验结果与分析2.1 数据集本文数据集采用 COCO 数据集袁COCO 数据集是微软构建的一个数据集袁包含了人尧自行车尧牛尧领带

16、尧电脑尧椅子等 80类常见的目标袁其中 COCO 数据集中的图片包含了自然图片以及生活中常见的目标袁背景比较复杂袁目标数量比较多袁目标尺寸更小袁因此衡量一个模型的好坏的标准更倾向于使用 COCO数据集上的检测结果遥 本文所有的实验都在 COCO-2017 训练集上进行训练袁 训练集包含 80 类目标和 118 k 张照片袁 并在COCO-2017 验证集进行评估袁验证集包含 5000 张照片遥2.2 实验环境本文实验采用 Ubuntu18.04 的操作系统袁 利用 Pytorch 构建神经网络模型袁硬件平台为 NVIDIA GeForce RTX2080Ti袁运行内存为 11 GB遥 在训练中

17、袁采用 SGD 优化器袁并引入动量和学习率两个参数袁初始学习率为 0.1袁动量设置为 0.9袁学习率衰减为 4e-5袁批处理大小默认为 64袁总共训练 300 个 epoch遥2.3 评价指标本文采用 mAP渊mean Average Precision冤评价网络模型的精度袁采用参数量渊Params冤尧浮点型计算量渊Floating PointOperation袁FLOPs冤评价网络模型轻量化遥 其中 mAP 为每类目标 AP 的加权平均所得遥 AP 是 P-R 曲线与坐标轴围成的面积袁用来评价每类目标准确度的指标遥 其中 Precision尧AP 和 mAp的计算公式如下院P=TPTP+FP

18、渊5冤AP=t0乙p渊r冤dr渊6冤mAP=q沂QR移AP渊q冤渊7冤2.4 实验结果本文将改进后的网络与当前主流的轻量化目标检测网络进行对比验证袁采用 COCO 数据集袁对 mAP尧Params尧FLOPs 等指标进行评价袁具体对照情况如表 1 所示院表 1轻量化目标检测网络对比结果从实验结果可以看出袁 本文提出的模型在准确率和参数计算复杂度之间实现了更好的权衡遥 相较于 YOLOX-Nano袁本文的模型在只有 0.99M 参数的情况下袁 实现了 30.6%的 mAP袁提高了4.8%曰相较于 NanoDet-M袁本文的模型在计算量相当的情况下袁mAP 提高了 7.1%曰相较于 YOLOv5s

19、袁本文的模型参数量只有 YOLOv5s 的 13%袁 计算量仅有 YOLOv5s 的 7%的情况下袁mAP 仅相差 6.6%遥 综上可见袁本文的方法在准确率和轻量化之间实现了更好的平衡遥所有的实验结果都在 COCO-2017 验证集上得到的袁所有的消融实验的结果如表 2 所示遥表 2各模块消融实验结果首先采用与 NanoDet 相似的基础模型袁 主干网络采用ShuffleNetV2-1x袁 颈部采用无卷积的 PAN 结构袁 损失函数为GFL loss袁 标签分配策略采用 ATSS袁 所有的激活函数为LeakyRelu袁最终的 mAP(0.5:0.95)为 25.3遥 然后加入了带有三个特征图的

20、 CSP-PAN 结构袁mAP(0.5:0.95)增加到了 28.1袁最后在 CSP-PAN 顶部再添加一个特征图袁 就和上文中提出的CSP-PAN 的结构一样袁 参数的数量增加不到 50 k袁mAP(0.5:0袁95)进一步提高到了 29.1遥 结果如表 2 所示遥在与上一节相同的配置下袁 使用本文提出的主干网络来替换 Base 中的 ShuffleNetv2-1x袁 在参数减少 0.18M 的情况下袁mAp渊0.5:0.95冤只降低了 0.3袁最终达到了 29.7遥在与上一节相同的配置下袁 将所有的 LeakyReLu 激活函数替换为 H-Swish 激活函数袁mAP渊0.5:0.95冤最

21、终增加到了 30.6遥3结束语本文提出了一种全新的轻量化目标检测算法袁改进了主干网络尧特征融合模块袁提高了模型的检测性能袁使得该模型在轻量化和准确率上都有显著的提升遥 主要得益于以下的改进院淤利用深度可分离卷积和分组卷积重新设计了主干网络袁提出了高效跨通道交互模块袁对每个通道进行加权运算袁以获得更多的关键特征曰于本文的颈部结构更轻袁 可以赋予主干网络和头部更多的权重遥在相同的参数量下袁本文模型的 mA孕 超过了 YOLOX-Nano遥 本文提出的方法在轻量化方面具有一定的可行性和优越性遥参考文献咱1暂ROSS GIRSHICK.Fast R-CNC/Proceedings of the IEE

22、E In鄄ter-national Conference on Computer Vision,2015:1440-1448咱2暂WEI LIU,DRAGOMIR ANGUELOV,DUMITRU ERHAN,et al.SSD:Single shot multibox detectorC/European conferenceon computer vision,2016:21-37咱3暂ALEXEY BOCHKOVSKIY,CHIEN-YAO WANG,HONG YUANMARK LIAO.YOLOv4:Optimal Speed and Accuracy of Ob鄄ject Detec

23、tionJ.arXiv preprint arXiv:2004.10934,2020咱4暂YUXUAN CAI,HONGJIA LI,GENG YUAN,et al.YOLObile:Real-time Object Detection on Mobile Devices via Compres鄄sion-compilation co-designC/The 35th AAAI Comferenceon Artificial Intelligence,2021:955-963咱5暂NanoDetEB/OL.https:/ MA,XIANGYU ZHANG,HAI-TAO ZHENG,et al

24、.Shufflenet v2:Practical Guidelines for Efficient CNN Architec鄄ture DesignC/Proceedings of the European conference oncomputer vision(ECCV),2018:116-131咱7暂SHIFENG ZHANG,CHENG CHI,YONGQIANG YAO,et al.Bridging the Gap Between Anchor-based and Anchor-freeDetection via Adaptive Training Sample SelectionC/Pro鄄ceedings of the IEEE/CVF Conference on Computer Visionand Pattern Recognition,2020:9759-9768咱8暂ZHENG GE,SONGTAO LIU,FENG WANG,et al.YOLOX:Ex鄄ceeding YOLO SeriesJ.arXiv preprint arXiv:2107.08430,2021咱收稿日期院圆园圆圆原员圆原圆圆暂基于深度学习的轻量化目标检测方法研究110

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服