1、文章编号:1003-0530(2023)09-1621-12第 39 卷 第 9 期2023 年9 月信号处理Journal of Signal ProcessingVol.39 No.9Sep.2023基于YOLOv3-SPP的遥感图像目标检测压缩模型齐保贵1,2 赵鹏赫1,2 陈禾1,2 陈亮1,2,3 龙腾1(1.北京理工大学信息与电子学院雷达技术研究所,北京 100081;2.北京理工大学长三角研究院(嘉兴),浙江嘉兴 314019;3.北京理工大学重庆创新中心,重庆 401120)摘 要:近年来,卷积神经网络模型已被广泛应用于遥感图像目标检测任务中,但自然场景图像与遥感图像的目标特性
2、存在差异,针对自然场景设计的模型往往难以在遥感图像任务中取得良好的效果。同时,很多遥感图像处理任务需要在星载、机载等资源有限的平台中进行,难以部署参数量、计算量大的复杂模型。针对以上问题,本文对在自然场景中性能优异的YOLOv3-SPP模型进行适应性改进及参数压缩。首先,对原始的L1范数剪枝算法进行改进,提出基于L1范数和均值差的加权剪枝算法,能够更好地保留重要的通道。其次,对剪枝后的子网集合进行快速评估,选取评估结果最好的子网进行微调。在预训练和微调阶段,本文将 SPP 模块中的最大池化层替换为softmax加权池化层,着重突出深层网络中权重较大的特征,提高了模型的检测精度。本文在多个公开遥
3、感数据集上进行实验,结果表明改进的YOLOv3-SPP模型在遥感目标检测任务上具有更好的性能,同时本文的剪枝算法可以在相同的参数压缩比例条件下,降低模型的性能损失。关键词:目标检测;YOLOv3-SPP;遥感;模型压缩中图分类号:TP75 文献标识码:A DOI:10.16798/j.issn.1003-0530.2023.09.008引用格式:齐保贵,赵鹏赫,陈禾,等.基于YOLOv3-SPP的遥感图像目标检测压缩模型 J.信号处理,2023,39(9):1621-1632.DOI:10.16798/j.issn.1003-0530.2023.09.008.Reference format:
4、QI Baogui,ZHAO Penghe,CHEN He,et al.Compression model for remote sensing image target detection based on YOLOv3-SPP J.Journal of Signal Processing,2023,39(9):1621-1632.DOI:10.16798/j.issn.1003-0530.2023.09.008.Compression Model for Remote Sensing Image Target Detection Based on YOLOv3-SPPQI Baogui1,
5、2 ZHAO Penghe1,2 CHEN He1,2 CHEN Liang1,2,3 LONG Teng1(1.Radar Research Lab,School of Information and Electronics,Beijing Institute of Technology,Beijing 100081,China;2.Yangtze Delta Region Academy of Beijing Institute of Technology,Jiaxing,Zhejiang 314019,China;3.Beijing Institute of Technology Cho
6、ngqing Innovation Center,Chongqing 401120,China)Abstract:In recent years,convolutional neural network(CNN)models have been widely applied in remote sensing image object detection tasks.However,the target characteristics of natural scene images and remote sensing images differ,and models designed for
7、 natural scenes often perform poorly in remote sensing image tasks.Additionally,many remote sensing image processing tasks need to be carried out on resource-limited platforms such as satellites and aircraft,making it difficult to deploy complex models with large parameter and computational requirem
8、ents.To address these issues,this paper 收稿日期:2023-01-04;修回日期:2023-05-30基金项目:国家重点研发计划(2021YFA0715204);长江学者(T2012122)信号处理第 39 卷proposes adaptive improvements and parameter compression for the YOLOv3-SPP model,which has shown outstanding performance in natural scenes.First,an improved weighted pruning
9、algorithm based on L1 norm and mean difference is proposed to better preserve important channels.Next,the pruned subnet collection is quickly evaluated,and the best-performing subnet is fine-tuned.In the pre-training and fine-tuning stages,the maximum pooling layer in the SPP module is replaced with
10、 a softmax weighted pooling layer to highlight features with larger weights in the deep network and improve the detection accuracy of the model.Experiments conducted on multiple public remote sensing datasets show that the improved YOLOv3-SPP model has better performance in remote sensing object det
11、ection tasks.Additionally,the pruning algorithm in this paper can reduce the model s performance loss under the same parameter compression ratio.Key words:target detection;YOLOv3-SPP;remote sensing;model compression1引言随着遥感技术的飞速发展,遥感卫星和飞机等平台提供了海量的高质量、高分辨率的遥感图像。高分辨率的遥感图像包含的信息非常丰富,可以用来描述地球表面的各种物体,面向遥感图
12、像的语义分割、目标检测、场景分类等算法在资源普查、灾害应急、地区管控等各类国防军事和民用经济领域都发挥了重要的作用。其中遥感图像目标检测在导弹制导1、智能交通2等众多领域具有不可或缺的作用,是当今遥感领域研究的热点内容之一。近年来随着深度学习的发展,基于深度学习的遥感目标检测方法取得了很大的进展,基于神经网络提取特征来提高遥感图像目标检测性能的方法层出不穷。目前基于深度学习的目标检测方法主要分为两类:双阶段目标检测法和单阶段目标检测法。双阶段目标检测法首先在图像上划分候选区域,然后对各个候选区域进行目标分类以及位置坐标的回归。许多学者对双阶段目标检测法进行了深入研究。Girshick 等3基于
13、 Selective Search 提取区域候选框算法,结合卷积神经网络提出R-CNN模型,与当时最好的检测结果相比提升了30%。在此基础上,针对不同的研究背景,其他学者又陆续提出 了 Fast RCNN4,Faster-RCNN5等 检 测 方 法。Dai等6提出了不含全连接层的全卷积神经网络目标检测算法R-FCN,有效缓解了网络中分类对位置不敏感和检测器对位置敏感之间的矛盾,在提升精度的同时利用位置敏感得分图提升了检测速度。单阶段目标检测算法无须预先在图像上生成候选区域,直接在图像上进行目标的分类和位置坐标的回归。该方法的检测速度较快,基于该方法提出了YOLO7-9系列、CornerNet
14、10和RetinaNet11等通用模型,在加快检测速度的同时,也提高了检测的准确率。Shafiee等12提出了基于YOLOv2的Fast-YOLO模型,该模型与YOLOv2相比减少了64%的参数,检测速度提升了3.3倍。为了进一步提升目标检测精度,YOLO系列推出了v3版本,这是一种适用于实时视频帧目标检测的深度学习模型,因其检测速度快和精度高而广泛应用于工业生产。YOLOv3-SPP在YOLOv3的基础上将空间金字塔池化(Spatial Pyramid Pooling,SPP)13模块添加到网络结构中,融合了全局特征和局部特征,实现了不同尺度的特征融合,提升了检测精度,但是该模型参数量多,模
15、型体积大,将该算法部署到资源有限的嵌入式设备上存在困难。因此,对于嵌入式设备来说,模型部署一般选择轻量化的网络结构,如ShuffleNet14和MobileNet15-17等,前者通过使用分组卷积的同时通过通道重排的策略解决了组间信息交换不佳的问题;后者通过设计深度可分离卷积模块来减少模型的参数量,并在此基础上衍生出了MobileNet的V1、V2和V3版本。随后研究人员又提出了NanoDet18,这是一种单阶段anchor-free模型,体积大小不超过 10M。这些轻量化的网络虽然可以有效降低模型规模,但准确度受到了较大的影响。YOLOv3-tiny 和 YOLOv4-tiny 是从 YOL
16、Ov3 和YOLOv419原始高精度模型改进而来的轻量化网络,不论是在自然场景数据集还是遥感图像数据集上,准确度均低于原始模型。YOLOv520系列的YOLOv5s和YOLOv5m是针对嵌入式设备设计的轻量化模型,在COCO21数据集上进行测试,检测精度分别是 0.37 和 0.443,而 YOLOv3-SPP 的检测精度为0.456,优于以上两种模型。除了设计高效的网络结构外,模型剪枝也是实现轻量化的常用方法。目前剪枝方法主要分为两1622第 9 期齐保贵 等:基于YOLOv3-SPP的遥感图像目标检测压缩模型类:结构化剪枝和非结构化剪枝,非结构化剪枝是指去除大量不重要的神经元,但是剪枝后会
17、产生稀疏矩阵,而目前大多数深度学习框架和硬件都无法加速稀疏矩阵的计算,因此剪枝后的结构不会明显提高处理速度;而结构化剪枝主要以网络通道或整个网络层为基本单位进行剪枝,剪枝后的模型在减少存储量的同时,可以在现有的软硬件条件下实现推理加速。Zhang22等对卷积网络逐层进行结构化剪枝,得到轻量级网络,随后将其作为学生网络,通过教师网络(即未修剪和训练有素的网络)来恢复学生网络的准确性。Ye等23采用端到端的随机训练方法,保持一些通道的输出不变,通过调整其影响层的偏差值来进行通道修剪。Zhang等24提出了针对无人机设备部署的模型剪枝方法 SlimYOLOv3,参数量和 FLOPs 相对原始模型均有
18、大幅下降,同时精度下降较少。Liu25等人提出了将L1正则化应用于批归一化层(Batch Normalization,BN),对BN层进行稀疏,BN层中的尺度因子被约束后作为网络通道的权重因子,通过判断权重因子的重要性来进行通道剪枝。已有的基于YOLO系列进行剪枝的算法26-28,大部分都是基于自然场景图像,虽然利用剪枝策略降低了模型的复杂度,但是遥感图像目标具有数量多且尺寸小的特点,这些基于自然场景的剪枝方法处理遥感图像的效果并不理想。因此研究一种低参数量和低存储空间,同时能够保持原始模型精度的模型是遥感目标检测领域的重点。为了进一步实现应用嵌入式设备完成遥感图像检测的目标,本文在YOLOv
19、3-SPP基础上提出改进模型YOLOv3-SoftSPP,并提出了一种基于加权和的模型压缩算法,主要具有以下特点:1)对目前常用的卷积核重要性评价指标进行改进,提出了一种基于加权L1范数和均值差的方法来评估卷积核的重要性,并按剪枝比例去除重要性较低的卷积核。2)采用结构搜索的方法对剪枝后产生的子网络进行快速评估,从子网络中选择评估结果最好的网络结构作为最终剪枝得到的模型。3)使用Softmax加权池化层替换SPP模块中的最大池化层,更大程度地保留了目标的深层特征,同时着重突出影响较大的特征。2改进YOLOv3-SPP压缩模型算法2.1算法总体介绍本文提出的基于改进YOLOv3-SPP的遥感图像
20、目标检测压缩模型主要分为三部分。首先对 YOLOv3-SPP 模型进行改进,使用 softmax 的加权池化替换SPP模块中的最大池化层,提高了深层特征的提取能力;其次对基于L1范数剪枝算法进行改进,引入均值差来衡量滤波器的重要性,并与L1范数进行加权后共同作为衡量滤波器重要性的指标,改善了基于L1范数衡量方法的局限性;最后对剪枝后产生的众多子网络进行快速评估,选择结果最好的一个子网络作为最终的剪枝结果。2.2YOLOv3-SoftSPP模型YOLOv3 作为单阶段目标检测方法的典型代表,因其具有较高的检测速度和精度而在工业界得到广泛应用。YOLOv3-SPP在YOLOv3模型上增加了SPP特
21、征融合模块,通过对不同感受野进行最大池化处理,最终进行维度的拼接,从而获取不同尺度的特征融合信息,提升了模型的检测精度。在自然场景数据集中,YOLOv3-SPP网络表现出良好的性能,但在面对目标分布密集且尺寸小的遥感数据集,其检测性能有待提高,主要原因在于SPP结构中的最大池化层在保留特征图的重要信息方面仍有改进的空间。Stergiou1等29提出使用 softmax加权池化可以保留权重较大的特征,并通过实验证明该方法可以有效缓解最大池化产生的特征丢失问题。本文基于此方法,采用现有的平均池化方法按位相除对 SPP模块中最大池化层进行替换来实现基于softmax的加权池化操作。首先定义网络卷积层
22、的输出特征图为X RC H W,其中C,H和W分别为通道数、特征图的高和宽。R为特征图X的局部2D区域,其大小与池化核相等,即|R|=k2,权重wi为特征值的自然指数与所有特征值的自然指数和的比值,则wi可以根据特征值非线性地计算区域R的特征值权重,并且加强了权重之间的区分度,即权重较高的特征值输出后重要性增强,如公式(1)所示:wi=exij Rexj(1)将区域R内的所有特征值xi乘以wi进行加权求1623信号处理第 39 卷和得到输出X,如公式(2)所示。X=i Rwixi(2)YOLOv3-SPP中的最大池化操作都在高维特征空间中使用,而深层网络中的特征包含着比浅层网络更为丰富的特征信
23、息,最大池化丢弃了大多数特征值,而加权池化着重突出影响大的特征值,因此加权池化是一个更加均衡的方法。对公式(2)进行如下变换:X=i Rwixi=i Rexixij Rexj=i Rexixi|Rj Rexj|R=Avgpool(eXX)Avgpool(eX)(3)公式(3)中展示了将softmax加权池化通过现有的均值池化实现的过程,在模型参数不变的情况下实现精度的提升。改进的SPP模块整体结构如图1所示。2.3结构化通道修剪算法设网络中第i个卷积层的输入通道数和输出通道数分别为Cin(i)和Cout(i),输入特征图的大小为wi和hi,卷积核的大小为k*k。经过卷积层的运算后,输出特征图的
24、大小为wi+1和hi+1。第i层的通道数为Cin(i)*Cout(i),则整个卷积过程中所产生的参数量为Cin(i)*Cout(i)*wi+1*hi+1*k2。图 2 所示为 YOLOv3-SPP通道剪枝的示意图,标记黄色的部分为剪枝去除的通道,蓝色为表示剩余部分。当剪枝去除了第i层的某个卷积核,输出通道对应的特征图被一并去除,减少的参数量为Cin(i)*wi+1*hi+1*k2,同时第i层的输出又作为第i+1层的输入特征图,相应的减少参数量为Cout(i)*wi+2*hi+2*k2。2.4基于加权 L1范数和均值差的卷积核重要性评价方法目前对于卷积核重要性的评估大都基于L1范数,即对每个卷积
25、核计算它的权重之和,根据权重之和从大到小进行排序,然后将低于给定阈值的卷积核以及对应的特征图去掉,同时移除下一个卷积层中与减掉的特征图相关的核,最后将得到的权重复制到新模型中进行微调。这种方法在基于卷积神经网络的分类模型中取得了很好的效果,例如对VGG1630和ResNet1831等网络进行剪枝并微调,在参数量大幅降低的同时精度变化很小。但在目标检测模型中,由于网络结构深,层次复杂,仅基于L1范数对卷积核进行重要性评估效果不理想。?512 1 1?1024 3 3?512 1 1S o ft ma x?9 9/1S o ft ma x?13 13/1S o ft ma x?5 5/1?图1改进
26、SPP结构Fig.1Improved SPP structurec onvoutputi nputCi n(i+1)Co u t(i)Co u t(i)Ci n(i)kwiwi+1hi+1hi图2通道剪枝示意图Fig.2Schematic diagram of channel pruning1624第 9 期齐保贵 等:基于YOLOv3-SPP的遥感图像目标检测压缩模型本文使用基于L1范数和均值差进行加权求和作为衡量卷积核重要性的评判标准。具体地,对一组数据求均值,当数据中的某个元素离均值的距离越大,我们认为该元素越重要,所包含的信息量越大。对于卷积核来说,均值差的表示如公式(4)所示:Dln
27、=|m=1Cini=1kj=1k(wlm,i,j(n)-w l(n)|(4)其中,n 1,2,Cout(i)表示第n个卷积核,l 1,2,L表示第l个卷积层,Dln为均值差。w l(n)为第l卷积层中所有卷积核权重的均值,如公式(5)所示:w l(n)=1N|m=1Cini=1kj=1k(wlm,i,j(n)|(5)其中N表示第l个卷积层中卷积核的数量。为了与L1范数的量纲保持一致,公式(4)中的均值差需要进行归一化,而在实验中发现均值差位于 0,1 区间,为了使归一化后的数据趋于极大化,这里采用平方和归一化,如公式(6)所示:normln=Dlnn=1CoutDln2(6)卷积核的L1范数如
28、公式(7)所示:wln1=|m=1Cini=1kj=1k(wlm,i,j(n)|(7)由于本文考虑将L1范数和均值差共同作为卷积核重要性的评价标准,因此我们对其进行加权求和,如公式(8)所示:Sln=wln1+(1-)normln(8)Sln越大表示卷积核的重要程度越高,(01)表示加权因子,代表了均值差与 L1范数相补偿的程度。2.5shortcut层处理YOLOv3中采用Darknet53作为骨干网络,并借鉴ResNet网络中的 shortcut层,因此在剪枝时需要考虑shortcut连接的两个卷积层的通道匹配问题。首先以全局阈值找出每一个卷积层要保留的通道数掩码,对于每组shortcut
29、层,将它所连接的两个卷积层的通道数掩码的并集作为shortcut层所连接的两个卷积层最终的剪枝掩码,该处理方法同时考虑了两个卷积层剩余的通道数,在减少参数量的同时可以尽量避免精度损失。2.6快速子网评估模型剪枝后得到的网络可以看作原模型的一个子网络,因此模型剪枝问题可以看作是在一个搜索空间中搜索最佳子结构的问题。其过程分为三部分:(1)确定搜索空间;(2)选择候选项;(3)评估候选项。搜索空间是指在原始网络上根据卷积核重要性评价准则,经过剪枝得到的所有子网络集合,选择候选项是指在一定约束条件下,对搜索空间中的子网络进行筛选,本文以参数量作为约束项,在给定裁剪比例的基础上,删除剪枝后不符合参数减
30、少量的子网络,保留剩余的候选子网络。最后,对候选项进行快速评估。如果对子网络进行逐个训练评估,将会消耗大量的算力资源和时间,所以为了节省时间和资源,一般不训练子网络,而是通过评估器快速评估候选子网络的性能,最终选择经过评估表现最佳的子网络。我们采用Adaptive BN32方法对子网络进行快速评估。先前的快速子网络评估方法主要分为两类,一是训练法,即训练不同的子结构,找到收敛后性能最佳的网络,这种方法直观准确,但是耗时耗力;二是使用强化学习,辅助网络等手段进行评估,但是评估性能和收敛性能相关性不强,并且涉及大量超参数的设置。而Adaptive BN不更新网络权重,只通过更新网络的BN层来评估不
31、同候选子网络的性能,提高了子网络评估的时间。这是由于剪枝后未经过微调的网络与经过微调的网络收敛的准确性存在强相关性。未微调的网络性能差主要原因是网络的BN层的统计信息是根据原始网络计算出来的,不适用于剪枝后的网络结构。图3展示了剪枝的工作流程。本文对于 YOLOv3-SoftSPP 的剪枝算法流程如下:1)剪枝策略生成设网络模型的层数为L,剪枝策略的表示形式为生成L层模型的分层修剪比例向量(r1,r2,rL)。生成过程遵循预定义的约束,例如操作数或参数量的减少比例等。具体而言,它从给定范围 0,R 中1625信号处理第 39 卷随机采样L个实数以形成修剪策略,其中rL表示第L层的修剪率。R是应
32、用于某一层的最大修剪比率。2)过滤器剪枝过滤器剪枝过程会根据前一个模块生成的修剪策略修剪完整尺寸的训练模型。与普通的过滤器剪枝方法类似,首先根据过滤器的加权范数对其进行排名,然后将最不重要的过滤器的修剪掉。最后,将来自搜索空间的经过修剪的候选修剪对象准备好传递到下一个评估阶段。3)快速子网评估基于Adaptive BN方法为上一阶段修剪后的候选者提供BN统计信息适应和快速评估。给定一个经过修剪的网络,遍历训练集中的少量数据以计算自适应BN统计量,接下来在训练集数据的一小部分(称为子验证集)上评估候选网络的性能,根据 Adaptive BN评估后的剪枝模型性能选出最有潜力的剪枝模型进行微调。3实
33、验分析结论3.1数据集介绍为验证剪枝算法性能,本文分别在遥感数据集DOTA33,无人机数据集VisDrone34和DIOR35数据集上进行相关测试。DOTA数据集是用于航空图像中目标检测的大规模数据集。它包含来自不同传感器和平台的2806幅航拍图像。每幅图像的大小在 800800到40004000像素的范围内,并且包含各种比例,方向和形状的对象。VisDrone 2018数据集由无人机平台在不同地点、不同高度拍摄的7019张静态图像组成。训练集和验证集分别包含6471和548幅像。图像用边界框和十个预定义的类(行人、人、汽车、货车、公共汽车、卡车、摩托车、自行车、带篷三轮车和三轮车)进行标注。
34、DIOR是一个用于光学遥感图像目标检测的大规模基准数据集。数据集包含 23463 个图像和192472个实例,涵盖20个对象类。这20个对象类是飞机、机场、棒球场、篮球场、桥梁、烟囱、水坝、高速公路服务区、高速公路收费站、港口、高尔夫球场、地面田径场、天桥、船舶、体育场、储罐、网球场、火车站、车辆和风磨。3.2实验设置及评价指标本文实验均基于 pytorch1.12.1 框架和 TITAN RTX。操作系统为Ubuntu 18.04.6LTS。输入图像大小设置为416,batchsize设置为16。选取参数量、计算量、检测帧数、存储空间以及平均精度mAP作为模型压缩后的评价指标。1)参数量模型
35、的参数量指模型含有多少个参数,单位是“个”,对于复杂模型一般采用更大的单位“兆”(M)来衡量。参数量的大小影响着模型的大小和模型推理时占用的内存量。2)计算量BFLOPs(Billion Float Operations)是衡量模型复杂程度的指标,指十亿次浮点运算数,又称计算量。3)检测速度为了衡量剪枝后的实时性效果,本文采用FPS?A da pt i ve B N 方?图3剪枝算法工作流程Fig.3Workflow of the Pruning Algorithm1626第 9 期齐保贵 等:基于YOLOv3-SPP的遥感图像目标检测压缩模型(Frames PerSecond)来评估检测速度
36、,FPS表示每秒传输的图像帧数,FPS值越大表示每秒可以检测的图像越多。4)平均精度平均精度mAP(mean Average Precision)的定义如公式(9)所示,mAP=i=1kAPin(9)其中,n表示数据集的类别数,APi表示第i类目标的平均精度,即精确度-召回率(Precision-Recall,P-R)曲线的下方面积。3.3模型对比实验分析为证明本文算法的性能,本文分别在无人机自然场景数据集 VisDrone 和遥感数据集 DOTA 上对YOLOV3-SPP 模型和 YOLOv3-SoftSPP 模型进行测试,并给出各类别的检测精度。表 1 中展示了 YOLOV3-SPP 模型
37、和 YOLOv3-SoftSPP模型在VisDrone自然场景数据集上对于各类别的检测精度,可以看出,对于bus、truck和van等体积较大的目标,模型的识别精度分别提升了2.6%、1.8%和0.6%,说明这些目标的有效特征被进一步提取。容易与tricycle混淆的awning-tricycle目标,检测精度提高了 0.82%,而 bicycle目标的识别精度下降百分比较多,主要是由于大部分自行车在停放时过于紧凑且冗长,目标特征容易互相干扰,因此在检测时除了主要特征外,一些无效特征被放大,导致精度降低。数据集整体检测精度较原来提升了0.6%。图4展示了改进前后模型在VisDrone数据集上的
38、实际检测效果,左右两部分分别是原始YOLOv3-SPP 模型和改进的 YOLOv3-SoftSPP 的实际检测效果,可以看出在右半部分图中,awning-tricycle被标识出,同时还多检测出了一辆汽车和摩托车,白色箭头标识了具体位置。在原始模型中,虽然bus、car和 truck 目标都被检测出来,但 YOLOv3-SoftSPP 检测出的置信度更高。表 2 中 给 出 了 在 DOTA 遥 感 数 据 集 上,YOLOV3-SPP 模型和 YOLOv3-SoftSPP 模型对于各类别的检测精度,对于分布较为密集的目标如small-vehicle、harbor,检测精度分别提升了0.7%和
39、1.2%,对于尺寸较小但分布稀疏的目标如helicop表1VisDrone数据集上各类别目标检测性能对比Tab.1Comparison of object detection performance of various categories on the VisDrone dataset类别pedestrianpeoplebicyclecarvantrucktricycleawning-tricyclebusmotorALL原始模型(mAP)0.1660.1280.02880.5960.2520.1860.1390.05540.3620.2060.212改进模型(mAP)0.1630.130
40、.02760.5990.2580.2040.1360.06360.3880.2060.218图4改进前后模型在VisDrone数据集上的实际检测效果Fig.4Actual detection results of the model before and after improvement on the VisDrone dataset1627信号处理第 39 卷ter,检测精度提升了3.5%,对于尺寸较大的目标如swimming pool、roundabout、soccer-ball-field、baseball-diamond 和 basketball-court,改进后的 YOLOV3-
41、SPP模型对于这些目标的检测精度分别提升了1.4%、1.1%、1.2%、0.8%和3.1%。但模型对storage-tank的识别精度下降较多,主要是由于遥感图像俯视视角的特殊性,storage-tank这类本来具有较高高度的目标呈现扁平化效果,特征集中在顶部,随着时间的推移其顶部容易出现大面积锈迹,新旧目标的差异性较大,这些无效特征被进一步提取,导致精度下降,其他目标的检测精度与原始模型基本持平,总体检测精度较原来提升了0.7%。图5展示了改进前后模型在DOTA数据集上的实际检测效果,图5(a)、图5(b)左右两半部分分别对应着原始YOLOv3-SPP模型和改进YOLOv3-SoftSPP模
42、型的检测结果,可以看出图5(a)中YOLOv3-SPP漏检了一个baseball-diamond目标,改进的模型均检测出;而图5(b)中改进的模型不仅检测出harbor 目标,同时在右上部分许多小的船只也能检测到。在以上两个数据集中进行测试后的结果表明,相较于原始模型,本文提出的模型在自然场景数据集和遥感数据集上,对于大部分类别的检测精度均有提升。3.4剪枝效果对比分析在以上实验的基础上,基于两类数据集分别使用L1范数剪枝算法和本文所提剪枝算法对两种模型进行测试,并给出各个评价指标的结果。在表3中,以YOLOv3-SPP模型使用L1范数准则在VisDrone数据集上进行剪枝后的结果为基准,然后
43、对YOLOv3-SoftSPP模型分别使用L1范数算法和本文所提算法进行剪枝,剪枝比例为 0.8 和0.95,微调轮数为150。从结果对比可以看出,YOLOv3-SoftSPP参数量和计算量与原始模型一致,说明YOLOv3-SoftSPP在没有引入额外开销的情况下提升了精度,同时检测速度也有了一定的提升。对两种模型使用L1剪枝算法,剪枝后YOLOv3-SoftSPP 的计算量与 YOLOv3-SPP 相同,参数量更少,与此同时,YOLOv3-SoftSPP的mAP值更高,检测速度提升了 5 帧。对 YOLOv3-SoftSPP 使用改进的剪枝算法剪枝后发现,其参数量较YOLOv3-SPP-L1
44、下降了32.2%。在剪枝比例为0.95的情况下,模型的参数量和计算量均大幅降低,但检测精度依然可以达到0.176。在剪枝比例为80%时,本文加权池化方法比L1方法剪枝得到的模型计算量更大,但检测速度却更快,这是由于基于softmax的加权池化操作可以并行化计算,在CPU和GPU执行具有更低的推理时间,在延迟和内存使用方面均低于原模型采用的最大池化操作29。表4中给出了YOLOv3-SPP和YOLOv3-SoftSPP剪枝算法在DOTA数据集上的实验结果,剪枝比例分别设置为0.6和0.8,可以看出使用L1范数准则经过剪枝后的原始模型YOLOv3-SPP-L1的mAP要小于YOLOv3-SoftS
45、PP-L1,说明在参数量较少,特征图数量稀疏的情况下,YOLOv3-SoftSPP可以更好的提取特征,而使用改进的加权剪枝算法,剪枝比例为0.8时,剪枝后的精度达到了0.582,相较于YOLOv3-SPP-L1 和 YOLOv3-SoftSPP-L1 的检测精度分别提升了8.9%和8.3%,调整剪枝比例至0.6,mAP提高到0.603,说明改进的剪枝算法更能去除冗余通道,保留重要的部分,从而提升检测的精度。为了进一步说明提出剪枝算法的有效性,本文表2DOTA数据集上各类别目标检测性能对比Tab.2Comparison of object detection performance of var
46、ious categories on the DOTA dataset类别small-vehiclelarge-vehicleplanestorage-tankshipharborground-track-fieldsoccer-ball-fieldtennis-courtswimming-poolbaseball-diamondroundaboutbasketball-courtbridgehelicopterALL原始模型(mAP)0.6730.7930.8710.570.8780.7860.4220.420.8960.4780.6790.450.4610.3340.480.613改进模型
47、(mAP)0.680.7870.8670.5560.8690.7980.4230.4320.8950.4920.6870.4610.4920.3520.5150.621628第 9 期齐保贵 等:基于YOLOv3-SPP的遥感图像目标检测压缩模型在遥感数据集DIOR上进行了测试。剪枝比例设为0.8 和 0.95,微调轮数为 150 轮,结果如表 5 所示。首先对网络进行正常训练,实验发现YOLOv3-SoftSPP的精度与YOLOv3-SPP差异较小,使用L1范数方法进行剪枝,YOLOv3-SoftSPP-L1 的精度要高于YOLOv3-SPP-L1,说明在稀疏模型中,YOLOv3-SoftS
48、PP能更多地保留特征。用改进的加权剪枝方法对YOLOv3-SoftSPP测试,剪枝比例为0.8,最终精度比图5改进前后模型在DOTA数据集上的实际检测效果Fig.5Actual detection results of the model before and after improvement on the DOTA dataset表3两种剪枝算法在VisDrone数据集上对比Tab.3Comparison of two pruning algorithms on the VisDrone dataset模型YOLOv3-SPPYOLOv3-SoftSPPprune0.8-YOLOv3-SP
49、P-L1prune0.8-YOLOv3-SoftSPP-L1prune0.8-YOLOv3-SoftSPP-加权prune0.95-YOLOv3-SoftSPP-加权参数量(M)63.1463.1413.8810.7710.054.76计算量(BFLOPS)33.1033.105.835.836.252.99检测速度(FPS)576261666873精度(mAP)0.2120.2180.1780.1870.2080.1761629信号处理第 39 卷YOLOv3-SPP-L1和YOLOv3-SoftSPP-L1分别提高了2.6%和 1.8%,继续增大剪枝比例至 0.95,参数量和计算量大幅降低
50、的同时精度达到0.62,说明基于L1范数和均值差加权的剪枝方法要优于传统的L1范数剪枝方法。4结论本文对L1范数剪枝算法进行改进,提出了基于L1范数和均值差的加权剪枝算法,实验结果表明改进的剪枝算法可以在大幅减少参数量和计算量的同时,还能有效地解决单一评判准则所导致的精度下降问题。同时本文提出的YOLOv3-SoftSPP模型能够有效地保留目标的深层特征,并着重突出权重较大的特征,从而提高模型的检测精度。在三个数据集上对经过剪枝后的稀疏模型进行测试的结果表明,YOLOv3-SoftSPP 的检测效果优于 YOLOv3-SPP。以上工作为星载、机载等资源约束强的遥感图像处理平台实现在线目标检测任