1、第 40 卷第 4 期Vol.40No.4重庆工商大学学报(自然科学版)J Chongqing Technol Business Univ(Nat Sci Ed)2023 年 8 月Aug.2023基于双主干网络的雾天交通目标检测方法研究李习习1,强俊1,刘无纪1,杜云龙1,刘进1,21安徽工程大学 计算机与信息学院,安徽 芜湖 2410002东南大学 计算机网络和信息集成教育部重点实验室,南京 210096摘要:车辆和行人安全监测是城市交通监测的一项重要任务。针对雾霾等复杂恶劣天气条件下,监测采集的图像视觉效果差、噪声高、目标检测困难等问题,提出了一种双主干网络(MobileNets VGG
2、-DCBM Network,MVNet)用于雾天交通目标检测,结构受 PCCN 和 CBNet 网络结构的启发,由改进的深度可分离卷积神经网络 MobileNets 和基于 VGGNet 构建的 VGG-DCBM 网络组成;采用并行方式构建双主干目标检测网络结构,以改进的 MobileNets 为主主干网络,VGG-DCBM 为辅助主干网络,共同提取特征信息,实现不同网络间特征层信息的融合;MVNet 网络结构采用并行方式获取两个不同网络提取的不同特征层信息,通过采用通道拼接的方法实现不同网络特征信息之间的融合,以获得更丰富的细节特征;在 TTS 和 HazePerson 数据集上,平均精度均
3、值(mean Average Precision,mAP)分别达到7150%和8984%;实验结果表明:在雾霾等复杂恶劣天气条件下具有较强的鲁棒性且能够准确的检测到车辆和行人,在目标检测性能上优于对比方法。关键词:雾天交通目标;双主干网络;并行方式;特征融合;通道拼接中图分类号:TP39141文献标识码:Adoi:10.16055/j.issn.1672058X.2023.0004.004收稿日期:20220414修回日期:20220512文章编号:1672058X(2023)04002510基金项目:国家自然科学基金项目(61801003);安徽省高校优秀拔尖人才培育资助项目(GXYQZD2
4、021123)作者简介:李习习(1996),男,安徽淮南人,硕士研究生,从事计算机视觉和模式识别研究通讯作者:强俊(1981),女,安徽芜湖人,副教授,硕士,从事计算机视觉和模式识别研究Email:chiang_j ahpueducn引用格式:李习习,强俊,刘无纪,等基于双主干网络的雾天交通目标检测方法研究 J 重庆工商大学学报(自然科学版),2023,40(4):2534LI Xixi,QIANG Jun,LIU Wuji,et alesearch on traffic object detection method in fog based on dual backbone network
5、JJournal of Chongqing Technology and Business University(Natural Science Edition),2023,40(4):2534esearch on Traffic Object Detection Method in Fog Based on Dual Backbone NetworkLI Xixi1,QIANG Jun1,LIU Wuji1,DU Yunlong1,LIU Jin1,21School of Computer and Information,Anhui Polytechnic University,Anhui
6、Wuhu 241000,China2Key Laboratory of Computer Network and Information Integration Ministry of Education,Southeast University,Nanjing210096,ChinaAbstract:Vehicle and pedestrian safety monitoring is an important task of urban traffic monitoring Aiming at theproblems of poor visual effect,high noise,and
7、 difficult target detection of the images collected under complex and badweather conditions such as fog and haze,a dual backbone network(MobileNets VGG-DCBM Network,MVNet)wasproposed for traffic object detection in fog Inspired by the network structure of PCCN and CBNet,this structure wascomposed of
8、 improved depthwise separable convolutional neural network MobileNets and VGG-DCBM network based onVGGNet The dual backbone object detection network structure was constructed by using the parallel method Theimproved MobileNets was the main backbone network and VGG-DCBM was the assistant backbone net
9、work to extract thefeature information and realize the fusion of feature information between different networks MVNet network structureadopted the parallel method to obtain the information of different feature layers extracted by the two networks,and realizedthe fusion of different network feature i
10、nformation by using the method of channel splicing,so as to obtain richer detailed重庆工商大学学报(自然科学版)第 40 卷features On TTS and HazePerson datasets,the mean average precisions(mAP)reached 71 50%and 89 84%,respectively The experimental results show that this method has strong robustness in complex bad wea
11、ther conditions suchas fog and haze,and can accurately detect vehicles and pedestrians It is better than the comparison method in objectdetection performanceKeywords:tratfic object in foggy weather;dual backbone network;parallel model;feature fusion;channel splicing1引言城市车辆和行人的安全监测一直是亟待解决的问题,其中复杂多变的车
12、流和人流,对交通路段的视频监控造成了很大的困扰。尤其是在雾霾和其他恶劣天气环境中的交通事故数量12 明显高于简单环境中的交通事故数量。为了有效提高车辆和行人识别的效率,减少交通事故的发生,车辆和行人的准确识别成为近年来的研究热点。近年来,基于深度学习 3 的目标检测研究进展迅速,特别是在基于深度卷积神经网络 4(Deep ConvolutionNeural Networks,DCNNs)的图像目标检测研究中。目前,在目标检测和识别方面取得突破性进展的优秀检测算法主要分为两大类:(i)基于“two-stage”目标检测方法,如以-CNN(egion Convolution Neural Netw
13、ork)系列57 等为代表的神经网络模型。en 等7 提出了一种 Faster-CNN 网络模型,模型引入了基于 Fast-CNN6 的区域建议网络(egion Proposal Network,PN),网络主要用于生成区域建议,并将区域建议和目标检测识分别引入网络进行训练。此类方法,首先要多次检测生成候选框,然后再对每一个候选框进行分类,因此检测速度较慢,但是目标检测精度有所提高。(ii)基于“one-stage”目标检测方法,如以 YOLO(You Only Look Once)系列811、SSD12(Single Shot MultiBox Detector)等为代表的神经网络模型。特点
14、是“一步到位”,仅仅需要将图片送入网络一次就可以预测出对应的目标边界框,检测速度相对较快,但是目标检测精度略有不足。计算机视觉等相关领域的学者提出了许多目标检测和识别技术。然而,针对一些特殊的应用场景,如:雾、霾等天气条件下的目标检测方法大多都是结合一些去噪的方法。方法主要分两步实现,即先去噪后检测。具体步骤是:去除在复杂恶劣天气条件下拍摄的图像所对应的噪声;利用现有的目标检测方法对去除噪声的图像进行检测。Li 等13 选择 Faster-CNN 和 AOD-Net 进行联合优化训练,提出了先对图像进行去雾处理,然后利用现有的目标检测方法对去雾图像进行检测的方法,以及先对图像进行去雾处理,然后
15、利用自适应目标检测方法对去雾图像进行检测的方法,从而解决了真实雾场景中的目标检测问题。陈琼红等14 提出将 AOD-Net 除雾算法与SSD 目标检测算法相结合。方法通过选取浓雾、中雾和薄雾 3 种不同级别的雾气浓度图像,对车辆和行人的检测精度进行分析,证明方法能够有效地检测出雾天环境下的车辆和行人。解宇虹等15 提出了一种基于图像去雾和目标检测(Joint Learning in Dehazing and ObjectDetection,DONet)的联合学习框架。DONet 将去雾模型和目标检测模型级联进行联合学习,使网络能够完成图像去雾任务和目标检测任务。方法将去雾与检测相结合,虽然有效
16、的提高了目标检测精度,但是增加目标检测过程中额外的去雾工作量,实时性相对较差。针对上述问题,提出了一种双主干网络(MobileNetsVGG-DCBM Network,MVNet)用于雾天目标检测,结构受 PCCN(Parallel Cross Convolutional Network)16 和CBNet(Composite Backbone Network)17 网络结构的启发,由改进的 MobileNets18 和基于 VGGNet19 构建的VGG-DCBM 网络组成。双主干网络之间采用并行的方式,获取两个网络的不同特征层信息,辅助主干网络是为了提取不同于主主干网络的细节特征。MVNe
17、t 网络结构采用并行方式获取两个网络提取的不同特征层的信息,并在不同层实现两个网络之间的通道拼接,从而解决复杂恶劣天气(雾、霾等)下的目标检测问题。在两个有雾自然图像雾天数据集上,平均精度均值分别达到 7150%和 8984%,同时能够快速准确地检测到车辆和行人。2方法21MVNet 框架提出了一种双主干网络框架 MVNet。MVNet 的整体框架如图 1 所示,加粗箭头表示通道拼接。使用通道拼接的方法来增强 MobileNets 和 VGG-DCBM 对细节特征提取。主干特征提取网络采用改进的 MobileNets 网络结构,辅助特征提取网络采用 VGG-DCBM 网络结构。62第 4 期李
18、习习,等:基于双主干网络的雾天交通目标检测方法研究图 1MVNet 的整体框架Fig.1Architecture of MVNet211主主干网络MobileNets 的网络结构是基于深度可分离卷积20 的堆叠设计,深度可分卷积与传统卷积有很大不同。其基本思想是完全分离通道之间的相关性和空间相关性,同时大大减少了计算量和参数量,这样可以减少过多的冗余特征。因此,选择 MobileNets 作为 MVNet 的主主干网络。深度可分离卷积可分解为深度卷积(DepthwiseConvolution,DW)和逐点卷积(Pointwise Convolution,PW)。DW 针对每个输入通道使用不同的
19、卷积核,而 PW使用普通的卷积核,其卷积核大小为 11。图 2 显示了深度可分离卷积块,图 3 显示了深度可分离卷积机制。图 2深度可分离卷积块Fig.2Depthwise separable convolution blocks图 3深度可分离卷积机制Fig.3Depthwise separable convolution mechanism考虑 MobileNets 网络太浅,在原有的基础上扩大了网络层数,增加了网络的深度。此外,将深度可分离卷积块中的激活函数 eLU6(x)替换为 hard_swish(x)21。hard_swish(x)激活函数很好地解决了网络中一些神经元永远不会被激活
20、而导致相应的参数无法更新的问题。hard_swish(x)激活函数如式(1)所示:hswish x=x*eLU6(x+3)6(1)212辅助主干网络借鉴 PCCN16 和 CBNet17 的网络结构引入辅助主干网络,帮助主主干网络提取更多有用的特征信息。VGG-DCBM 是由 VGG16 改进而来的,将 VGG16 网络的末端所有全连接层全部舍弃,只保留了卷积层和池化层。72重庆工商大学学报(自然科学版)第 40 卷此外,还将在 VGG16 中用 DarknetConv2D _BN _Mish(DCBM)卷积块替换传统的卷积块,并在卷积块之后添加池操作。其目的是通过计算小区域内的值来减少冗余特
21、征,然后只输出一个值作为特征从而有效地避免了网络学习过多的冗余特征。图 4 显示了 VGG-DCBM 网络结构,在这个网络结构中,卷积块是由 DarknetConv2D+批标准化+激活函数(Mish)+MaxPooling 组成。图 4VGG-DCBM 网络结构Fig.4VGG-DCBM network structure卷积块中的激活函数采用 Mish22,如式(2)所示:y=x+tanh(ln(1+exp(x)(2)22特征融合在计算机视觉领域,人们提出了许多网络来解决小目标或模糊目标的分类检测性能问题。这些网络主要是从特征层面进行改进,使网络学习更具表现力。受 PCCN16 结构的启发,
22、采用并行逻辑将两个不同的网络结合起来,形成一种双网络结构。同时,使用通道拼接的方法来连接不同的网络层,以获得更多的特征信息。通道拼接操作不会改变特征图的大小,只会增加通道的数量。在辅助特征提取网络中,每个阶段的结果都可以看作是一个更高层次的特征;每个功能级别的输出是主干特征提取网络输入的一部分,并流向后续主干的并行阶段。这种并行操作可以融合多个高级和低级特征,以生成更丰富的特征表示。图 5 显示了特征融合总体框架。这个过程如式(3)和式(4)所示:fo=fafb(3)fO=(fo)(4)其中,是特征通道拼接融合的过程,fa表示当前阶段辅助主干网络的输出特征,fb表示当前阶段主主干网络的输出特征
23、,fo表示特征拼接融合的结果,fO作为主主干网络下一层的输入值。从 fo到 fO的过程通过通道调整进行。如式(4)所示,是 11 的卷积运算。图 5特征融合总体框架Fig.5Overall framework of feature fusion23损失函数设计目标检测任务的损失函数由位置损失、置信度损失和分类损失之和组成。位置损失:是描述检测框中被检测对象的具体位置。选取 CIOU Loss23 作为位置损失的损失函数,这使得检测框的回归速度和准确性更高。IOU 的定义如式(5)所示:IOU=|BBgt|BBgt|(5)其中,B 为检测框的面积,Bgt为真实框的面积。因此,CIOU Loss
24、的定义如式(6)所示:LCIOU=1IOU+(b,bgt)c2+(6)其中,是平衡正数的参数,v 是确保长宽比具有一致性的参数,b 是中心点,(b,bgt)分别代表了预测框和真实框的中心点的欧式距离,c 代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。和 v的定义如式(7)和式(8)所示:=v1IOU+v(7)v=42arctanwgthgtarctanwh()2(8)其中,w 和 h 为预测框的宽高,wgt和 hgt为真实框的宽和高。置信度损失:是判断检测框中被检测对象是否存在或局部存在(分为有意义和无意义)。选取 binarycross-entropy24 作为置信度损失的损
25、失函数。置信度定义为 P(obj)*IOUgtpre,P(obj)0,1。若预测框中存在被检测对象,则 P(obj)=1,此时置信度等于 IOU。若预测框中无被检测对象,则 P(obj)=0,此时置信度等于 0。置信度损失的定义如式(9)所示:LCon=Ni=1 objyilog(p(yi)+nobj(1yi)log(1p(yi)N(9)其中,N 表示样本总数,obj和 nobj是惩罚项,表示当检测框中没有检测到的对象时,对整个损失函数的贡献,yi为模型估计的标签(yi 0,1),p(yi)是所有 N 个样本中 yi=1 的预测值(p(yi)0,1)。分类损失:是针对被检测对象的类别而言的,选
26、取Focal Loss2526 作为分类损失的损失函数。分类损失的定义如式(10)所示:LCla=c(1pc)log(pc)(10)其中,c为平衡变量(c=025),c 0,1,为可调节聚焦参数(=2),0。pc定义如式(11)所示:pc=pif z=11potherwise(11)其中,z 为真实框类(yi1,+1),p 是由模型估计的标签为 z=1 类的概率(p 0,1)。82第 4 期李习习,等:基于双主干网络的雾天交通目标检测方法研究3实验验证31实验设计实验环境采用 Tensorflow22 机器学习框架,在操作系统为 Windows10 64 位,CPU 为 Intel()Core
27、(TM)i9-10940X,主频为 331GHz 14 核,运行内存为64 GB,GPU 为 NVIDIA GeForce TX3080 的实验环境背景下进行的。32实验参数为了减少网络模型的收敛时间以及提升生成坐标框的准确性,采用 K-means 聚类算法27 针对所需的实验数据生成 archors 坐标框为(12,16),(19,36),(40,28),(36,75),(76,55),(72,146),(142,110),(192,243),(459,401)。训练阶段将数据集中不同尺寸图片统一转换为 4164163,每次训练设置 100 个Epoch。采用分段方式,前 050 个 Epo
28、ch 的批量(batchsize)设置为 16,初始学习率(learning rate)设置为1103,设置损失函数 3 次不下降时,以原学习率为基准的 50%自动调节学习率,最低降为 1106;后 50 100 个 Epoch 的批量(batch size)设置为 8,初始学习率设置为 1104,设置损失函数 5 次不下降时,以原学习率为基准的 50%自动调节学习率,最低降为 1106。此外,采用早停(early stopping)机制,在损失函数多次不下降时自动结束训练。在测试阶段,设置 IoU 阈值为05 的非极大抑制(NMS)28,对训练结果进行测试。33实验数据集使用的是公开的有雾自
29、然图像数据集(eal-worldTask-driven Testing Set,TTS29)以及雾天行人图像数据集 HazePerson30。(1)TTS 数据集雾天图片共有 4 322 张,五分类,分别是 bus,bicycle,car,motorbike and person,取3 889张作为训练集,433 张作为测试集。由于雾天环境复杂多样,所面临的检测难度也有所不同;因此,在测试集中挑选出薄雾、中雾和浓雾 3 种不同等级雾气浓度图片进行检测结果分析。(2)HazePerson 数据集共有图片 1 195 张,属于单一类别,取 1 075 张作为训练集,120 张作为测试集。由于数据集
30、图像数量不够,目标对象单一,采用水平翻转(fliplr),对比度(contrast)两种图像增强技术来扩充数据集;因此,在测试集中挑选出水平翻转图像、对比度图像和原始图像进行检测结果分析。34评估方法选择 了 目 标 检 测 中 常 用 的 评 估 方 法:精 确 度(Precision,Pr),召 回 率(ecall,e),AP(AveragePrecision),mAP(mean Average Precision)和 FPS(FramesPer Second)来分析网络模型的检测效率和性能。Pr和 e的定义如式(12)和式(13)所示:Pr=TPTP+FP(12)e=TPTP+FN(13
31、)其中,TP 表示正确预测的对象边界框的数量。FP 表示无法预测的对象边界框的数量。FN 表示遗漏的预测对象真实框的数量。对于多目标检测算法中,mAP 是衡量多类目标检测结果的平均精度。mAP 是所有类别的平均 AP 值,计算方法如式(14)和式(15)所示:AP=10Pr(e)de(14)mAP=1MMk=1APk(15)其中,M 是目标类别的数量。35实验结果分析为了研究模型在雾霾等复杂恶劣天气条件下对车辆和行人的检测效率,比较了该模型与其他常用神经网络模型的性能。网络模型设计的初衷是采用端到端的设计理念,即直接检测有雾图像,进而可以省去前期对雾霾图片进行去雾霾操作,这样可以降低工作量,减
32、少模型对图片的推理时间,增加检测的连贯性和实时性。首先,将 MVNet 与“two-stage”目标检测方法中表现较好的 Faster CNN-resnet101 进行了比较。通过分析表 1 和表 2 中的实验结果可知,MVNet 的 mAP 值与Faster CNN-resnet101 相当,但是,在图像推理速度(FPS)方面,MVNet 在 不 同 的 数 据 集 上 分 别 达 到1961 fps和 2060 fps,大约是 Faster CNN-resnet101 的35 倍。因此,提出的 MVNet 方法在目标检测的实时性方面具有明显的优势。表 1不同的检测方法在 TTS 数据集上的
33、检测结果Table 1Detection results of different detection methodson TTS datasetMethodmAP/%e/%Pr/%FPSSSD-vgg166739510085535513YOLOv4-CSPdarknet53_tiny6521475385133666YOLOv3-Darknet536836566382923355Faster CNN-resnet101721061788569560YOLOv4-CSPdarknet536910474486762520MVNet715072569531196192重庆工商大学学报(自然科学版)第
34、 40 卷表 2不同的检测方法在 HazePerson 数据集上的检测结果Table 2Detection results of different detectionmethods on HazePerson datasetMethodmAP/%e/%Pr%FPSSSD-vgg168312693392345642YOLOv4-CSPdarknet53_tiny8327741292804042YOLOv3-Darknet538842824393143473Faster CNN-resnet101893483079331602YOLOv4-CSPdarknet538847824392472597
35、MVNet8984846695192060其次,将 MVNet 与“one-stage”目标检测方法进行了比较。由图 6(a)和图 6(b)以及表 1 和表 2 的实验结果可知,方法与“one-stage”目标检测方法 SSD-vgg16、YOLOv4-CSPdarknet53 _ tiny、YOLOv3-Darknet53和YOLOv4-CSPdarknet53 相比,在精确度、召回率和 mAP性能指标上有明显的提升。最后,将分析网络结构,并验证方法的先进性。(1)主主干网络的改进与未改进之间的性能比较。由图 7(a)和图 7(b)中的实验结果可知,改进的MobileNets 比未改进的 M
36、obileNet 在精确度上有明显提高,而且在召回率方面前者也优于后者。同时,由表 4可知,在单分类数据集 HazePerson 上改进的 MobileNets依然具有较强的鲁棒性。(2)单一网络结构与双网络结构之间的性能比较。由表 3 和表 4 的实验结果分析可知,YOLOv4-CSPDarknet53 _ vgg-dcbm的mAP高 于YOLOv4-CSPdarknet53。此外,通过分析不同数据集上的实验结果,在主干 CSPdarknet53 网络结构的基础上引入辅助主干网络可以提升目标检测方法的性能。(3)双网络结构之间的性能比较。通过分析表 3至表 4 的实验结果可知,与 YOLOv
37、4-CSPDarknet53_vgg-dcbm 方法相比,提出的方法在目标检测的结果上有很大的提高。其中从图 7(a)和图 7(b)的实验结果分析上,可以发现 MVNet 在精确度和召回率方面有较大的提升。尤其是在召回率方面,在某些目标类别(如 busand bicycle),几乎是 YOLOv4-CSPDarknet53_vgg-dcbm的 2 倍。此外,在不同数据集上,可以发现提出的方法在图像推理速度上比 YOLOv4-CSPDarknet53_vgg-dcbm大约高出 5 fps。(a)精确度(b)召回率图 6不同的检测方法在 TTS 数据集上的表现Fig.6Performance of
38、 different detection methodson TTS dataset(a)精确度(b)召回率图 7改进的不同检测方法在 TTS 数据集上的表现Fig.7Performance of different improved detectionmethods on TTS dataset03第 4 期李习习,等:基于双主干网络的雾天交通目标检测方法研究表 3改进的不同的检测方法在 TTS 数据集上的检测结果Table 3Detection results of different improved detectionmethods on TTS datasetMethodmAP/%e
39、/%Pr/%FPSYOLOv4-MobileNet5863330984443335YOLOv4-MobileNets6032383482142638YOLOv4-CSPdarknet536910474486762520YOLOv4-CSPDarknet53_vgg-dcbm6979461387931239MVNet7150725695311961表 4改进的不同检测方法在 HazePerson 数据集上的检测结果Table 4Detection results of different improved detectionmethods on HazePerson datasetMethodm
40、AP/%e/%Pr/%FPSYOLOv4-MobileNet7357233261933806YOLOv4-MobileNets7964635893433000YOLOv4-CSPdarknet538847824392472597YOLOv4-CSPDarknet53_vgg-dcbm8874731695031623MVNet89848466951920604实验仿真测试图 8、图 9 和图 10 显示了 MVNet 和几个现有目标检测方法在 TTS 测试集中选择的 3 种不同雾浓度水平下的检测结果比较。图 8 显示了在薄雾环境下的检测结果。尽管在不同场景下而且光线照射不均匀,但是所提出的 MV
41、Net仍有较好的检测性能。图 9 显示了在中雾环境下的检测结果。在道路场景中,提出的方法在目标比较密集的情况下都有较好的检测效果。在行人与车辆繁多的场景中识别效果尤为突出。此外,在密集小目标的远距离场景中,例如远距离拍摄的车辆,MVNet 都能较好的识别出车辆的类别。图 10 显示了在浓雾环境下的检测结果。在浓雾环境下由于光线很弱导致检测到的目标较少。虽然在密集小目标检与识别到的目标数量略有减少,但是 MVNet 仍然能够在繁杂的交通道路上有较好的检测效果。图 11 显示了在 HazePerson 测试集中选择的 3 种图像类型下,MVNet 和几个现有网络的检测结果比较。在不同的角度和对比度
42、下,该网络框架也具有较高的检测效果。(a)SSD-vgg16(b)YOLOv4-CS(c)YOLOv3-Dark(d)YOLOv4-CSP(e)Faster CNN-(f)MVNet-darknet 53_tiny-net 53-darknet 53resnet 101图 8薄雾环境下的检测结果Fig.8Detection results in mist environment13重庆工商大学学报(自然科学版)第 40 卷(a)SSD-vgg16(b)YOLOv4-CS(c)YOLOv3-Dark(d)YOLOv4-CSP(e)Faster CNN-(f)MVNet-darknet 53_ti
43、ny-net 53-darknet 53resnet 101图 9中雾环境下的检测结果Fig.9Detection results in medium fog environment(a)SSD-vgg16(b)YOLOv4-CS(c)YOLOv3-Dark(d)YOLOv4-CSP(e)Faster CNN-(f)MVNet-darknet 53_tiny-net 53-darknet 53resnet 101图 10浓雾环境下的检测结果Fig.10Detection results in dense fog environment23第 4 期李习习,等:基于双主干网络的雾天交通目标检测方
44、法研究(a)SSD-vgg16(b)YOLOv4-CS(c)YOLOv3-Dark(d)YOLOv4-CSP(e)Faster CNN-(f)MVNet-darknet 53_tiny-net 53-darknet 53resnet 101图 11不同角度和不同对比度的检测结果Fig.11Detection results at different angles and different contrasts综上所述,在浓雾环境中,稠密小目标检测和识别的目标数量略有减少;但在薄雾和中雾环境中,被检测和识别到的目标数量显著增加,检测和识别的准确率较高,漏检率较低。5结束语针对复杂恶劣天气(雾、霾
45、等)下的车辆和行人检测问题,提出了一种双主干网络 MVNet 用于雾天交通目标检测,以提高复杂恶劣天气(雾、霾等)下的目标检测性能。MVNet 网络结构是由主主干网络 MobileNets和辅助主干网络 VGG-DCBM 组成。辅助主干网络提取图像中的一系列特征,然后通过并行方式获得两个网络的特征层信息,并实现不同网络特征层信息之间的通道拼接融合,以获得更详细的特征,从而获得更好的检测效果。在未来工作中,为提高密集小目标检测和识别的准确率,考虑进行去雾处理和图像增强,以进一步提高复杂恶劣天气(雾、霾等)下目标识别的效率和识别速度。参考文献(eferences):1KHOSHIDI A,AINY
46、 E,SOOI H Iranian road trafficinjury project:assessment of road traffic injuries in Iran in2012 J Injury Prevention,2016,22(2):1721792DAVIDSON P,DHAMAATNE S Disastrous but preventable:road traffic accidents J Health Care for Women International,2016,37(7):7067063WANG J,ZHANG T J,CHENG Y,et al Deep l
47、earning forobject detection:a survey J Computer Systems:Science Engineering,2021,38(2):1651824ASIFULLAH K,ANABIA S,UMME Z,et al A survey of therecent architectures of deep convolutional neural networks JArtificial Intelligence eview,2020,53(8):545555165GISHICK,DONAHUE J,DAELL T,et al egion-based con
48、volutional networks for accurate object detection andsegmentation J IEEE Transactions on Pattern Analysis andMachine Intelligence,2016,38(1):1421586GISHICK Fast-CNN C/Proceedings of the IEEEInternational Conference on Computer Vision Santiago,Chile,2016:144014487EN S Q,HE K M,GISHICK,et al Faster-CN
49、N:towardsreal-timeobjectdetectionwithregionproposal33重庆工商大学学报(自然科学版)第 40 卷networks J IEEE Transactions on Pattern Analysis andMachine Intelligence,2017,39(6):113711498EDMON J,DIVVALA S,GISHICK,et al You onlylookonce:unified,real-timeobjectdetection C/Proceedings of the IEEE Computer Society Conferen
50、ce onComputer Vision and Pattern ecognition Las Vegas,USA,2016:7797889EDMON J,FAHADIAYOLO9000:better,faster,stronger C/ProceedingsoftheIEEEConferenceonComputer Vision and Pattern ecognition Washington,USA,2017:6517652510 LI G F,LIU X,TAO B,et al esearch on ceramic tiledefect detection based on YOLOv