1、河流保护与治理DOI:10.15961/j.jsuese.202200033基于改进SSD模型和自适应滤波算法的水面漂浮物目标检测跟踪方法陈任飞1,彭勇1,2*,吴剑1,李昱1,岳廷秀2(1.大连理工大学 水利工程学院,辽宁 大连 116024;2.大连理工大学 人工智能大连研究院,辽宁 大连 116000)摘要:水面漂浮物严重破坏河道景观和水生态环境,通过摄像头实施河湖可视化监管以改善河湖面貌,已成为积极落实“河湖长制”政策的重要技术手段。但由于河流环境复杂多样,存在水波扰动、动态光影和强光反射等诸多噪声问题,现有方法难以满足水面漂浮物实际管理需求。本文结合单帧检测与多帧滤波,提出了一种基于
2、深度学习的水面漂浮物目标智能检测跟踪方法。在单帧检测中,删除55及以下低分辨率特征图,通过特征求和方式增强7676高分辨率特征图以提升单步多框目标检测(single shot multibox detector,SSD)在小尺度漂浮物目标的检测精度;在多帧滤波中,基于时空相关性和运动信息构建自适应滤波(adaptive filter,AF)算法框架,计算视频帧中帧与帧之间的关联性,根据漂浮物目标的空间位置变化幅度自适应删除偏离运动轨迹的漂浮物目标检测结果,以降低漂浮物跟踪漂移;在信息融合阶段,通过特征对比融合检测和滤波信息,实现检测信息和跟踪信息动态互补,并以不同检测跟踪场景数据集进行训练与验
3、证。结果表明:在简单水面场景下中心位置误差为8个像素点时,该方法的检测跟踪精度达到100%,成功率面积为0.94,平均速度达到17.27 fps,计算复杂度为7.18109;在复杂水面场景下中心位置误差为10个像素点时,该方法的跟踪精度和成功率面积分别为93.24%和0.81,平均速度和计算复杂度分别为15.02 fps和8.76109,在复杂环境下兼顾了检测跟踪精度和效率。关键词:深度学习;水面漂浮物;检测跟踪;特征融合中图分类号:TN911.73;TP391.4文献标志码:A文章编号:2096-3246(2023)04-0119-11Detection and Tracking Metho
4、d of Floating Objects on Water Surface Based onImproved SSD Model and Adaptive Filtering AlgorithmCHEN Renfei1,PENG Yong1,2*,WU Jian1,LI Yu1,YUE Tingxiu2(1.Faculty of Infrastructure Eng.,Dalian Univ.of Technol.,Dalian 116024,China;2.Artificial Intelligence Inst.,Dalian Univ.of Technol.,Dalian 116000
5、,China)Abstract:The floating objects on water surfaces seriously damage river landscapes and water ecological environments.However,due to the com-plex and diverse river environments,there are many noise problems such as water wave disturbance,dynamic light and shadow,and strong lightreflection that
6、may reduce the accuracy of image-based object detection.To solve the problem of floating object detection and tracking in com-plex environments,a deep learning-based intelligent detection and tracking method for floating object targets on the water surface is proposed bycombining single-frame detect
7、ion and multi-frame filtering.In single-frame detection,low-resolution feature maps of 55 and below are removed,and high-resolution feature maps of 7676 are enhanced by feature-added technique to improve the detection accuracy of the SSD detection al-gorithm for small-scale floating objects.In multi
8、-frame filtering,an adaptive filtering algorithm framework is constructed based on spatial-tem-收稿日期:2022 01 11基金项目:国家自然科学基金项目(71874021;71974024);大连理工大学人工智能研究院项目(05090001)作者简介:陈任飞(1992),男,博士生.研究方向:图像识别.E-mail:*通信作者:彭勇,教授,E-mail:网络出版时间:2022 07 28 15:45:58 网络出版地址:https:/ http:/http:/ 第 55 卷 第 4 期工 程 科
9、学 与 技 术Vol.55 No.42023 年 7 月ADVANCED ENGINEERING SCIENCESJuly 2023poral correlation and motion information to calculate the correlation between frames in a video frame and adaptively remove the detection resultsof floater targets that deviate from the motion trajectory according to the magnitude of
10、change in the spatial position of the floater target to reducefloater tracking drift.In the information fusion stage,the detection and filter information are fused by feature comparison to achieve dynamiccomplementarity between detection and tracking information and are trained and validated with di
11、fferent detection and tracking scene datasets.The results show that the method achieves 100%detection and tracking accuracy,0.94 success rate area,17.27 fps average speed,and 7.18109computational complexities in simple water scenes with a center location error of 8 pixels.The tracking accuracy and s
12、uccess rate area for a cen-ter location error of 10 pixels in complex water scenes are 93.24%and 0.81 respectively,and the average speed and computational complexity are15.02 fps and 8.76109 respectively,balancing detection and tracking accuracy and efficiency in complex environments.Key words:deep
13、learning;floating objects on the water surface;detection and tracking;feature fusion 漂浮物作为河道表观污染的重要源头,严重影响河道环境和河湖环境保护工作1。减小漂浮物聚集量与滞留时长,加强漂浮物跟踪监测,是改善水环境生态质量的重要途径,也是积极落实“河湖长制”政策的技术手段2。现阶段水面漂浮物检测跟踪方式包含了人工识别、遥感监测和机器视觉识别等3,但是复杂水面环境存在漂浮物采样困难、自身形变、环境光照、遮挡及监控摄像头位置固定等情况4,易造成漂浮物漏检和跟踪失败等问题,难以适应精细化和高效率的漂浮物控制管理需
14、求。因此,寻找一种高效、快捷的水面漂浮物检测跟踪方法是水污染治理亟需解决的问题之一。周治国等5针对水面漂浮物目标检测识别的研究主要围绕传统图像处理和基于深度学习方法两个方面展开。传统图像处理主要基于水面环境前景和背景特征、滤波理论进行目标识别,具有检测识别速度快的优势,但易受到目标尺度小、光照变化大、遮挡、运动缓慢等复杂环境的干扰,造成误检、漏检等问题,难以满足鲁棒性要求。基于深度学习的目标检测算法利用多层卷积神经网络提取漂浮物特征,如Huang等6采用Faster R-CNN检测网络和数据增强方式用于水面物体检测和识别,其精度较高但检测效率低;Redmon等7在改进YOLO(you only
15、 live once)基础上的提出YOLOv3进行目标检测,具有快速检测的优点,但存在精度下降的问题;Cao等8通过将SSD(single shot multibox detector)网络中的VGG(visualgeometry group)基础网络进行轻量化设计,有效平衡了检测准确度和计算复杂度。其中,SSD模型以其自身的精度和速度的优势,成为当前应用于水面漂浮物目标检测识别的主流方法9。但是当漂浮物目标尺度较小10、缓慢运动11及背景复杂度发生较大变化时,检测误差率不断上升,同时算法需要高功耗实验设备的支持,难以移植到嵌入式设备中。目前水面漂浮物目标检测多是单帧检测,尚未充分利用视频帧与
16、帧之间的时间相关性和漂浮物目标运动状态信息,在对视频进行处理时易造成目标漏检等情况12。相较于目标检测,目标跟踪在实时性方面要求更为严格。在水面漂浮物目标跟踪领域,以往学者的研究方法主要分为经典目标跟踪方法和核相关滤波。刘海涛等13提出基于遗传算法的智能粒子滤波(particle filter)进行目标跟踪,有效降低高度和速度误差;Xie等14采用卡尔曼滤波(Kalman fliter)和高斯混合模型,提升了运动跟踪效果;李成美等15将ShiTomasi角检测和金字塔LK光流法相结合,实现对运动目标的稳定跟踪。以上经典目标跟踪算法适用于简单水面环境下的漂浮物跟踪,其跟踪的准确性和鲁棒性较差。基
17、于核相关滤波(kernel correlationfilter,KCF)算法16的漂浮物跟踪通过分类器训练、目标检测和模型更新,提升了在复杂河道场景中漂浮物跟踪的性能。Henriques等17在KCF中加入了方向梯度直方图(histogram of oriented gradient,HOG)提升目标跟踪精度,但由于漂浮物不同尺度的动态变化易产生跟踪漂移。以上目标跟踪算法基于视频序列中的时间信息对漂浮物目标进行处理,在较小漂浮物目标尺度及缓慢运动状态下无法确保跟踪精度。而序列检测可以利用目标的时间信息和漂浮物运动状态信息进行多帧联合检测与跟踪,降低跟踪环境不确定性的影响18,为解决现有目标跟踪
18、算法问题提供新思路。针对现有水面漂浮物检测与跟踪方法易受到复杂水面环境、漂浮物尺度与运动状态变化的影响等问题,作者提出一种基于改进的单步多框目标检测(single shot multibox detector,SSD)网络和相关滤波算法的水面漂浮物目标检测跟踪方法,较好地完成复杂环境下小尺度漂浮物的检测和跟踪任务。1 研究方法 1.1 方法概述在单帧检测阶段,通过删除SSD网络中深层低分辨率检测层和增强浅层高分辨率特征层来获得小尺度漂浮物的空间信息,解决小尺度漂浮物检测问题;在多帧滤波阶段,基于时空相关性和运动信息提出120工程科学与技术第 55 卷一种自适应滤波算法,计算视频帧中帧与帧之间的
19、关联性,自适应删除偏离运动轨迹的漂浮物目标检测结果,从而达到持续跟踪的目的;在信息融合阶段,通过特征对比将改进SSD检测网络和自适应滤波算法获得的信息进行融合,确保跟踪速度和准确率,并将新目标进行长时间持续跟踪。研究方法分为3个步骤:1)应用改进SSD检测器检测出水面环境中所有的潜在目标作为检测结果;2)运用AF滤波器过滤掉偏离目标历史运动轨迹的检测目标,修正检测结果,获取当前帧检测目标的最终位置;3)在完成一定帧数跟踪后再次引入改进SSD检测机制,比较新检测框与旧跟踪框的置信度,通过融合检测信息和滤波信息确定合适的跟踪框。整体流程如图1所示。1.2 单帧检测:改进SSD网络SSD和YOLO在
20、公开数据集上具有较好的检测速度和准确率性能,但是对低像素小尺度目标物的检测性能较低19。与YOLO算法基础网络Darknet相比,SSD检测算法的VGG结构简单,更适合与其他算法集成。由于较小漂浮物目标位于高分辨率的特征图中,本文对SSD网络进行如下改进,调整深层低分辨率检测层和浅层高分辨率检测层的结构。传统SSD中输入分辨率为300300的输入图像,包含了6个检测层20,分辨率分别为3838(F1)、1919(F2)、1010(F3)、55(F4)、33(F5)和11(F6),SSD300网络结构如图2所示。改进后的SSD检测网络如图3所示,包含了4个检测层,分辨率分别为7676(F0)、3
21、838(F1)、1919(F2)和1010(F3)。4个检测层具体情况如下:1)删除深层低分辨率检测层。在分辨率为300300的输入图像中,水面漂浮物目标物中包含部分低像素和小尺度图像,其包含的像素不足1010,由于分辨率低、图像模糊、信息少和噪声多,增加了检测难度21。而检测层F4的分辨率为55,与原始输入图像相比,分辨率降低了58倍,该检测层下的漂浮物模糊且形状、外观信息大幅减少,因此分辨率为55的检测层F4及以下的分辨率无法提取小尺度漂浮物目标的重要特征,不同分辨率图层下的目标检测过程如图4所示。因此,本文将删除SSD网络中55、33和11分辨率的检测层。300300 漂浮物图像SSD
22、检测:获取初始检测框APF 跟踪:跟踪固定帧数注:F0、F0、F1、F2、F3 代表特征层。F0F0F1F2F35121 02451225625676763819101910387676检测单帧检测与多帧滤波信息融合特征增强 图 1水面漂浮物检测跟踪框架Fig.1Detection and tracking framework of floating objects on the water surface 3819105312562562565121 024512F1F2F3F4F5F638191053检测图 2SSD 300网络结构Fig.2Network structure of SSD
23、 300 76256F0F1F2F3F02565125121 024763819107676381910检测特征增强图 3改进SSD 300网络结构Fig.3Network structure of improved SSD 300 第 4 期陈任飞,等:基于改进SSD模型和自适应滤波算法的水面漂浮物目标检测跟踪方法1212)增强浅层高分辨率检测层。为了提升小尺度漂浮物的检测性能,采用7676的高分辨率特征层,但高分辨率特征层过于浅层将导致其包含的语义信息不足,从而难以区分目标,必须对其进行特征增强。特征融合具有在不降低分辨率的情况下提升特征层的语义信息,能够解决语义信息和分辨率的矛盾问题22
24、。因此,采用特征融合中的特征求和(Add)方式对浅层高分辨率特征层进行增强处理,相较于特征拼接(Concat),求和方式具有节约参数和计算量的优势23。特征融合处理过程如图5所示。由图5可见:首先,将分辨率为7676的特征层F0与分辨率为3838特征层F1进行特征相加求和处理,采用11点卷积对F1层进行降维,并进行上采样得到F0a,确保F1和F0a具有相同的分辨率和通道数;将F0a层按照逐个像素添加到F0层,通过卷积层平滑处理进行特征融合得到F0o。采用置信度损失和回归损失为改进SSD模型的损失函数,进行模型参数优化。损失函数:L(xkij,c,l,g)=1NLconf(xkij,c)+Llo
25、c(xkij,l,g)(1)Lconf(xkij,c)Lloc(xkij,l,g)式中,为置信度损失,为回归损失,N为预测框的正样本数量,c为类别置信度预测值,x为预测框与真实框之间的差距,l为预测框所对应边界框位置预测值,g为真实框的位置参数,为权重系数通过交叉验证。根据损失函数的结果对网络参数进行调整。1.3 滤波跟踪:自适应滤波算法在视频图像序列中,漂浮物目标的运动轨迹在相邻帧中变化具有一定的连续性,但视频背景中的噪声与漂浮物目标的运动轨迹相关程度较低24。基于这一特点,本文提出了一种自适应滤波算法(ad-aptive filter,AF),实现自适应地删除偏离运动轨迹的漂浮物目标检测结
26、果,从而达到持续跟踪的目的。自适应滤波算法结构如图6所示。由图6可见,AF算法作为一种队列结构,漂浮物的运动状态和轨迹由于相邻帧发生改变,圆形代表漂浮物在相邻帧中的检测框,虚线代表漂浮物检测框中心位置相连,上下横线代表漂浮物检测框的上限和下限。在滤波过程中,AF算法可以根据漂浮物目标的空间位置的变化幅度调整检测结果范围,防止漂浮物目标被漏检或误检。Mm1m2m3mnPp1p2p3piCC20k 0kMC(miC)2miPP自适应滤波算法整体框架如图7所示。由图7可看出:首先,输入改进SSD检测器下当前视频帧中的水面漂浮物目标的检测结果,包含了若干检测目标的坐标信息,。然后,输入历史视频帧中漂浮
27、物的坐标信息,包含,通过均值化处理得到历史帧中漂浮物数据的中心坐标,并计算历史帧中每一个坐标信息与 的方差。其次,设定初始值和方差系数,设置为0,大于1,通过计算位置方差自适应调整,若相邻帧之间漂浮物目标空间位置变化较大,则自适应增加 防止漂浮物目标作为背景噪声被删除;若相邻帧之间漂浮物目标空间位置变化较小,自适应减小,以防止背景噪声被误检为真实漂浮物目标。最后,计算当前帧中漂浮物目标检测结果与 之间的距离,若大于,则删除当前帧中的检测结果;否则,进行保留,从有效检测结果中选择最高置信度作为当前帧的检测结果,并对 进行更新得到。C=1i=1(pi)(2)383819105311910531图
28、4不同分辨率图层下的目标检测Fig.4Target detection at different resolution layers 76256F0F1F0aF051225625638797611 卷积Conv+ReLU 函数上采样处理76387976图 5特征融合处理Fig.5Feature fusion processing 图 6自适应滤波算法结构Fig.6Adaptive filtering algorithm structure 122工程科学与技术第 55 卷2=1i=1(piC)2(3)=0+k2(4)M=Mmi(5)M=m(6)P=(Ppi)m(7)CPP=p1,p2,p3,p
29、i C02kMM=m1,m2,m3,mn MP式(2)(7)中:为历史视频帧下水面漂浮物目标的坐标中心位置;为历史视频帧中漂浮物的坐标信息集合,;为有效检测结果范围相对于 的半径;为半径 的初始值;为检测结果在历史帧中的空间位置方差;代表方差的系数;为改进SSD检测算法下当前帧水面漂浮物目标检测结果集合,;为当前帧中最高置信度的检测结果;为更新后的历史帧水面漂浮物目标信息集合。1.4 单帧检测与多帧滤波信息融合利用改进SSD检测算法进行目标检测来提取单帧图像特征,精度较高,可以对未知目标进行识别分类,鲁棒性强。但检测没有结合视频图像帧与帧之间的时间信息及漂浮物的运动信息,容易产生漏检,且运行速
30、度较慢。自适应滤波算法通过提取连续帧图像的特征并训练滤波器,计算量少,处理速度快,但是容易造成累计误差,产生目标偏移,易受到目标遮挡与复杂水面环境的影响。因此,将单帧检测信息与多帧滤波信息进行融合,提升整体性能,实现对水面目标更加准确、稳定地检测跟踪,兼顾鲁棒性和实时性。SiKjSiKj融合时,在首帧图像中通过改进SSD检测算法获取检测候选框,确定目标物的空间位置信息;再将首帧目标的位置信息作为AF算法的输入,之后的数帧采用AF算法对目标进行跟踪,获取跟踪候选框。跟踪固定帧数后运行再检测机制,通过改进SSD检测算法确保持续检测跟踪的精度。通过计算和的交并比(IOU)来判断检测跟踪是否为同一漂浮
31、物目标。交并比的计算公式如下:IOU=SiKjSiKj(8)SiKjSiKjKjIOU 0.4SiKjIOU 0.4conf(Si)conf(Kj)式中,代表检测候选框和跟踪候选框的交集,代表检测候选框和跟踪候选框的并集。若,判断为新漂浮物目标,参与AF算法的初始化;若,则判断检测和跟踪为同一漂浮物目标,比较改进SSD算法检测框置信度与AF算法跟踪框的置信度,输出置信度较大的框作为系统输出。检测跟踪框选择过程如图8所示。1.5 模型评价指标采用目标检测跟踪领域3种具有代表性的评价指标25中心位置误差(center location error,CLE)、重叠面积比率(overlap rate,
32、OR)和检测跟踪精度(de-tection precision,DP)对检测跟踪结果进行定量分析。CLE代表跟踪目标与预测框的中心位置距离,采用欧氏距离,统计所有帧中心位置误差并取均值,即平 输出 1:保留当前帧中检测结果 mi输入 1:当前帧中的漂浮物目标检测器的检测结果(坐标)输入 2:历史帧的漂浮物目标坐标信息计算 C:将历史帧中的坐标信息进行均值化处理计算 2:将历史帧中的每一个坐标信息与均值化结果进行方差处理计算:初始值+方差因子 K=0+k2更新 P*=(Ppi)m输出 2:当前帧中的漂浮物目标检测器的置信度最高的检测结果输出 1:删除当前帧中检测结果 M 中的 miM=m1,m2
33、,m3,mnP=p1,p2,p3,piC=(pi)1i=12=(piC)21i=1M*=MmiM=m(miC)2否是 图 7自适应滤波算法整体框架Fig.7Overall framework of the adaptive filtering algorithm 第 4 期陈任飞,等:基于改进SSD模型和自适应滤波算法的水面漂浮物目标检测跟踪方法123均中心位置误差。CLEaverage为通过判断两个矩阵的靠近程度评估误差,数值越小代表跟踪过程的检测框位置越准确。OR为指跟踪目标的真实标记框与预测框的交集和并集面积比值,计算视频帧中所有帧的重叠面积比率,即平均重叠面积比率ORaverage。D
34、P代表在检测跟踪视频中,检测跟踪成功的帧数占总帧数的比值。CLEaverage=1NNi=1(Cg(x)Ct(x)2+(Cg(y)Ct(y)2(9)ORaverage=1NNi=1area(RtRg)area(RtRg)(10)DP=count(CLEi0.4?Conf(Si)Conf(Ki)?图 8检测跟踪框选择过程Fig.8Process of detection and tracking box selection process 表 1数据集情况Tab.1 Data set situation 视频类型水面场景视频量/个分辨率时长/(s个1)帧率/fps简单水面场景平静水面351 92
35、01 0806430复杂水面场景动态光影移动121 9201 0805230水面倒影751 9201 0807830强光放射241 9201 0806130水波扰动131 9201 0809230 124工程科学与技术第 55 卷 2.2 平台及参数设置以Pascal VOC 2007训练出的SSD模型作为权重起点对网络进行微调,基于Ubuntu 18.04 LTS操作系统,计算机配置为Inter i7 CPU,32 G运行内存,搭配显卡为RTX 3 080,算法平台为Python3.8版本的Pyt-orch 1.10的深度学习框架,网络训练输入参数见表2。选择实地实验中4类具有代表性的视频进
36、行验证,视频1为正常水面环境,视频2为水波扰动环境,视频3为动态光影环境,视频4为强光反射环境。3 实验及结果分析 3.1 不同场景下的情况在不同水面环境下漂浮物的检测跟踪结果见表3。4个不同视频序列前500帧内每一帧跟踪结果的中心位置误差曲线和箱状图如图10所示。图10中,不同视频序列分别为正常水面、水波扰动、动态光影变化和强光反射场景。由表3和图10可知,在简单水面和复杂水面场景中,检测跟踪算法的中心位置误差低于9,代表在不同的环境下融合SSD检测信息和滤波信息能够较好地实现检测跟踪目的。在设定IOU阈值为0.6时,平均中心位置误差为5.65,平均检测跟踪精度为90.94%,平均检测速度达
37、到15.25 fps。与正常水面环境相比,其余视频跟踪的中心位置误差统计曲线基于处于视频1的上方,说明水波扰动、动态光影和强光反射等因素降低了检测跟踪效果,其中动态光影和强光反射的影响较大,检测跟踪时间相对较长。选择受检测跟踪环境影响较大的视频3和视频4进行对比实验,分别将改进SSD+AF融合算法与单一跟踪算法、检测算法进行对比分析。图11为动态光影场景中的检测跟踪结果。视频3中存在动态光影的问题,水面包含了大量动态光影和倒影,河面光照分布不均匀。图11(a)中,传统SSD检测算法能够检测出较大尺度的漂浮物,但是无法检测小尺度漂浮物,同时造成了误检。改进SSD检测 0098765432101.
38、53.04.56.07.59.0100200视频帧序号(a)折线图(b)箱状图视频 1视频 2视频 3视频 4正常水面水波扰动动态光影强光反射正常水面水波扰动动态光影强光反射中心位置误差中心位置误差300400500图 10不同跟踪环境下的算法中心位置误差Fig.10Algorithm center position errors in different track-ing environments (a)复杂度 0.37(b)复杂度 0.92(c)复杂度 6.83(d)复杂度 28.65图 9不同背景复杂度下的水面漂浮物图像Fig.9Images of floating objects o
39、n the water surface un-der different background complexities 表 2改进SSD检测网络训练输入参数Tab.2 Input parameters of the improved SSD detectionnetwork training 参数名称数值初始学习率0.000 1衰减系数0.1学习权重0.9训练冲量0.9优化器Adam权重衰减系数0.000 5输入图像分辨率300300训练批次16训练迭代次数150 000 表 3测试数据集和检测跟踪结果Tab.3 Test dataset and detection tracking res
40、ults 视频序列水面环境CLEDP/%速度/fps1正常水面2.4393.0217.882水波扰动4.7392.1516.223动态光影6.6290.3214.284强光反射8.8188.2612.62 第 4 期陈任飞,等:基于改进SSD模型和自适应滤波算法的水面漂浮物目标检测跟踪方法125算法通过增强浅层高分辨率7676特征层获得更多语义信息,检测出小尺度漂浮物目标,此时漂浮物运动区域背景相对简单,几种检测跟踪算法实现了较为准确的跟踪。图11(b)中,漂浮物进入了较大范围的倒影和光影变化区域,水面光影变化幅度较大,漂浮物和倒影区域在颜色上区分度降低,改进后的SSD检测算法虽然能够检测出漂
41、浮物目标,但是跟踪框出现偏离目标的中心位置。AF算法基于232帧之前的历史信息自动删除了偏离滤波中心区域的漂浮物,对于光影具有一定鲁棒性。图11(c)中,区域背景出现了多个条状倒影,传统SSD检测算法出现了误检,将两个小尺度漂浮物检测为1个检测框,改进SSD算法和AF算法保持较好的检测跟踪结果,但是在跟踪准确度上低于融合算法。动态光影和强光反射环境下的检测跟踪结果见表4。由表4可知,在检测跟踪的准确度上,本文提出的融合改进SSD和AF算法的中心位置误差和精度分别达到了6.62和90.32%,均高于其他3种算法。在检测跟踪速度和计算复杂度上,较于传统SSD,改进SSD算法删除了55及以下的低分辨
42、率检测层,增强7676浅层高分辨率检测层,速度提升了42.35%,代表着检测器处理图像效率有效提高;而浮点数操作量(FLOPs)从12.36降低到9.88,说明改进SSD算法的计算复杂度下降,但是检测算法显著低于自适应滤波跟踪AF算法。融合后,算法的计算速度和复杂度均得到了有效提升,达到14.28 fps和3.91109。因此,在光影变化环境中,通过融合小尺度检测算法和滤波跟踪算法能够实现较优的跟踪性能。图12为强光反射场景中的检测跟踪结果。(a)第 15 帧(b)第 232 帧(c)第 467 帧传统 SSD 算法改进 SSD 算法APF 算法本文算法传统 SSD 算法改进 SSD 算法AP
43、F 算法本文算法传统 SSD 算法改进 SSD 算法APF 算法本文算法图 11动态光影场景中的检测跟踪结果Fig.11Detection and tracking results in dynamic lightand shadow scenes (a)第 23 帧(b)第 145 帧(c)第 379 帧传统 SSD 算法改进 SSD 算法APF 算法本文算法传统 SSD 算法改进 SSD 算法APF 算法本文算法传统 SSD 算法改进 SSD 算法APF 算法本文算法图 12强光反射场景中的检测跟踪结果Fig.12Detection and tracking results in stro
44、ng light re-flection scenes 表 4动态光影和强光反射环境下检测跟踪结果Tab.4 Detection and tracking results in dynamic lightand shadow and strong light reflection environ-ment 视频序列算法CLEDP/%速度/fpsFLOPs/1093传统SSD18.6372.870.8512.36改进SSD9.6984.211.219.88AF7.0388.3615.3611.57融合算法6.6290.3214.283.914传统SSD21.2863.760.7313.91改进S
45、SD11.2581.280.9110.02AF9.2785.8213.1112.26融合算法8.8188.2612.625.77 126工程科学与技术第 55 卷视频4中漂浮物运动区域为强光反射,背景区域由于光线难以与漂浮物有效区域区分,增加跟踪难度。传统SSD算法在图12(a)、(b)和(c)中均存在漏检的问题;改进SSD算法优化了深层低分辨率和浅层高分辨率特征层结构,有效识别出小尺度水面漂浮物。在初始前23帧,改进SSD算法和AF算法的跟踪结果相差较小,跟踪框基本上处于重叠,但是跟踪准确度低于融合算法;在145帧时,改进SSD检测算法将反光物体误检为漂浮物目标,而AF算法由于自适应增加滤波
46、半径,避免了跟踪框产生漂移;在379帧时区域强光反射程度降低,跟踪框基本上处于重叠状态。相比较其他3种算法,由于检测跟踪环境的复杂性增加,视频4算法的中心位置误差、精度、速度和计算复杂度均低于视频3,但融合算法在强光反射下依然保持良好的检测跟踪效果。3.2 对比实验与分析采用单目标检测和跟踪算法进行对比实验验证本文算法的性能。检测算法选取两阶段YOLOv4算法,跟踪算法采用经典单目标跟踪算法、KCF算法和ECO算法。将159个视频序列按照73比例划分为训练集和测试集,其中,训练集包含112个视频序列和2 817张图像,测试集包含47个视频序列和1 207张图像,均包含了不同场景的数据,可以验证
47、算法的检测跟踪性能和泛化能力。1)简单场景算法对比在简单场景下,5种算法的漂浮物检测跟踪精度和成功率如图13所示。由图13可见:所有算法能够实现较好的检测跟踪结果;中心位置误差在8个像素之内,精度达到了1.0,代表视频中所有帧的漂浮物均被成功检测跟踪,而本文算法的中心位置误差小,在重叠率为0.5时,本文算法的检测跟踪成功率达到90%以上。以平均中心位置误差为8个像素点统计检测跟踪精度数值,计算成功率曲线面积结果见表5。由表5可知,检测跟踪精度和成功率曲线面积本文算法均优于其他算法。从检测跟踪速度看,改进后的SSD算法低于YOLOv4,由于改进SSD算法对检测层进行了删除和增强,提升了准确度,但
48、算法参数量增加,降低了检测器的处理效率;KCF和ECO算法相较于检测算法速度明显提升,而本文算法通过将改进SSD和AF算法的优势结合达到17.27 fps,在算法精度和效率方面达到了平衡。从算法计算复杂度看,改进SSD算法采用VGG16作为基础网络,网络参数量大且模型内存容量大,YOLOv4采用端到端检测,速度提升,但精度下降28;通过引入核函数KCF跟踪算法提升了算法的执行效率,FLOPs低于ECO。本文算法融合了改进SSD和AF算法,融合策略有效减少了网络层数和参数量,从而降低算法复杂度,达到7.18109。2)复杂场景算法对比在复杂水面场景中,不同算法的检测跟踪精度和成功曲线面积如图14
49、所示;以平均位置误差为10个像素点统计精度数值,计算成功率曲线面积结果见表6。由于检测跟踪环境存在动态光影、水波扰动和强光反射的问题,检测跟踪算法的中心位置误差在一定程度上增加。相较于其他4种算法,本文算法融合单帧检测和多帧滤波,在复杂场景下具有较强的适应性和鲁棒性,能够较好地应对复杂环境因素造成的干扰,确保检测跟踪效果。从检测跟踪速度和计算复杂度方面看,检测跟踪算法由于漂浮物背景环境复杂度增加,复杂图像的处理效率降低,速度和 000.20.40.60.81.0510中心位置误差(a)跟踪精度(b)跟踪成功率跟踪精度000.050.100.150.200.250.300.350.400.450
50、.500.550.600.650.700.750.800.850.900.951.000.20.40.60.81.00.90.70.50.30.1跟踪成功率1520重叠率SSDFTYOLOv4SSDFasterRCNN本文算法SSDFTYOLOv4SSDFasterRCNN本文算法图 13简单水面场景下不同算法的跟踪曲线Fig.13Tracking curves of different algorithms in simplewater scenes 表 5在简单场景下不同算法的检测跟踪性能Tab.5 Detection and tracking performance of differe