收藏 分销(赏)

反无人机视觉检测与跟踪技术进展分析.pdf

上传人:自信****多点 文档编号:569193 上传时间:2023-12-28 格式:PDF 页数:12 大小:1.22MB
下载 相关 举报
反无人机视觉检测与跟踪技术进展分析.pdf_第1页
第1页 / 共12页
反无人机视觉检测与跟踪技术进展分析.pdf_第2页
第2页 / 共12页
反无人机视觉检测与跟踪技术进展分析.pdf_第3页
第3页 / 共12页
亲,该文档总共12页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 44 卷第 3 期 国 防 科 技 Vol.44,No.3 2023 年 6 月 NATIONAL DEFENSE TECHNOLOGY Jun.2023 收稿日期 2023-03-13 修回日期 2023-04-19 采用日期 2023-04-30 基金项目 重庆市教育委员会科研项目基金(KJQN202012903);军队科研基金(LJ20222Z060078)*通信作者 简钰洪,E-mail: 作者简介 杨辉跃,男,博士,副教授,研究方向为军事物联网、智能检测与智能控制;简钰洪,男,硕士研究生,助理工程师,研究方向为计算机视觉;涂亚庆,男,博士,教授,研究方向为装备信息化、智能检测与智

2、能控制;容易圣,男,研究方向为计算机视觉;刘坚,男,工程师,研究方向为计算机视觉。反无人机视觉检测与跟踪技术进展分析 杨辉跃1,简钰洪1*,涂亚庆1,容易圣1,刘 坚2(1.陆军勤务学院军事物流系,重庆 401331;2.32620部队,青海 西宁 810000)摘 要 为应对无人机“黑飞”“滥飞”等对国防和公共安全造成的巨大威胁,反无人机技术研究成为当前迫切的现实需求。首先,对比分析雷达、无线电、声音、机器视觉4类典型的反无人机检测技术;其次,重点针对反无人机的视觉检测与跟踪技术,从目标检测、无人机识别、无人机跟踪等角度,详细分析视觉检测与跟踪关键技术的优势与不足,以及各项技术在反无人机检测

3、跟踪中的应用情况及改进策略;最后,探讨应用中较为突出的检测精度、跟踪遮挡、实时性、数据集收集标准、多技术融合5个方面问题和发展趋势,为相关技术研究提供参考。关键词 反无人机;机器视觉;运动目标检测;目标识别;目标跟踪 中图分类号 TP391.4 文献标志码 A 文章编号 1671-4547(2023)03-0040-12 DOI:10.13943/j.issn 1671-4547.2023.03.06 引言 近年来,无人机被广泛应用于遥感测绘、资源勘探、灾后搜索救援、边防巡逻、军事作战、物资运输、情报侦察等领域,随之出现了大量“黑飞”“滥飞”情况,对国防和社会安全构成了巨大威胁。研究无人机反制

4、技术已成为当前迫切的现实需求。针对无人机入侵的反制可分为监测和反制两个方面1。监测包含检测和跟踪:检测指识别发现入侵无人机并确定其位置;跟踪指在检测的基础上记录入侵无人机轨迹,分析入侵无人机目的。无人机目标检测跟踪提供的情报信息是反制的前提和基础,其结果的准确性直接影响无人机反制效果。目前针对无人机的检测跟踪方法主要有雷达、无线电、声音和机器视觉2等。雷达检测跟踪主要通过发射电磁波接收无人机机身的回波,再利用多普勒频移原理计算目标信息3,是当前广泛应用的手段。该方法能够解算目标位置信息,探测距离远,但易受到电磁干扰,且存在低空仰角盲区,对具有“低慢小”特征的轻型、微型无人机回波较弱,以及容易误

5、报漏报处于悬停状态的无人机,甚至可能失效。同时,鸟类等物体与无人机的多普勒特征具有相似性,容易造成误检,因此轻型、微型无人机对雷达性能的要求较高。无线电检测跟踪主要利用无人机在飞行过程中的通信信号实现识别和定位。具体而言,无线电检测跟踪提取传输信号的频谱特征,形成无人机特征库,实现无人机目标识别,而后通过信号达到的时间差和无线电测向技术进行定位4。该方法易操作,能从截取信 杨辉跃,等:反无人机视觉检测与跟踪技术进展分析 41 号中获得无人机飞行状态和操作员的部分信息,但对无线电静默飞行的无人机没有探测能力,且在实际探测中由于还存在与无人机共用频带的无线电信号,导致干扰大。声音检测跟踪主要利用无

6、人机目标运动时产生的音频特征进行识别,可分为特征提取和无人机识别两步。特征提取方法主要有梅尔频率倒谱系数、线性预测倒谱系数、机器学习等,识别方法主要有支持向量机(Support Vector Machine,简称SVM)和深度学习算法5。音频检测成本低、易安装,但探测距离近,受噪声影响大,难以形成全面、辨析度高的无人机运行声音数据集,多作为无人机检测跟踪一种辅助手段。机器视觉检测跟踪是使用摄像机捕获监控区域视频,根据图像特征对视频中的无人机进行类别检测和位置跟踪。该方法易受天气影响,夜晚检测距离小,但系统成本低、探测速度快、探测精度高、监控区域大、适用场景广(尤其对易于拍摄的低空域目标检测效果

7、好),所得结果直观便于特情处置,并且通过合理布设能够实现日间大范围无死角监控。合理补光后,能够实现重要目标全时监控。相比其他几类方法,机器视觉检测跟踪没有明显的监控盲区,性能较为稳定,因此被广泛运用于复杂环境下重要场所的低空域无人机实时监控。在反无人机系统装备方面,通常综合使用多种探测技术,以获取更加有效、分层的探测能力6。例如:德国Dedrone公司的Drone Tracker系统综合利用雷达、无线电、声音、机器视觉4种方法进行无人机探测;以色列D-Fend Solutions公司的EnforceAir反无人机系统以射频网络接管技术为核心,能够自动探测、定位和识别未经授权的无人机并接管其控制

8、权;以色列阿波罗盾公司的ApplloSheild系统利用光、声和无线传感器来探测无人机,单站防护面积近80 km2;美军机动低空慢速小型无人机综合防御系统(M-LIDS)搭配了雷达与红外探测器用于无人机“蜂群”反制;英国布莱特监控系统公司、切斯动力公司、恩特普赖斯控制系统公司联合开发的大型设备AUDS使用雷达和光电原理结合探测,能够在约9.7 km内发现目标并跟踪;美国黑瑞技术公司的UAVX系统使用雷达和光进行目标探测,并利用了人工神经网络进行无人机识别。1 无人机目标检测方法 目标检测指对捕获图像中可能为无人机的目标进行预先检测,并划定候选区域。该方法可为无人机检测排除大量干扰信息,提高准确

9、率和速度。根据无人机目标的运动特性和与环境的形态区别,无人机目标检测方法分为运动目标检测和视觉显著性检测两类。1.1 运动目标检测 运动目标检测是从视频中检测运动物体在某帧图像中所处位置。由于无人机目标除悬停时间外,绝大部分时间均处于运动状态,因此可以排除大量的无关信息干扰。运动目标检测方法主要有帧间差分法7-8、背景减除法9-10两类。1.1.1 帧间差分法 帧间差分法是对相邻帧进行作差运算,像素差小于设定阈值的为背景像素,反之则为前景像素,即运动目标所在区域。该方法运算速度快且不易受光照等因素影响,但目标运动快时易出现“双影”现象(即目标在前后帧的所在区域都会被误认为运动目标候选区域),且

10、目标内部颜色相近时易出现“空洞”现象(即目标内部被检测为背景),以及在应对摄像机抖动时区分能力较差。针对“双影”现象,可使用三帧差分法进行消除11-12,即对连续三帧图像进行帧间差分运算得到两张差分二值图,再对所得两张二值图进行与运算得到最终结果。针对“空洞”现象,可通过对连续两帧差分结果进行形态学闭处理13,以减少内部空洞,同时对三帧差分法结果进行最小凸包检测14,以获得更加完整的运动目标候选区42 国防科技 2023 年第 3 期(总第 340 期)域11。也可以通过腐蚀、膨胀操作,将目标点分成许多点簇,并绘制点簇的最小外接矩形作为运动目标所在区域12。针对噪声干扰,第一,可以利用运动目标

11、的时空连续性,在帧间差分法确定目标的基础上,通过先进先出(First In First Out,简称FIFO)通道构建目标短时运动轨迹,利用在相邻帧间运动目标分布存在连续性,而噪声分布具有随机性的原理,将目标与噪声区分开。该方法虽然计算量较大,但能够较好地区分噪声与目标15。第二,可以根据所得目标的数量和形态,分区域衡量背景复杂度以及存在目标的可能性,数量少且形态符合无人机尺寸的为可疑区域,否则取目标区域的最小并集为被噪声干扰的待检查区域。该方法计算方便,但当噪声较多时,仅能提供大致待检测区域12。当使用云台或移动载体架设摄像机时,如获取视频的背景本身也处于变化状态,一般需要进行背景变化补偿。

12、使用云台摄像机时,可用单应性矩阵来刻画摄像机转动引起的背景像素位置变化,再对两帧图像ORB(Oriented FAST and Rotated BRIEF)特征点16进行匹配并估算单应性矩阵,最后实现像素点位置补偿11。1.1.2 背景减除法 背景减除法,首先需要建立背景模型,然后将检测帧图像与背景模型进行作差运算,根据差值区分前景(运动目标)。在无人机目标检测中常用的视觉背景提取(Visual Background extractor,简称ViBe)算法是利用样本随机聚类的原理构建背景模型,然后对每个像素点建立样本集。样本集包含其一定半径内像素点的历史值。把检测帧像素点与一定半径内像素点的样

13、本集元素对比,若相似的元素少即为前景。ViBe算法能直接应用到无人机入侵检 测与跟踪拦截系统中,实现运动目标分割功能17。该方法过程简单,背景初始化和更新速度快,背景更新机制使其抗抖动性及抗噪声能力强,缺点在于若初始帧存在无人机目标或当无人机悬停一段时间后会被吸收为背景,形成“鬼影”现象。针对“鬼影”现象,第一,可通过中值建模法,取多帧连续图像每个像素点的中值,构建首帧背景图像,并定期重新建模,保留最近建模结果,在运动目标消失后使用该背景模型重检测18-19。第二,可以使用三帧差分法得到二值图像,经膨胀操作后与ViBe算法得到的二值图像进行运算20。这既能消除“鬼影”现象,也能充分利用ViBe

14、算法抗抖动性强的优点。针对动态场景情况,第一,可以通过检测机制解决。如当无人机处于图像边缘区域时,云台转动使无人机目标靠近视频中心区域。云台转动时停止运动目标检测,转动完成后重新使用ViBe算法开始背景建模18。该方法可以保证无人机的持续检测效果,但不具备云台搜索功能。第二,可以利用分散度系数动态调整样本集半径值。在高动态背景区域提高半径阈值,消除高频成分的干扰。在低动态背景区域降低半径阈值,检测细微变化,同时根据像素点半径阈值内与之相似的样本集元素数量动态调整背景更新速率,进一步减少误判,提高鲁棒性19。1.2 视觉显著性检测 视觉显著性检测指将图像中人们会重点关注的部分利用人工智能算法计算

15、出来,并输出作为显著区域。无人机探测的应用场景通常比较复杂,简单的运动目标检测方法难以取得理想效果。视觉注意机制能够从复杂场景中筛选出感兴趣区域,甚至可以提取目标的初级特征直接实现无人机的识别和定位。在无人机探测应用中常用实时性较强的普残差法21。普残差法将图像视为两部分:包含背景信息的冗余部分、包含显著区域的新颖部分。通过傅里叶变换在频域空间对图像的统计特征进行分析,经均值滤波后获取图像的剩余谱,再利用傅里叶逆变换计算得到显著图。普残差法具有运算速度较快、不依赖于参数变化等优点,但对噪声比较敏感。针对噪声敏感问题,可以融合时域信息改善。在常规多帧叠加的基础上加入递归加权算法,用降噪后的前帧图

16、像与现帧图像之差模拟 杨辉跃,等:反无人机视觉检测与跟踪技术进展分析 43 现帧图像噪声,再将当前帧图像与噪声按照一定比例进行叠加,以获得当前帧的理想图像,从而减弱非连续性噪声影响22。有学者提出基于改进小波分析的目标显著性检测方法,即将图像转换到CIE XYZ色彩空间,采用小波函数对图像进行分解,得到水平、垂直和对角线方向上的分解系数,然后利用这些系数在X、Y、Z 3个颜色分量上重构生成多张特征图,以此得到图像的全局和局部显著图,进一步融合生成最终结果23。小波函数可以实现对图像的多分辨率处理,从而增强显著模型的表达性能及抗噪能力。2 无人机目标识别方法 无人机目标识别指对图像内容进行分类,

17、判断无人机目标的存在性,在机器视觉领域主要分为基于人工设计特征和深度学习两类。2.1 基于人工设计特征的无人机目标识别 基于人工设计特征的无人机识别常在目标检测生成候选区域的基础上,提取固定类型特征,使用分类器根据特征情况进行无人机识别。无人机的颜色、纹理特征都不明显,而角点、边缘特征较为明显,因此在无人机探测中常用到的人工设计特征有尺度不变特征变换(Scale-Invariant Feature Transform,简 称SIFT)24、方向梯度直方图特征(Histogram of Oriented Gradients,简称HOG)25等,因为无人机识别是二分类问题,因此常使用SVM26 分

18、类器。利用SIFT的无人机识别。SIFT算法通过求解高斯差分尺度空间的局部极值作为特征点,计算特征点的尺度和梯度方向获得特征向量。优点是对于旋转、目标大小、光照强度的变化都具有不变性,能与无人机运动状态相适应;缺点是对于像素较集中的图像表现较差。研究发现,在构建SVM的不同核函数(如线性核函数、多项式核函数、径向基核函数、Sigmoid核函数)选用上,针对大目标无人机识别,线性核函数表现最好,而小目标无人机识别则是Sigmoid核函数表现最好27-28。利用HOG的无人机识别。通过计算图像中局部区域梯度的大小和方向来描述目标的边缘特性。在无人机识别的运用中,优点在于无人机的边缘特征相比颜色、纹

19、理、角点更加明显,不易受到光照强度变化的影响;缺点在于当无人机转动或者产生距离变化时,其HOG特征也会发生改变,针对此问题,可以采用特征金字塔结构,将不同距离的无人机目标HOG特征相融合20。多特征融合的无人机识别。针对使用单一特征无法准确描述无人机特性的问题,文献29同时提取HOG特征、Raw特征(灰度特征)、Haar-like特征(角点特征)、Histogram特征(灰度特征),并按照一定比例权重进行融合,以达到优势互补的目的。2.2 基于深度学习的无人机目标识别 人工设计特征的方法原理简单、逻辑明确,但是实时性差,且对复杂背景中形态多样、姿态多变的目标识别效果有待提高。深度卷积神经网络(

20、AlexNet)问世以来,深度学习在机器视觉领域的应用得到大量研究30,逐渐成为主流技术,在无人机识别中也不例外。基于深度学习的目标识别方法主要分为二阶算法和一阶算法。二阶算法将目标识别分为候选区域生成、目标分类及边界框调整两步。一阶算法将整个图像均视为候选区域,用回归的方式直接得到目标的类别与边界框信息。对比两类算法,一阶算法速度更快,二阶算法则精度更高。无人机识别领域常用的二阶深度学习算法有Faster RCNN31、Mask RCNN,一阶深度学习算法有YOLO系列算法32-37、CenterNet38、MobileNet39、SSD40等。有研究根据无人机目标检测实际,利用当前卷积神经

21、网络领域研究成果自行建立算法模型。在无人机等小目标识别任务中,浅层神经网络算法往往具有更好的表现41。2.2.1 基于二阶深度学习算法的无人机识别 Faster RCNN、Mask RCNN由RCNN42、Fast RCNN43发展而来。Faster RCNN使用基于44 国防科技 2023 年第 3 期(总第 340 期)锚框的候选区域生成网络(Region Proposal Network,简称RPN),具备较高的精度。在反无人机检测中,为提升精度,可以采用ResNet残差结构加深特征提取网络层数,增强特征提取能力44-45;使用双线性差值和多尺度特征融合的方法提高小目标检测能力44;对捕

22、获图像进行超分辨率预处理,以得到更丰富的语义信息46,等等。为提升速度,可以使用MobileNet结构作为特征提取网络46。Mask RCNN在Faster RCNN的基础上,引用双线性插值法解决回归结果与候选框不匹配问题,使用残差网络减少信息传递误差,使用特征金字塔网络(Feature Pyramid Network,简称FPN)进行多尺度融合。Mask RCNN在无人机检测中,可以进一步用SoftNMS代替非极大值抑制(Non-Maximum Suppresion,简称NMS)算法,解决小目标无人机在复杂环境中容易被判定为重叠框而删除的问题47。部分研究根据需求,灵活设计深度学习网络进行无

23、人机识别,如使用U-Net网络排除无关信息,提取出类似无人机的目标,再使用ResNet网络结构对目标进行分类和定位48-49。2.2.2 基于一阶深度学习算法的无人机识别 YOLO系列作为经典的一阶算法,在第三代版本YOLOv3以后开始大量应用,YOLOv3借鉴ResNet提出更深的DarkNet53骨干网络,采用FPN50进行跨尺度特征融合,以提高不同尺寸目标检测精度。为提升反无人机检测的精度,可以调整K-means聚类参数以适应无人机检测,在原FPN融合的特征图上增加骨干网络的上一层特征图用于小目标检测47,51-52;使用扩张卷积代替普通卷积,引入SPP模块进一步加强不同尺寸特征融合47

24、;使用超分辨率重建算法进行图像预处理12,53;融合时序信息,如通过计算连续帧的稀疏光流获取运动信息,通过3D卷积进行多帧融合得到时序特征,并通过多通道卷积融入目标预测框架54;使用GIOU Loss替代IOU Loss,可以增加预测框和真实框的距离信息,用焦点损失函数替代置信度损失,综合考虑正负样本比例和区分问题55。为提升无人机检测速度,可以删除最底层主要用于大目标检测的特征图22;引入Ghostnet模块调整网络卷积结构,以大幅减少参数量和浮点运算量56。YOLOv4骨干网络结构借鉴了CSPNet,增加了空间金字塔池化结构(Spatial Pyramid Pooling,简称SPP)模块

25、,用路径聚合网络(Path Aggregation Network,简称PANet)57替换FPN,加强特征融合。预测上,采用CIOU Loss替换IOU Loss,用DIOU NMS替换NMS,充分考虑了边框不重合、中心点距离以及边框宽高比的问题。对比实验结果表明,相比YOLOv3、SSD,YOLOv4在复杂环境低空无人机目标检测中的精度更高、速度更快58。YOLOv5在输入端使用Mosaic、CutMix、SAT等数据增强方式,增加自适应锚框,以Leaky ReLU激活函数替代Mish提高运算速度,在无人机检测应用中表现较好59。进一步地,在提高精度方面,可以采用M-BiFPN结构替代PA

26、Net提高特征融合效果60,用SIOU损失函数替代GIOU损失函数,引入角度信息提高训练效果61。在提高速度方面,可以使用Efficientlite替换骨干网络,以减少参数量61。CenterNet是典型的Anchor-Free算法,利用高斯核生成热力图预测目标中心点,再通过回归得到目标框的宽、高及偏置。这能够避免锚框参数相对固定,导致对不同形状姿态的无人机识别效果不佳的问题。网络应用了深度可分离卷积、倒残差结构、注意力模块SE(Squeeze-and-Excitation),兼顾了实时性和特征提取效果。根据无人机识别任务特性,在提升精度方面,可以引入SPP模块、转置卷积62、带有可学习参数的

27、ACON自适应激活函数与GC-Block(Global Context-Block)注意力模块63,提高特征提取和融合能力。在提升速度方面,可取消特征提取网络结构的全连接层和部分高维特征层62,以及使用深度可分离卷积改进解码部分,提高速度63。MobileNet网络结构提出了一种被称为深 杨辉跃,等:反无人机视觉检测与跟踪技术进展分析 45 度可分离卷积的结果,用以替代传统卷积方式,并利用参数因子控制卷积核的大小。该策略可以有效减少网络参数,使运算速度获得大幅提升。可以用MobileNet结构替换YOLO算法的骨干网络,以深度可分离卷积替换普通卷积提高深度64。同时,针对GPU运算模式制定加速

28、策略,能更加充分发挥深度可分离卷积的计算性能65。SSD算法将小卷积过滤器部署在特征图上,预测类别得分和目标框偏置,通过横纵比化检测框体的方式,使网络适应不同分辨率目标检测,将SSD网络中浅层和深层特征相融合,引入轻量化注意力机制,并结合无人机特点对特征图先验框尺寸和数量进行优化,以提高小目标检测能力66。借鉴SSD网络结构将MobileNet网络最后的平均池化层、全连接层以及Softmax层去掉后,再增加不同尺度预测特征图,能够较好地用于无人机识别67。部分研究同样根据需求用自建网络进行无人机识别。文献68在进行运动目标检测及其轨迹分析的基础上,将筛选后的目标送入利用ResNet结构自建的9

29、层轻量级卷积神经网络进行无人机识别,其准确率可达99.48%,但实时性较差。常用的无人机深度学习识别算法性能对比如表1所示。表1的数据是在GPU V100条件下,使用微软COCO数据集进行训练和验证所得。可知,以Faster RCNN为代表的二阶算法精度较高,特别是对小目标检测效果较好,在无人机识别中以简化网络结构,优化运算模式的改进为主,以提高实时性。一阶算法实时性 表1 常用的无人机深度学习识别算法性能对比 算法 参数量/M FLOPs/G mAP/%速度/fpsFaster RCNN 60.0 246.0 44.0 20 CenterNet 14.1 17.8 28.1 142 YOLO

30、v3 63.0 157.3 32.0 95 YOLOv5 21.2 49.0 45.2 122 YOLOv7 36.9 104.7 51.2 161 较好,主要通过加深网络结构增加检测精度,随着YOLO系列算法的不断改进,不仅运算速度越来越快,精度也大幅提高,已成为当前无人机识别的主流框架算法。2.3 无人机数据集构建 无人机识别算法需要使用大量的无人机图像数据进行训练,训练数据的质量直接影响算法的准确性。无人机数据集构建包含数据收集、扩增和处理等内容。当前无人机数据集主要有Real World69、Det-Fly70、MIDGARD71、Flying Objects72、Anti-UAV73

31、、DUT Anti-UAV74等,上述数据集包含了图片和视频两种形式,虽然数量巨大、内容丰富,但在完备性上仍然有所欠缺。现有研究文献大部分采用自建的无人机数据集对算法进行训练和验证。自建数据集除了自主拍摄、网络搜索外,还常使用已有无人机数据集和PASCAL VOC数据集75、微软COCO数据集76、ImageNet数据集77中的相关内容。数据内容除无人机外,常使用飞鸟、风筝等相似物体作为负样本加以区分。为丰富数据库内容,涵盖无人机在实际飞行过程中的所有特征,数据库运营方通常会对收集的无人机数据进行扩增,主要方式包括缩放和旋转两种。缩放可以模拟不同距离无人机的拍摄景象;旋转可以模拟无人机不同飞行

32、姿态的拍摄景象。图像处理主要包括去噪、图像增强、白化处理3项内容。去噪的目的是减少无用信息干扰,常采用中值滤波、高斯滤波和均值滤波等算法。图像增强的目的是进一步放大无人机特征。由于无人机目标较小,且经常处于复杂环境,需要进行图像增强,提高识别精度,常用方法有灰度变换、直方图均衡化、同态滤波器等。其中,灰度变换是将图像转化为灰度二值图,因为无人机本身颜色特征不明显,所以该方法应用得较多。白化处理是运用主成分分析法(Principal Component Analysis,简称PCA),降低数据集样本的相似度,减少数据冗余,加46 国防科技 2023 年第 3 期(总第 340 期)快神经网络学习

33、率。PCA能够计算数据主要成分,减少噪声干扰,降低数据维数,大量运用于无人机数据集构建27-28。3 无人机目标跟踪方法 在对无人机的监控过程中,如果检测到无人机的概率超过阈值,通常会继续运行跟踪算法。跟踪算法的目标是根据检测结果完成后续视频帧中目标位置的预测和外观模型的不断更新,输出带有搜索窗口的跟踪结果,同时获取位置、速度等相关运动参数。在无人机跟踪任务中,要求跟踪算法对弱小目标有很好的实时性、鲁棒性、准确性,常用算法有卡尔曼(Kalman)滤波算法78、时空上下文(Spatio-Temporal Context,简称STC)算法79、核相关滤波(Kernel Correlation Fi

34、lter,简称KCF)算法80、SiamFC算法81等。基于Kalman滤波算法的无人机跟踪。Kalman滤波器由预测和修正两部分构成,构建包含目标的位置和速度信息的状态方程,通过状态转移矩阵用于描述从当前时刻到下一时刻的状态转移关系,通过观测矩阵读取目标的位置和速度信息,并通过Kalman增益系数得到当前实际状态向量的观测修正值,校准误差协方差矩阵,实现对Kalman滤波器状态的更新。基于STC算法的无人机跟踪。STC算法的核心思想是时间和空间上下文的结合。首先,使用贝叶斯框架构建目标及其局部区域的时空关系模型,计算出特征的统计相关性。其次,结合时空关系和生物视觉关注特性计算新一帧图像的置信

35、图。最后,在当前帧图像中求解目标位置置信图。该算法的优点是实时性强,对弱小目标检测效果好;缺点是对于无人机距离变化导致的尺度变化较大,以及复杂环境下的跟踪效果较差。针对无人机距离变化导致的尺度多样问题,可以在STC算法的基础上增加一个尺度滤波器用于尺度估计15。针对复杂环境下无人机目标被遮挡的问题,可以假设目标运动过程属于线性系统,通过引入Kalman滤波技术,对跟踪过程中的目标状态信息进行预测和修正23,通过置信图波形判断跟踪情况,当置信图剧烈震 荡 时 判 定 为 丢 失 或 者 遮 挡,遮 挡 时 用Kalman滤波器估计下一时刻的目标状态,并将其作为新的目标位置替换原STC算法输出的目

36、标位置。基于KCF算法的无人机跟踪。KCF算法将跟踪问题抽象为一个线性回归模型的求解,通过循环矩阵对目标周围区域进行密集采样,训练回归响应器。利用循环矩阵的性质进行傅里叶变换,将分类器的训练过程转换到频域中进行计算,将矩阵的求逆转化为向量元素的点乘,极大提高了运算速度。此外,KCF算法还使用高斯核函数方法,将低维的非线性特征转化为高维的线性特征,从而实现对非线性特征目标的跟踪。该方法的缺点是:对于不同尺度的无人机需要设置多个尺度的循环矩阵采集样本训练,对速度的影响大;一旦无人机飞行速度快、形态变化较大时,均易跟踪丢失;无人机被严重遮挡时,会跟踪丢失。针对快速飞行无人机跟踪易丢失问题,可以将KF

37、C算法跟踪结果作为Kalman滤波的观测值,使用Kalman滤波估计无人机在下一时刻相对于当前的位移,然后使用当前帧的观测值加上下一帧位移预测值作为中心,在下一帧中使用KCF算法在此中心周围的填充像素(padding)中进行KCF跟踪12,20。基于SiamFC算法的无人机跟踪。SiamFC算法提出了孪生结构概念,该结构需要输入基准模板(手工标注)以及搜索候选区域(待跟踪无人机),通过学习两者相关性使得跟踪模板在搜索区域的实际位置上响应最大。孪生结构的目的是寻找每一帧中与第一帧基准模板最相似的区域,因此损失函数的设计和优化对跟踪效果影响起关键作用。该跟踪方法虽然精度较高,但对遮挡预测效果和实时

38、性均较差。为此,可以将MobileNet简化后替换嵌入SiamFC的类AlexNet特征提取网络中提高 杨辉跃,等:反无人机视觉检测与跟踪技术进展分析 47 速度67。同时,为进一步提高跟踪性能,可用MobileNetV2代替特征提取网络,以提高特征提取能力。引入GAT图注意力模型,加强目标与搜索区域的分辨能力。设计合理的局部和全局重检策略,提高目标丢失找回能力82。引入混合注意力机制,提升目标和背景特征提取能力,设计层级鉴别模块用于结果可靠度评估和模型更新83。4 无人机视觉检测跟踪难点分析 4.1 弱小目标识别准确性问题 当无人机与摄像机存在一定距离时,在捕获图像中仅占极少像素点,呈现出外

39、部轮廓不清晰、颜色纹理特征不突出等特点,为弱小目标。弱小目标包含有效信息少,识别装置容易受到强波干扰,信噪比较低,容易发生误检、漏检。针对提高弱小无人机目标的识别准确性问题。一是提高图像质量。使用更高分辨率的图像,提取待检测区域以排除无关干扰,利用超分辨率技术找回特征,通过高斯滤波去除随机噪声,提高信噪比。二是提高算法性能。可以通过提前在算法中引入注意力模块,在特征金字塔中增加浅层特征张量,提高算法对弱小目标的识别能力。三是利用时序信息。采用跟踪算法记录目标轨迹信息,结合轨迹与目标信息进行无人机识别判定。4.2 跟踪过程中的遮挡问题 无人机飞行轨迹复杂,容易被其他物体遮挡。在遮挡过程中,目标部

40、分特征消失,此时易因模型难匹配而跟踪失败。当目标被完全遮挡时,常规跟踪算法为及时检测目标需扩大搜索范围,但引入大量干扰物可能导致模型误判或者崩溃84。针对跟踪过程遮挡问题,可采取如下措施:一是提高样本质量,研究不同遮挡情况对无人机跟踪的影响,划分典型的遮挡场景,根据典型场景补充训练样本集;二是设计有效学习策略,充分利用无人机飞行动作和轨迹等先验时序特点信息,研究离线学习与在线学习相结合学习策略;三是制定更新策略,结合任务场景及算力配备,设计自适应的长短期模型更新策略,及时适应目标变化,防止目标丢失。4.3 算法实时性问题 为提高无人机检测准确性,许多研究采用提高图像像素、预处理图像、利用序信息

41、、预先判定候选区域、加深卷积网络深度等方法。这些方法需要大量的计算,会极大影响算法的实时性。虽然利用了跟踪方法进行改善,但总体计算量仍然巨大,导致在一般硬件设备上实时性差。针对实时性问题,除提升硬件外,还需研究综合运用以下方法。一是使用更加高效的结构,在简化算法网络的同时,保持一定的准确率,如MobileNet、GhostNet等。二是更加高效地利用硬件计算能力,针对GPU硬件访存带宽限制特点,优化算法减少低FLOPs、高数据读写 量 的 操 作,对 GPU 硬 件 友 好 的 算 法 有RepVGG、RegNet等。三是合理制定检测跟踪策略。视频每秒能够提供几十帧图像,每帧检测会消耗大量算力

42、。可以通过设计检测与跟踪的自适应切换机制,使处于检测状态时,间隔数帧检测也能够满足实时性要求,并在检测到无人机后切换至跟踪算法,以提高实时性。4.4 数据集收集标准难统一问题 无人机数据集收集标准统一主要有4点困难。一是随着技术发展,无人机的形状丰富多变,因此深度学习算法的准确识别和跟踪需要使用不同外形的无人机数据进行训练。虽然无人机应用广泛,但数据来源仍然匮乏,无人机外形难以收集全面。二是相较于其他目标而言,目标无人机在飞行动作和距离变化会呈现出不同的大小、形态,存在丰富的变化,无人机飞行状态难以收集全面。三是无人机检测和跟踪可以分为地对空和空对空两类,视角不同所捕获到的无人机飞行特征也不同

43、,部分视角数据来源较少,难以全面收集。四是背景的多样性对于提高无人机检测的泛化能力显得至关重要,而监控区域的背景复杂,且存在许多与无人机相似的特征,会造成多样的干扰,背48 国防科技 2023 年第 3 期(总第 340 期)景对无人机目标识别跟踪的干扰情况难以收集全面。科学制定无人机数据集收集标准,一是需要对无人机不同姿态的相似性进行研究,提出具有代表性的姿态种类;二是需要进一步研究环境对无人机识别的影响,划分典型监控场景类别;三是结合上述研究收集形成较为完备的无人机数据集,在应用中可结合任务情况进一步完善。4.5 机器视觉与其他技术有机融合问题 综合利用多种技术手段进行无人机检测跟踪能够达

44、到优势互补的效果。然而,不同技术采集到的特征信号不同,计算得到的信息内容也不同,存在多个无人机目标时难以将不同方法检测出的目标一一对应,容易出现误检、漏检问题。针对有机融合问题,一是要增强检测反馈信息的通用性,将结果用统一的格式进行表达;二是研究不同技术检测所得无人机的匹配算法,有效利用位置和特征信息进行准确匹配;三是优化无人机检测跟踪的工作模式,在保持系统流畅性的同时增加误检、漏检核验频率,做到及时纠正,最终反馈至客户端的信息达到实时准确。5 结语 反无人机技术研究是当前面临的迫切现实问题。文章梳理了当前反无人机视觉检测的主流方法。值得一提的是,反无人机视觉检测跟踪可以分为无人机目标检测、识

45、别、跟踪3步,随着卷积神经网络的发展,算法的速度和精度都有了较大提升,能够实现对图片全部像素的计算分析,因此当前研究通常省略了无人机目标检测步骤,直接将整张图片作为无人机目标的潜在区域。在此基础上,分析了当前仍存在的弱小目标识别、目标遮挡找回、算法实时性、数据集构建、多技术融合5方面技术难点,并针对性提出了未来研究方向建议,供相关研究参考。参考文献 1 董尚委,田志敏,田策,等.重要军事建筑对无人机的防护问题研究J.防护工程,2022,44(2):72-78.2 吴浩,徐婧,李刚.无人机探测与反制技术发展现状及建议J.飞航导弹,2020(9):89-95.3 FANG G,YI J X,WAN

46、 X R,et al.Experimental research of multistatic passive radar with a single antenna for drone detectionJ.IEEE Access,2018(6):33542-33551.4 BISIO I,GARIBOTTO C,LAVAGETTO F,et al.Unauthorized amateur UAV detection based on WiFi statistical fingerprint analysisJ.IEEE Communications Magazine,2018,56(4):

47、106-111.5 常先宇.基于声阵列的无人机检测及定位系统D.杭州:浙江大学,2019.6 薛猛,周学文,孔维亮.反无人机系统研究现状及关键技术分析J.飞航导弹,2021(5):52-56.7 LIPTON A J,FUJIYOSHI H,PATIL R S.Moving target classification and tracking from real-time videoC/Proceedings Fourth IEEE Workshop on Applications of Computer Vision.Princeton:IEEE,1998:8.8 CHENG Y H,WAN

48、G J.A motion image detection method based on the inter-frame difference methodJ.Applied Mechanics and Materials,2014(490):1283-1286.9 夏海英,何利平,黄思奇.基于时空分布的混合高斯背景建模改进方法J.计算机应用研究,2015,32(5):1546-1548.10 BARNICH O,DROOGENBROECK M V.ViBe:A powerful random technique to estimate the background in video sequ

49、encesC/2009 IEEE International Conference on Acoustics,Speech and Signal Processing.IEEE,2009:945-948.11 谢家阳,王行健,史治国,等.动态云台摄像机无人机检测与跟踪算法J.智能系统学报,2021,16(5):858-869.12 王元皓.基于深度学习的动态小目标检测追踪技术研究及系统实现D.西安:西安电子科技大学,2020.13 SERRA J,VINCENT L.An overview of morphological filteringJ.Circuits,Systems and Sig

50、nal Processing,1992,11(1):47-108.14 GRAHAM R L,YAO F F.Finding the convex hull of a simple polygonJ.Journal of Algorithms,1983,4(4):324-331.杨辉跃,等:反无人机视觉检测与跟踪技术进展分析 49 15 周光兵.反无人机系统中目标识别和跟踪算法研究D.青岛:中国石油大学(华东),2018.16 RUBLEE E,RABAUD V,KONOLIGE K,et al.ORB:An efficient alternative to SIFT or SURF C/20

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服