收藏 分销(赏)

面向水面无人艇的船舶舷号识别方法.pdf

上传人:自信****多点 文档编号:2459469 上传时间:2024-05-30 格式:PDF 页数:9 大小:9.57MB
下载 相关 举报
面向水面无人艇的船舶舷号识别方法.pdf_第1页
第1页 / 共9页
面向水面无人艇的船舶舷号识别方法.pdf_第2页
第2页 / 共9页
面向水面无人艇的船舶舷号识别方法.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、本文网址:http:/www.ship- J.中国舰船研究,2024,19(1):4654.ZHANG R R,ZHANG L,SU Y M.Detection and identification of ships hull number for unmanned surface vehicleJ.Chinese Journal of Ship Research,2024,19(1):4654(in Chinese).面向水面无人艇的船舶舷号识别方法扫码阅读全文张韧然,张磊*,苏玉民哈尔滨工程大学 船舶工程学院,黑龙江 哈尔滨 150001摘 要:目的目的针对水面船舶舷号检测问题,提出一种面

2、向水面无人艇的实时船舶舷号检测方法。方法方法基于原始的单阶段目标检测模型(YOLO),引入注意力机制,利用空间信息交互模块和分割注意力融合方法,提升神经网络对重要目标区域的敏感度。考虑先验知识对模型精度的影响,结合自适应锚框算法和正样本增强策略提高回归精度。针对深度神经网络(DNN)收敛困难的问题,改进损失函数,在保证网络收敛速度的同时提高神经网络训练的稳定性。最后,将改进的目标检查模型部署在无人艇上进行有效性验证。结果结果结果表明,所提算法在 3 级海情下能够准确识别船舶目标及其标志舷号,相比于原模型,改进后的 YOLO 算法在全类平均精度(mAP)方面提高了 14%,识别速度满足实时要求。

3、结论结论研究证明了所提舷号检测方法满足无人艇实时识别舷号任务的要求,并在复杂海洋环境中仍然具备识别能力。关键词:无人艇;舷号检测;可见光图像;YOLO 算法;改进方法中图分类号:U665.2文献标志码:ADOI:10.19693/j.issn.1673-3185.03124 Detection and identification of ships hull number for unmanned surface vehicleZHANG Renran,ZHANG Lei*,SU YuminCollege of Shipbuilding Engineering,Harbin Engineeri

4、ng University,Harbin 150001,ChinaAbstract:ObjectiveAiming at the problem of ship hull number recognition,this paper proposes a real-time ships hull number recognition method for unmanned surface vehicles(USVs).MethodsBased on aone-stage object detection model(e.g.YOLO),the attention mechanism is int

5、roduced to make the networkmore sensitive to the target area by the spatial information interaction module and divided attention method.Considering the effect of prior knowledge on accuracy,the adaptive anchor method and positive sample as-signment strategy are utilized to improve the accuracy of re

6、gression.Aiming to resolve the problem of slowconvergence at the beginning,the loss function is redesigned to speed up the convergence and enhance the sta-bility of the network in the training phase.Finally,the proposed method is deployed in a USV to validate theavailability of the recognition perfo

7、rmance.ResultsThe results shows that the proposed method canachieve the recognition of ships and hull numbers simultaneously under Sea State 3 conditions,and has a 14%improvement in mean average precision(mAP)compared with the original model,with the ability to performrecognition in real time.Conclu

8、sionThe results of this study indicate that the proposed method can be ap-plied to USVs to perform hull number recognition,even under complex ocean conditions.Key words:unmanned surface vehicles;hull number recognition;visible image;YOLO algorithm;im-proved method 收稿日期:20221001 修回日期:20230221 网络首发时间:

9、20230517 09:02基金项目:黑龙江省优秀青年基金资助项目(YQ2021E013);中央高校基本科研业务费专项资金资助项目(3072022YY0101)作者简介:张韧然,男,1994 年生,博士生。研究方向:水面无人艇感知。E-mail:张磊,男,1983 年生,博士,副教授。研究方向:海洋机器人系统仿真,智能控制,水面无人艇集群。E-mail:苏玉民,男,1960 年生,博士,教授。研究方向:水面无人艇,水下机器人。E-mail:*通信作者:张磊 第 19 卷 第 1 期中 国 舰 船 研 究Vol.19 No.12024 年 2 月Chinese Journal of Ship R

10、esearchFeb.20240 引言近年来,面对日益复杂的海洋作业任务,作为海洋智能机器人中重要一员的水面无人艇(以下简称“无人艇”),因其高灵活性、高自主性、高智能化的特点而在军民用领域发挥着重要作用1。对无人艇而言,良好的自主环境感知能力是满足其高自主性的必要条件。现阶段,典型环境感知方法一般通过无人艇搭载的光电吊舱、激光雷达、航海雷达等传感器获取环境中目标信息,并通过多模态信息融合方法获得目标种类、位置及运动状态。但是,激光雷达的作业范围相对较小,航海雷达仅能获取目标的位置及其运动信息。因此,利用光电设备采集的可见光图像获取目标外表特征成为环境感知的重要组成部分。作为船舶重要的身份标识

11、,舷号能够提供该船的基本信息。在执行任务时,由于能源限制和隐蔽性要求等,无人艇未搭载船舶自动识别系统(automatic identification system,AIS)。因此,基于可见光图像获得船舶舷号成为判定船舶身份的有效手段,这对诸如事故追溯、海面急救、目标统计等上游任务具有重的支撑意义2-4。目前,基于图像的舷号检测问题已经引起了学者的广泛关注。与其他水面目标检测任务相比,舷号检测的难点在于船舶舷号尺寸差距大以及无统一的印刷标准等。王星等5利用 SUSAN(small univalue segment assimilating nucleus)算子检测船舶图像中的角点,进一步提取出

12、舷号位置图像。然而,该方法受限于人工设计的提取器,泛化能力和鲁棒性较差。随着人工智能在各领域取得的巨大进步,深度学习(deep learning,DL)方法因其高鲁棒性的自主特征提取能力被应用于舷号检测。Huang 等6提出了一种结合深度神经网络和长短期记忆网络的船舶舷号检测方法以实现端到端训练。路云等7提出了结合基于 EAST(effi-cient and accurate scene text)检测算法8的文本位置检测和基于循环卷积神经网络(convolutionalrecurrent neural network,CRNN)的文本识别的双阶段识别船舶舷号解决方案。然而,EAST 侧重于单

13、词检测而非文本检测,并且其多方向检测会提高相似数字的识别误差,例如 6 和 9 等。鉴于此,Zhang 等9提出了一种基于全卷积神经网络(fully convolutional networks,FCN)的文本识别方法,并结合 SSD(single shot multibox detector)目标检测方法10完成了对船舶舷号的定位和识别,有效提高了检测精度。但上述方法都采用的是定位识别双阶段目标检测算法,其精度严重依赖于一阶段目标定位结果,在模型间的信息传递中易产生误差扩散而导致精度下降。此外,双阶段中的文本识别方法主要针对典型的平视、近距离拍摄场景,不适合无人艇的复杂工况。本文将提出一种面

14、向无人艇的基于 YOLO 算法的船舶舷号识别方法。该方法引入空间信息交互模块与分割注意力(divided attention)融合方法,以提高神经网络对重要目标区域的敏感度,并基于先验知识,通过优化预设锚框尺寸和正样本分配策略来提高网络的回归精度。然后,通过重建损失函数,在保证神经网络收敛速度的同时提高训练的稳定性。为了验证模型的可行性,本文基于无人艇搭载的光电吊舱建立场景丰富的船舶舷号数据集,利用该数据集训练检测模型并部署于无人艇上,以验证实时检测效果。1 船舶舷号特征分析舷号与车牌相似,是船舶重要的身份证明,如图 1 所示。通过船舶舷号可以获取船舶的基本信息,在保证海洋交通安全、港口调度指

15、挥等方面发挥着重要作用。但与车牌不同的是,船舶舷号无统一的印刷规则,且当船的姿态改变时,其在可见光图像中会发生几何形变。值得注意的是,在无人艇执行任务时,目标的姿态变化和两者之间的相对运动会为实时的舷号识别带来新的困难和挑战11-13。图 1不同船舶的舷号比较Fig.1 Comparison of hull number on different ships 从图 1 中可以看出,不同船舶的舷号在字体、颜色、字号以及位置等特征信息维度上并不完全统一,且船舶舷号会因自身观察角度与目标姿态的变化而导致形变,并不符合常规环境下的文本特点。因此,在自然环境下,基于文本的识别方法在确定船舶舷号位置并获得

16、检测结果方面存在困难。综上,无人艇感知的实时性要求和待检测目标舷号特征的不确定性为目标检测模型方法应用于舷号识别提供了可能性。第 1 期张韧然等:面向水面无人艇的船舶舷号识别方法472 基于目标检测的船舶舷号识别方法 2.1 基于深度学习的舷号识别模型结合上述研究背景,本文提出了一种面向无人艇的船舶舷号检测模型,该模型基于 YOLO 目标检测算法,通过引入注意力机制,利用空间信息交互模块与分割注意力融合方法来提高神经网络模型对重要区域的敏感度;基于先验知识以及结合自适应锚框算法和正样本增强策略来提高网络的回归精度,并重建损失函数来优化神经网络训练的稳定性。模型的训练流程如图 2 所示。结束训练

17、否是开始训练建立数据集反向传播更新模型计算损失函数Backbone提取特征信息YOLO网络模型自适应锚框注意力模块(空间信息交互Neck将特征信息转换为坐标、类别等信息Head预测生成位置和类别前向推理样本均衡迭代次数N?与注意力融合)图 2船舶舷号检测模型训练流程图Fig.2 Flow chart of training for the hull number recognition model 2.2 空间信息交互及注意力融合在实际应用场景中,因舷号尺度较小,相对于船舶本身属于小目标,在深度卷积过程中可能存在特征丢失的情况,同时基于数据驱动的深度神经网络(deep neural netwo

18、rks,DNN)模型一般需要大量的信息,从而带来因信息过载而导致小目标的检测精度下降的问题。因此,本文引入了注意力机制,基于多分支的空间信息交互及基于注意力分割的通道融合方法14,来提高神经网络对舷号的检测能力。X1,X2,.,XK图 3 所示为基于多分支的空间信息交互模块,通过空间位移操作实现信息交互。首先,将特征图按通道维度分为 K 个基数组(本文 K=3),每个基数组均分为 N 个通道数为 c 的特征图块(本文 N=4)。其中:第 1 部分的前两个特征图块在特征图宽度方向分别左右移动,后两个特征图块在特征图高度方向分别上下移动;第2 部分与第 1 部分的顺序相反,前两个特征图块在高度方向

19、分别上下移动,后两个特征图块在宽度方向分别左右移动;第 3 部分不做操作,保留原始信息。分组位移操作位移操作无操作K=3图 3空间信息交互模块Fig.3 The spatial information interaction module 因此,空间信息交互模块的输出结果为 3 组尺寸相同的特征图。在保证精度的情况下,为了不额外增加计算成本,本文通过分割注意力融合方法对空间信息交互模块得到的结果进行融合,获得与输入尺寸相同的融合结果。分割注意力融合方法的原理是基于跨通道方式融合特征图。K,N首先,对所有特征图块在维度上求和。a=Kk=1Nn=1Xk(1)a Rc式中,a 的维度为 c,。a然后

20、,基于多层感知机(multi-layer perceptron,MLP)生成通道权重。a=GELU(aW1)W2(2)GELUW1W2 a RKc式中:代表激活函数;和分别是两部分 MLP 的权重,得到结果。为了保证生成的注意力权重非负,在通道维度上利用归一化指数函数(Softmax)获得注意力权重:a=softmax(a)(3)将获得的注意力权重分割成对应的 K 个组,与原始的分支相乘后,在通道维度上相加,即得到与形状和输入相同的输出特征图,如式(4)所示。Xi,:=Kk=1Xki,:ak,:(4)Xki,:ak,:式中:表示第 K 组内的第 i 个特征图的值;为其对应的权重参数。空间不同位

21、置的信息交互基于空间位移操作48“无人船艇自主性技术”专辑第 19 卷完成,并结合基于分割注意力融合方法使神经网络关注更重要的目标区域,提高检测精度。其中,空间位移操作是无参的,并将像素点的感受野从单点变为十字形,如图 4 所示。(a)空间位移操作前感受野(b)空间位移操作后感受野图 4空间位移操作前后的感受野Fig.4 Receptive field before and after spatial displacement 2.3 自适应锚框传统预定义锚框是一组预设固定尺寸的先验框,其尺寸是根据COCO(common objects in context)数据集内15的目标聚类得到的。检测

22、舷号时,因需要同时抓取尺寸相差较大的舷号和船舶目标,故该预定义锚框不适用于船舶舷号检测。合适的初始锚框可在提高检测效率的同时避免因无法代表数据分布特点导致预测置信度下降的情况16。为了提高对不同尺度目标的枚举效果,本文结合K-means 聚类算法17和遗传算法18来优化初始锚框尺寸,流程如图 5 所示。因 K-means 聚类算法采用迭代法完成聚类,易受到噪声、边缘点、孤立点的影响,故采用结合遗传算法的途径予以优化。利用 K-means 聚类算法得到聚类后的锚框尺寸之后,使用遗传算法随机对得到的尺寸进行变异,并根据评价函数判断变异结果,保留适应度最高的变异结果作为最终预定义锚框尺寸。图 6(a

23、)所示为数据集中所有标注框数据,图中的横纵坐标分别为标注框宽高尺寸。为了避免输入图像尺寸不同对聚类结果产生影响,对其进行归一化处理。从图中可以看出,由于舷号和船舶的宽高比不同,数据分布并不集中统一。图 6(b)显示了默认锚框和优化后的对比结果。从图中可以很明显看出,优化后的结果(红色)比初始结果(绿色)更贴近真实的数据分布。相比于初始结果,结合聚类以及遗传算法得到结果的分布更加均匀。0.80.6归一化高度0.40.2000.20.4归一化宽度(a)标注框的宽高数据可视化(b)计算结果0.60.80.80.6归一化高度0.40.2000.20.4归一化宽度0.60.8初始结果优化结果图 6自适应

24、锚框算法计算结果Fig.6 Calculated results of adaptive anchor box algorithm 2.4 样本均衡方法在 YOLO 系列神经网络训练的过程中,会将图片划分为不同尺度的网格。针对不同尺寸目标,为每个网格预设 3 个尺寸的初始锚框,所有锚框会被分配给标注框,进而根据损失函数完成锚框分类和位置回归。具体过程是,以某个网格的预测结果与所有真实的目标作为输入计算交并比(intersection over union,IoU),根据结果对比将该目标分配给 IoU 最大的网格,即该网格包含的 3 个锚框视为正样本。但是针对船舶检测与舷号检测 否数据集中真实锚

25、框尺寸初始化 K 个聚类中心(9 个初始锚框尺寸)分配数据对象到距离最近的类中收敛或最大聚类结果最大迭代次数?计算种群适应度变异运算保留最优解开始结束更新聚类结果是是否遗传算法聚类算法迭代次数?图 5自适应锚框优化流程图Fig.5 Flow chart of adaptive anchor box optimization第 1 期张韧然等:面向水面无人艇的船舶舷号识别方法49任务,场景中存在的目标分布稀疏,这导致生成的锚框大部分并不包含目标,属于负样本。此外,上述方法中正样本与真实框是相互对应的,限制了正样本数量,导致含有目标的正样本数量远少于负样本,产生了样本不均衡问题,这在实际预测时会使

26、目标检测网络对负样本过拟合,预测偏向负样本,导致漏检问题产生。因此,本文通过调整生成正样本策略19来解决样本不均衡的问题。通过基于形状匹配的规则来代替基于最大IoU 的匹配规则。具体而言,若预测框与所有锚框的宽高比例不符合设定阈值范围,即说明该预测框质量较低,在训练过程中将之视为背景不参与计算。对于匹配到锚框的预测框,先计算其中心点相对网格左上和右下点的偏移,再将其同时分配给本身及周围距离最小的两个网格,并将这3 个网格对应的 9 个锚框视为正样本,并根据真实框来完成类别预测和位置回归,如图 7 所示。图 7正样本分配策略Fig.7 Illustration of positive sampl

27、e assignment strategy 图 7 中,蓝色虚线框为预测框,红点为预测框中心点,绿色网格为原始方法中的正样本,即一个预测框仅将其中一个网格产生的锚框视为正样本。为保证样本均衡,本文中将靠近预测框中心的两个网格补充为正样本。相比于原始方法,本文所提方法能够提供 3 倍的正样本数量。此外,基于形状匹配的规则可以结合检测模型中的卷积模块所具有的平移不变性,在平衡样本的基础上提高模型对同一目标不同尺寸的泛化能力。2.5 损失函数LclsLbboxLobjYOLO 系列的损失函数由 3 个部分组成,包括分类损失、定位损失以及置信度损失。在训练迭代过程中,分别在 3 种尺度的特征图上计算损

28、失,大尺寸特征图尺寸较大,具备更多细节信息,多用于检测小尺寸目标;小尺寸特征图感受野更大,蕴含更丰富的语义信息,多用来检测大尺寸目标。对于舷号检测问题,在计算定位损失时可能会因其尺寸较小导致微小误差扩大,从而在收敛时产生震荡现象而无法收敛到最优解,所以定位损失计算方法对检测模型效果尤为重要。LbboxBGT在计算定位损失时,一般采用的损失函数为 CIoU(complete intersection over unit),该算法同时考虑回归框宽高比例,以及真实框与预测框中心间的距离,但并未考虑到真实框与预测框间不匹配的方向,故可能会导致模型收敛较慢且在训练过程中无法保证稳定收敛,产生更差的训练结

29、果。本文考虑到框间角度不同带来的影响,采用 SIoU(splicing intersection over unit)算法计算回归损失20。图 8 表示计算预测框 B 与真实框两者间的损失示意图,具体公式如式(5)和式(6)所示。BGTBcwchcwch图 8SIoU 计算示意图Fig.8 Illustration of SIoU algorithms =(1ex)+(1ey)(5)x=(cwcw)2,y=(chch)2(6)x,ycw,chcw,ch式中:代表引入角度因素的距离损失;为中间参数;代表两框中心分别在宽、高方向上的距离;分别代表两框的外接矩形的宽和高,如图 7 所示;代表角度因素

30、,计算公式为=1+2sin2(4)(7)式中,代表两个框之间的夹角,如图 8 所示。wt形状损失通过两框之间的宽或长之差和两者中宽或长最大值之比来计算。=t=w,h(1ewt)ww=wwgtmax(w,wgt)wh=hhgtmax(h,hgt)(8)ww和wh式中:为中间参数;是可调变量,代表形50“无人船艇自主性技术”专辑第 19 卷wgthgt状所占的比重,根据经验一般取为 4;和分别代表真值框的宽和高。最终,计算公式如下所示:Lbbox=1IoU+2(9)通过真值框与预测框的直接重叠区域、距离和长宽比及角度问题来计算损失。相比其他算法,该函数增加了角度损失来提高回归速度和精度。3 舷号目

31、标识别结果分析 3.1 数据集验证 3.1.1 数据集构建验证基于数据驱动的 DNN 算法性能一般在公开的大型数据集上完成,然而现阶段还没有可靠的大型舷号数据集可供验证,仅有的体量较小的数据集来源是港口固定安装的摄像头。相比于固定摄像头,无人艇的视频视角较低,且高速运动中易出现图像失稳,并更容易受到雨雪天气影响,因此这些数据集无法直接应用在无人艇领域。为了获取更加真实可靠的数据,本文利用无人艇搭载的光电吊舱设备,在南海、渤海等海域模拟真实场景采集数据。试验用无人艇平台如图 9 所示,航海雷达、光电吊舱、感知计算机构成船端的感知系统。基于航海雷达给出的目标指引,光电吊舱摄像头追踪至对应位置。艇载

32、感知计算机对视场内存在的目标进行检测并返回波门,指引光电吊舱持续追踪目标。无人艇根据目标位置信息可保持对目标艇多方位多角度的持续跟踪,获取所需要的水面数据。在试验平台的硬件限制下,为构建场景更加丰富的数据集来验证算法鲁棒性及可扩展性,本文除在目标船上布置固定的数字标志外,还安装了可变换不同数字的 LED(light emitting diode)显示板来模拟船舶舷号。通过变化不同颜色的数字以及从不同角度采样,以此来提高数据集的场景丰富度,如图 10 所示。构成数据集的图像是通过无人艇搭载的光电吊舱设备采集的,经过人工滤除去掉重复及低质量图像,最终建立的数据集包括5 011 张图像,14 200

33、 个标注目标。为了验证模型的鲁棒性,数据集包含多种目标船舶以及不同位置、不同外观特征的特殊标记。图 10部分数据集示例图像Fig.10 Sample images selected from dataset 为了增加目标检测模型的泛化能力,一般在训练神经网络前进行数据增强,常用方法包括缩放、平移、旋转、色彩变化等。由于无人艇工作环境复杂,本文结合缩放、平移、色彩变化以及马赛克数据增强技术21来增加数据的多样性。为了避免数字间存在的对称性导致的识别精度下降,本文并未使用翻转的数据增强方式。马赛克数据增强方法对数据集内随机 4 张图片进行随机裁剪、缩放后,再随机排列拼接成一张图片。若存在小图片或空

34、白部分,则以灰色补全保证尺寸与原始输入尺寸相同,效果如图11 所示。图 11图像数据增强效果Fig.11 Recognition effect of images through data augmentation 3.1.2 实验环境及训练参数本模型训练与验证环境为 Intel(R)Core(TM)航海雷达光电吊舱图 9试验用无人艇平台Fig.9 Image of testing USV第 1 期张韧然等:面向水面无人艇的船舶舷号识别方法51i5-9600K3.7 GHz,显卡选用的是 NVIDIA GeForceRTX2080Ti,Ubuntu 20.04 操作系统,16 GB 内存,代码

35、基于 Pytorch 深度学习框架。训练参数为:改进后神经网络共包含 278 层,优化器采用随机梯度下降算法(stochastic parallel gradient descent al-gorithm,SPGD),图像分辨率为 416416,批量大小设置为 16,初始学习率设置为 0.01。每次实验共训练 300 次,并在训练过程中基于余弦退火策略调整学习率以保证更好的收敛效果。3.1.3 实验结果分析采用 3.1.1 节建立的数据集验证所提出针对网络的改进方法的可行性及船舶舷号检测效果。训练过程中各指标变化如图12 所示。其中,图12(a)为训练过程中损失值变化,图 12(b)和图 10

36、(c)分别为准确率曲线和召回率曲线,图 12(d)为全类平均精度(mAP)指标22收敛曲线。迭代完成后的具体精度如表 1 所示。从图 12(a)可知,本文算法在训练过程中损失值收敛速度与原算法相近但更加稳定,损失更小。从图 12(b)可知,本文算法具有更高的准确率。从图 12(c)中可知,本文算法的召回率明显高于原算法,说明本文漏检率更低,对小尺寸的舷号更加敏感。从图 12(d)可知,本文提出的方法相比于原始 YOLO 算法具有更高的检测精度。由表 1 的定量结果可以看出,与原始方法相比,改进方法的准确率提高了 4%,召回率提高了 14%,全类平均精度提高了 14%。此外,本文对模型的检测时间

37、进行了统计,结果表明,平均每帧检测时间为 6.3 ms,在艇载的光电吊舱每秒 30 帧的视频流输入下能够做到实时检测。3.2 实船验证为验证所提改进方法(模型)在无人艇平台上应用的可行性,将其部署在图 9 所示的无人艇平台上,图 13 所示为感知系统工作界面。为定量说明感知系统能力,研究团队在南海海域进行了现场测试,3 级海情下被测船距离无人艇超过 4 km,二者以 10 kn 的巡航速度相向航行,无人艇识别到目标船舶后,从侧方避让目标船并绕行至其后方,待稳定跟踪后给出舷号识别结果。其中,显示舷号的 LED 显示板(1.5 m1.5 m)被布置在被测船(长 10 m)中心位置,按照固定时间间隔

38、变换显示内容。实验结果表明,无人船可在 500 m 内稳定识别船舶和舷号,500 m 处于边界状态,识别不稳定,超过 600 m 后仅能识别船舶,3 km 外无返回结果。上述测试数据说明该方法能够实时给出正确的舷号检测结果,且模型大小满足部署在无人艇的要求。此外,在出现运动模糊、逆光、水雾遮挡、无人艇姿态倾斜等复杂工况时,无人艇上部署的模型仍然可以正确识别,从而证明了本文改进的算法具有高鲁棒性,适用于复杂多变的水面环境,如图 14 所示。0.140.120.100.080.06损失值0.040.020050100150训练次数(a)损失值曲线2002503001.00.60.70.80.90.

39、50.40.3准确率0.20.10050100150训练次数(b)准确率曲线2002503001.00.60.70.80.90.50.40.3召回率0.20.10050100150训练次数(c)召回率曲线2002503000.80.60.70.50.40.3全类平均精度0.20.10050100150训练次数(d)全类平均精度曲线200250300原始 YOLO 算法改进 YOLO 算法原始 YOLO 算法改进 YOLO 算法原始 YOLO 算法改进 YOLO 算法原始 YOLO 算法改进 YOLO 算法图 12评价指标曲线Fig.12 Curves of evaluation index 表

40、 1 用于舷号识别的原始算法与本文改进的方法检测效果对比Table 1 Effects comparison of hull number recognition by theoriginal and improved algorithms检测算法准确率召回率全类平均精度原始YOLO0.9470.8050.551改进YOLO0.9830.9490.69352“无人船艇自主性技术”专辑第 19 卷图 13感知系统工作界面Fig.13 User interface of sensing system (d)无人艇姿态倾斜(c)水雾遮挡(b)强光(a)运动模糊图 14在复杂工况下的识别结果Fig.1

41、4 Effects of identification under complex working conditions 4 结语本文充分分析了船舶舷号的一般特点,提出基于 YOLO 模型实时检测船舶舷号,并从网络结构、初始锚框设计、样本均衡以及损失函数这4 个方面改进 YOLO 模型。实验结果表明,所提模型相比于原有模型在全类平均精度方面提高了 14%,有效解决了在复杂环境中无人艇视角下的船舶舷号识别问题。现场验证结果表明,改进后的算法在画面图像分辨率为 1 080 PPI 的条件下,可在半径 0.5 km 范围内实现对尺寸为 1.5 m 的舷号准确识别和定位,并且在 3 km 范围内能够精

42、确识别船长 10 m 的运动中的船舶。此外,该模型具有良好的鲁棒性,对水面复杂环境的影响并不敏感。本文研究证明了所提单模型船舶舷号识别方法在无人艇识别舷号的适用性。该成果可应用于无人艇执行诸如事故追溯、海面急救、目标统计等任务,并可移植到无人机、无人潜器等无人系统,对于军民用领域都具有重要意义。参考文献:王耀南,安果维,王传成,等.智能无人系统技术应用与发展趋势 J.中国舰船研究,2022,17(5):118.WANG Y N,AN G W,WANG C C,et al.Techno-logy application and development trend of intelligent u

43、n-manned systemJ.Chinese Journal of Ship Research,2022,17(5):118(in Chinese).1DOBREF V,POPA I,POPOV P,et al.Unmanned sur-face vessel for marine data acquisitionJ.IOP Confer-ence Series:Earth and Environmental Science ,2018,172(1):012034.2YAN R,PANG S,SUN H,et al.Development and mis-sions of unmanned

44、 surface vehicleJ.Journal of Mar-ine Science and Application,2010,9(4):451457.3KUROWSKI M,THAL J,DAMERIUS R,et al.Auto-mated survey in very shallow water using an unmannedsurface vehicleJ.IFAC-PapersOnLine,2019,52(21):146151.4王星,邓小炼.SUSAN 算子角点提取在船舶舷号定位中的应用 J.绿色科技,2015(6):292294.WANG X,DENG,X D.Appli

45、cation of SUSAN operat-or corner extraction in ship identificationJ.GreenTechnology,2015(6):292294(in Chinese).5HUANG S,XU H,XIA X,et al.End-to-end vesselplate number detection and recognition using deep con-volutional neural networks and LSTMsC/Proceedingsof the 11th International Symposium on Comp

46、utationalIntelligence and Design (ISCID).Hangzhou,China:IEEE,2018,1:195199.6路云,胡杰.基于深度学习的船舶舷号检测与识别 J.电脑知识与技术,2021,17(11):178180.LU Y,HU J.Detection and identification of ships hullnumber based on deep learningJ.Computer Knowledgeand Technology,2021,17(11):178180(in Chinese).7ZHOU X,YAO C,WEN H,et al

47、.East:an efficient andaccurate scene text detectorC/Proceedings of the IEEEconference on Computer Vision and Pattern Recognition.Honolulu,HI,USA:IEEE,2017:55515560.8第 1 期张韧然等:面向水面无人艇的船舶舷号识别方法53ZHANG W S,SUN H Y,ZHOU J H,et al.Fully con-volutional network based ship plate recognitionC/Pro-ceedings of

48、 the 2018 IEEE International Conference onSystems,Man,and Cybernetics (SMC).Miyazaki,Ja-pan:IEEE,2018:18031808.9LIU W,ANGUELOV D,ERHAN D,et al.SSD:singleshot multibox detectorC/Proceedings of the EuropeanConference on Computer Vision.Cham Switzerland:Springer,2016:2137.10HYLA T,WAWRZYNIAK N.Identifi

49、cation of vesselson inland waters using low-quality video streamsC/Proceedings of the 54th Hawaii International Confer-ence on System Sciences.Hawaii,USA:s.n.,2021.11严荣慧,谢海成,花敏恒,等.基于运动与表象特征的广域船舶目标识别方法 J.中国舰船研究,2022,17(1):227234.YAN R H,XIE H C,HUA M H,et al.Wide-area shiptarget recognition method ba

50、sed on motion and appear-ance featuresJ.Chinese Journal of Ship Research,2022,17(1):227234(in Chinese).12ZHANG R R,SU Y M,LI Y F,et al.Infrared and vis-ible image fusion methods for unmanned surface ves-sels with marine applicationsJ.Journal of Marine Sci-ence and Engineering,2022,10(5):588.13YU T,L

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服