收藏 分销(赏)

海上布防任务中无人艇对可疑目标的驱逐方法研究.pdf

上传人:自信****多点 文档编号:1678118 上传时间:2024-05-07 格式:PDF 页数:10 大小:1.06MB
下载 相关 举报
海上布防任务中无人艇对可疑目标的驱逐方法研究.pdf_第1页
第1页 / 共10页
海上布防任务中无人艇对可疑目标的驱逐方法研究.pdf_第2页
第2页 / 共10页
海上布防任务中无人艇对可疑目标的驱逐方法研究.pdf_第3页
第3页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第6卷 第4期2023年8月无人系统技术Unmanned Systems TechnologyVol.6 No.4August 2023海上布防任务中无人艇对可疑目标的驱逐方法研究鲁宇琦,魏长赟*(河海大学机电工程学院,常州213022)摘要:海上无人船在海洋运输、环境调查、情报搜集等领域得到了日益广泛的应用。目前针对海上无人船的研究主要集中在目标跟踪、追逐避碰等问题,但布防任务中的驱逐任务有着更高要求,既要驱逐可疑船只远离保护目标,又要能够预测可疑船只运动意图,从而提前进行拦截,这给无人船的自主决策带来了挑战。针对上述问题,提出了对抗环境下海上无人船对可疑目标的驱逐方法。建立了基于深度强化学

2、习的策略梯度优化算法框架;设计了意图预测模型及封堵策略,实现无人船的提前拦截,并证明了该策略的最优性;提出基于专家经验的矫正纠偏策略,降低了智能体早期的盲目探索时间,加快智能体的训练速度,并证明了专家动作序列的单值性;搭建了基于gym的仿真环境,并在仿真环境中验证了方法的有效性。研究结果表明,提出的驱逐方法能够使无人船在速度不占优势的情况下仍能完成对可疑目标的驱逐,为海上无人船在对抗性环境中执行复杂任务提供了一种技术参考。关键词:海上无人船;深度强化学习;对抗性环境;策略梯度算法;意图预测;封堵策略;专家经验中图分类号:TP273+.2 文献标识码:A 文章编号:2096-5915(2023)

3、04-051-10DOI:10.19942/j.issn.2096-5915.2023.04.37Expulsion of Suspicious Target by Unmanned Surface Vessels for Maritime Deployment MissionsLU Yuqi,WEI Changyun*(College of Mechanical and Electrical Engineering,Hohai University,Changzhou 213022,China)Abstract:Unmanned surface vessels(USVs)have been

4、widely used in the fields of marine transportation,environment survey and information collection.The current research on USVs mainly focuses on target tracking and collision avoidance,and there are higher requirements for the eviction task in the deployment task.The 收稿日期:2023-02-24;修回日期:2023-04-20基金

5、项目:国家自然科学基金(61703138);中央高校基本科研业务费项目(B200202224)作者简介:鲁宇琦,硕士研究生。通讯作者:魏长赟,博士,副教授。引用格式:鲁宇琦,魏长赟.海上布防任务中无人艇对可疑目标的驱逐方法研究 J.无人系统技术,2023,6(4):51-60.Lu Y Q,Wei C Y.Expulsion of Suspicious Target by Unmanned Surface Vessels forMaritime Deployment Missions J.Unmanned Systems Technology,2023,6(4):51-60.第 6 卷无人系统

6、技术USVs are required to not only expel suspicious targets away from a protection area,but also to predict the motion intention of the suspicious targets so as to intercept them in advance,which brings challenges to the autonomous decision making of USVs.To address this problem,we present an approach

7、of deployment and expulsion of suspicious targets by USV in adversarial environments,and establish a DRL based framework for strategy gradient optimization.In order for the USV to intercept earlier by predicting the intention of suspicious targets,we design an intention prediction model and blocking

8、 strategy,and also prove the optimality of this strategy.A correction strategy based on expert experience is proposed to accelerate the training speed of the agents,and the single-valuedness of the expert action sequence has also been proved.A simulation environment is built based on gym,and the eff

9、ectiveness of the method was verified in the simulation environment.The results show that the proposed expulsion method can enable the USV to complete the expulsion of suspicious targets without speed advantage,and it provides a technical reference for USVs to perform complex tasks in adversarial en

10、vironments.Key words:Unmanned Surface Vessel;Deep Reinforcement Learning;Adversarial Environment;Strategy Gradient Algorithm;Intention Prediction;Blocking Strategy;Expert Experience1 引 言 海上无人船(Unmanned Surface Vessel,USV)作为一种海洋无人智能运载平台,具有使用灵活、泛用性好、可执行危险任务等显著特点,其在各种海洋作业中的运用愈加广泛,比如特别依赖长期连续性数据的海洋环境监测,U

11、SV因其长期性和持久性在海洋环境监测方面发挥越来越重要的作用1;再比如航母护航舰队,航母进行远洋作业时需要护航舰队执行任务,但远洋作业未知且危险,USV即可替代人类执行危险任务,在海上风电场巡逻、岛屿警戒、反雷反潜艇等军事领域也有USV的应用。因此对USV行动方法的研究受到国内外学者的广泛关注。对USV行动方式最基础的研究则是对其航行规划和导航的研究。全局路径规划能够解决路径到达和路径覆盖两个问题。传统的全局路径规划方法有A*算法、D*算法、遗传算法2-3、蚁群算法4、粒子群寻优算法5等。Chen等6提出了一种改进的蚁群优化算法,通过一种新的信息素更新规则,提高了传统蚁群算法的收敛性,减少局部

12、最优的问题,并且与人工势场法相结合,使得USV能够在动态环境下获得最优的路径规划,但是该算法是基于网格图的设计,实用性较低。全局路径规划适用于静态环境的路径规划,其实用性较小,更有实用价值的是局部路径规划。局部路径规划方法有基于启发式算法的路径规划、人工势场法7-8、深度强化学习相关算法等。Shao等9提出了一种用于规划无人机编队的改进粒子群算法。通过引入一种基于混沌的映射方法来改善粒子群的初始分布,然后将速度和最大速度系数设计为自适应线性变系数,用以适应优化过程,提高了解的最优性,此外还加入了将不重要的粒子替换为重要的粒子的突变策略,加快了算法的收敛。学者们对路径规划进行了大量研究,但是在对

13、抗性的驱逐方法方面研究较少10。无论是航母护航,还是反雷反潜艇等军事作业,需要驱逐的对象并不是静态和低智能的。Lee等11构建了一种多潜艇防御追击的目标分配和路径规划框架,提出使用PNG定律进行目标分配,利用Dubins路径处理防御追击时的避障问题,其防御追击的目标会主动入侵,但是该环境中入侵者的入侵路径是固定的,并不会对护卫潜艇的逼近作出反应。因此构建一种动态强对抗的环境,其中的可疑目标移动速度快、转向灵敏、综合性能比USV更好,并且会主动、不间断地对布防目标进行进攻,同时会对USV的防御动作做出反馈;在这样的强对抗背景下对USV进行训练,并实现在动态环境中USV对可疑目标精准快速驱逐的算法

14、,对于具体的海上布防任务来说具有重要意义。52第 4 期鲁宇琦等:海上布防任务中无人艇对可疑目标的驱逐方法研究对此本文提出一种基于深度强化学习(Deep Reinforcement Learning,DRL)的布防驱逐算法,并引入改进人工势场法智能化可疑目标的进攻路径,使其进攻性更强且更难以被驱逐,提高了算法的实用性。同时搭建了策略梯度算法学习模型,并在gym中构建仿真环境进行训练,成功验证了驱逐方法的可行性。2 问题描述 海上布防任务,是指利用海上军事力量,对某个有价值的目标比如航母、岛屿等进行分布防御,封锁控制。在确定布防目标后,对封锁范围内的任何可疑目标进行驱逐是布防任务非常重要的一环。

15、虽然USV集群协作可以更有效地执行任务12,但是USV海上集群决策是极其具有挑战性的13。原因有以下几点:一是因为集中式决策需要一个汇总信息的中央处理器,同时与每个USV进行信息交互,而海上通信极易受到环境干扰,存在较高延迟,信息滞后效应会极大影响决策;二是因为集群决策寻找全局最优解,但是联合行动时状态空间及动作空间成指数增长,难以找到最优解,且该解扩展性差无法转移至其他类似环境。因此本文以深度强化学习模型为基础,提出了USV集群驱逐任务模型,USV配有雷达,能够以自身为中心探测可疑目标位置,并将其坐标进行转化处理,通过策略学习实现对可疑目标的驱逐作业。具体模型如图1所示。图中中心点为布防目标

16、,以布防目标为中心,半径为R的圆形区域为驱逐域,m个可疑目标(红色锥形目标)随机在驱逐域外一点生成并进行进攻,分别记为(T1,T2,Tm),相对应有m个USV(蓝色船),对应记为(G1,G2,Gm)从布防目标点出发进行驱逐作业。USV的通信范围用半径为RG的绿色圆圈表示,由于海上通信条件受限,USV无法与范围之外的友军进行信息交互,同时 USV 可以对正前半径为Ra、角度为a的扇形区域攻击,其攻击范围的大小决定了 USV 接近可疑目标时,可疑目标的逃逸距离dflee。防守船的最终目标为将可疑目标成功驱逐出驱逐域。将每个可疑目标与布防目标之间的距离定义为(D1,D2,Dm),则 该模型任务目标可

17、以定义为i (1,m),Di R(1)可疑目标遵循人工势场法快速逼近布防目标,其中布防目标对其有引力生成引力场,USV对其有斥力生成斥力场,综合势力场得到梯度下降最快的方向,这使得可疑目标每时每刻都能以最快的方向逼近布防目标,同时保证了可疑目标不会被 USV 贴近。此外,USV 对其产生的斥力也是USV能够将可疑目标驱逐出驱逐域的原动力。但是在此设置下,若存在多个USV,每个USV都会对可疑目标产生斥力,将会极大影响可疑目标对布防目标的进攻,同时对USV的学习产生严重干扰,这将导致USV无法学习到好的驱逐策略,因此本文主要研究单个可疑目标及与其对应USV的驱逐任务,而USV之间的通信则在本文中

18、不过多考虑。对于每个可疑目标Ti及其对应的USVGi,其驱逐模型如图2所示。图中为USVGi的艏向角,USV在水面运动速度不可突变,因此USV运动过程是艏向角连续变化的过程,需要尽快指向可疑目标以快速逼近驱逐目标。为可疑目标相对USV的方位角,与相对USV的距离共同构成可疑目标的极坐标位置信息,其计算公式为图1USV集群驱逐任务模型Fig.1Expulsion model of Swarm USV53第 6 卷无人系统技术 =x2+y2=arctan()y/x(2)式中,(x,y)为可疑目标在USV以自身为原点的笛卡尔坐标系中的二维坐标值。三者共同构成了驱逐任务模型的状态信息St(,)。USV

19、的动作则由布防驱逐算法根据状态信息训练得出,以保证能够以最优的策略实现驱逐,具体算法模型将在后续进一步介绍。3 可疑目标驱逐方法 传统的驱逐对抗设计中只考虑了如何让USV学会逼近可疑目标,将接触或是接近到一定距离设置为成功条件,同时对于可疑目标的运动设置是极其简单的。但对实际的布防任务而言,可疑目标是迅速并且智能的,如图2所示,如果USV只是不断逼近可疑目标,可疑目标会在USV接近时主动进行回避,尤其是当可疑目标移动更快时,更易绕开USV的拦截与驱逐。因此需要对传统的跟踪追逐算法进行改进以实现对可疑目标的驱逐。3.1基于DRL的驱逐方法框架DRL是一种将深度学习(Deep Learning,D

20、L)整 合 信 息 的 能 力 和 强 化 学 习(Reinforcement Learning,RL)决策能力相结合的方法。随着深度强化学习在围棋中的突破,证明了深度强化学习能够解决现实问题,使其在更多无人智能领域获得关注。马尔科夫决策过程(Markov Decision Process,MDP)是强化学习的理论基础。智能体获得当前环境的状态值st,然后选择一个动作值at,环境状态转移至下一状态st+1,同时环境会给出一个收益rt+1。此后不断重复上述过程直到终局状态。DRL的算法已经提出了很多种,深度Q学习网络(Deep Q-learning Net,DQN)14解决了当状态空间过于复杂和

21、高维时穷举不可实现的问题,并在Atari2600游戏中有着不俗的成绩;随后针对DQN只能在离散空间中使用的缺陷,提出的深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)15使DRL成功在连续环境中得到应用,并在Atari2600游戏中完胜DQN;还有诸如 异 步 优 势 演 员 评 论 家 网 络(Asynchronous Advantage Actor-Critic,A3C)16-17、近似策略梯度优化(Proximal Policy Optimization,PPO)18等算法均在不同方面进行了优化,也取得了较好的成果。鉴于本文难题的特

22、点,选择将能够解决连续控制性问题的DDPG算法作为基础算法;针对本文对抗性环境中的奖励稀疏(Sparse Reward,SR)19问题设计了其奖励函数;针对跟踪追逐算法将可疑目标当前位置作为目标点导致USV容易被绕开的问题,提出了一种意图预测及封堵策略;针对DDPG在训练开始时需要大量试错迭代学习的冷启动(Cold Start,CS)问题,设计了一种专家经验矫正纠偏策略对模型进行预训练,加快训练速度。整体算法框架如图3所示。3.2驱逐任务的奖励函数传统跟踪追逐任务的奖励函数设计多为步进惩罚加上成功的奖励值,步进惩罚用于督促智能体选取更快的路径、更少的步数完成任务,成功的奖励值则用于智能体不断更

23、新学习。但是对于本文的对抗性驱逐环境,可疑目标的运动规则是固定的人工势场法,它会遵循势场梯度以最快的路径逼近布防目标,当USV靠近时会根据势场变化迅速远离USV。并且在环境设计中可疑目标是灵活的(速度、方向可以突变),这保证了它永远不会被USV追上。而USV在学习过程中完全随机探索,其能成功将可疑目标驱逐出驱逐域的概率是极低的。这将直接导致SR问题,图2单个可疑目标及与其对应USV的驱逐任务模型Fig.2Expulsion model of UAV for a single suspicious target54第 4 期鲁宇琦等:海上布防任务中无人艇对可疑目标的驱逐方法研究USV将学习缓慢甚

24、至无法学习。因此为了加快智能体的训练,设计奖励函数,并稠化奖励值,在训练过程中给予USV更多的奖励,利于其学习,为此,将奖励函数定义为r=a r+b rT+c rGT(3)式中,r为总奖励,r为夹角奖励,rT为可疑目标位置奖励,rGT为驱逐距离奖励。a,b,c为每个奖励的权重,符合a+b+c=1。夹角奖励r与有关,定义为USV艏向角与可疑目标相对USV方位角差值的绝对值。在 USV 运动过程中,希望尽量小,这意味着USV运动的方向是指向可疑目标,会不断逼近可疑目标的位置,便于驱逐任务的执行。因此,越小则r越大。可疑目标位置奖励rT与可疑目标相对布防目标距离dT的变化有关。在USV运动过程中,希

25、望dT越来越大,这意味着可疑目标在远离布防目标,当dT R时则驱逐成功,因此dT增大则rT为正,dT减小则rT为负。但是考虑到在环境运行初期,USV还未接近可疑目标,此时可疑目标并不会因USV的接近而进行避让,因此dT在此时是单调减小的,这将导致在初期的位置奖励rT是不合理的,并不能有效反映USV此刻动作的好坏。因此对rT加入一个约束,当dGT dflee时,b 0,其中dGT为USV相对可疑目标的距离。驱逐距离奖励rGT与USV相对可疑目标的距离的变化有关。在USV运动过程中,希望尽快接近可疑目标,因此dGT减小则rGT为正,dGT增大则rGT为负。与rT相反,在环境运行中后期,由于USV与

26、可疑目标会在dGT=dflee附近时刻进行动态博弈,此时的rGT是不合理的。因此也对rGT添加一个约束,当dGT 1.1 dflee时,c 0。3.3意图预测方法及封堵策略对于驱逐任务来说,提出一个假设:可疑目标不能直接越过USV进攻布防目标,当USV接近可疑目标时,可疑目标需采取避让动作远离USV,也意味着远离布防目标,如图4所示。=0 dGO 0 t,dTO 0(5)但是,传统的算法设计一般是向可疑目标的当前位置接近,这将导致可疑目标有机会绕开USV,如图2所示。为防止可疑目标绕开 USV 导致无法驱逐,引入一种意图预测方法和封堵策略(Intention Predict and Block

27、ing Policy,IPBP),通过不断改变USV的目标点防止在驱逐过程中USV被可疑目标绕开导致驱逐失败。在USV接近可疑目标前使用意图预测方法,在USV接近可疑目标后使用封堵策略。分两种情况进行不同设计,将可疑目标的逃逸距离记为dflee。USV接近可疑目标前(dGT dflee):对于可疑目标而言,USV 还未接近时,USV 对其并无威胁,因此可疑目标不会发生避让动作,其动作单调向布防目标接近。因此对于t时刻的可疑目标而言,通 过 记 录 其 前 几 个 时 刻 的 位 置 序 列 即(t-mt-2,t-1,t)和(t-mt-2,t-1,t),其中,为可疑目标相对USV的位置信息,表征

28、序列长度。然后对得到的序列进行线性回归计算,即可对可疑目标进行意图预测,得到t+1,t+2时刻可疑目标的位置信息,将预测出的位置信息作为USV的目标点。USV接近可疑目标后(dGT dG1O。显然可疑目标T进攻O的最快路径为T1O连线。假设经过时间t,USVG到达P1点,此时若T选择T1O路线,那么T同时到达P1点,此时满足dTtO=dGtO,T没有越过G,USV封堵成功。如果T选择其他路线,那么t时刻T的可能位置为以T1为圆心,P1T1为半径的圆内任意一点,此时一定仍然满足dTtO dGtO,USV封堵成功。因此只要保证USV每一步都前往当前时刻的极限封堵点,就能确保可疑目标无法越过 USV

29、,从而实现不断逼近可疑目标将其驱逐的目的。3.4专家经验矫正纠偏策略由于本文环境中可疑目标会主动逼近布防目标,并在接近到危险距离时会判定失败重置环境,而在纯随机探索的情况下,这将导致在DDPG训练初期极易失败,需要对环境进行大量的探索;同时为了能够更好地探索最优策略,在训练过程中需要添加噪声以获得更多变复杂的动作用于学习。以上都导致想要学习到好的策略需要大量的时间。对于常规的应用DDPG的任务环境而言,其动作的好坏难以量化表达,因此需要长时间的迭代学习。但是对于本文布防封控中具体的驱逐任务而言,USV的初始行为是可以预料并且量化的,即图5中间点封堵策略示意图Fig.5Intermediate

30、location for blocking policy56第 4 期鲁宇琦等:海上布防任务中无人艇对可疑目标的驱逐方法研究在驱逐任务开始时USV需要尽快瞄准可疑目标并向可疑目标附近前进。因此提出一个专家经验矫正纠偏策略,其目的为在训练初期对USV对动作的探索进行矫正与纠偏,减少USV动作的无用探索,使其尽快瞄准可疑目标,加快后续的训练。因此需要得到一个专家动作序列(aexp1,aexp2 aexpT)使USV尽快瞄准,如图6所示。图示为t时刻,状态用St(,)表示,其中为可疑目标T与USVG的距离,为可疑目标T与USVG连线相对正东方向的偏转角,为USVG的艏向角,和的取值范围均为0,2)。

31、同时考虑到USV在水面的运动特性,其每一步能够旋转的角度是有限的,将其每一步的动作a选取范围设置为-,为其每一步能够旋转角度的最大值,a为正时USV逆时针旋转,为负时顺时针旋转。训练初期需尽快瞄准可疑目标,可描述为minT s.t.i=tt+T(aexp=f(Si)+=(6)又因为a -,所以为了使T最小,aexp=,当aexp=时,说明USV需逆时针旋转以瞄准可疑目标,当aexp=-时,说明USV需顺时针旋转。并且对于一个确定的St(,),其aexp具有单值性,即后续所有aexp均为或-。现证明其单值性。假设对于某个确定的St(,),其后有两个专家动作序列i=tt+T1(aexp=f(Si)

32、=i=tt+T2(aexp=f(Si)=-(7)式中,T1序列为单值序列,不妨令aexp,则T1=-,T2序列为非单值序列,假定有n个aexp=-,则(T2-n)+(-n)=-,联立可得T1=T2-2n,n N,因此T1为最小的动作 序 列,其 为 单 值 序 列。因 此 只 需 根 据St(,)判断出训练初期时的专家动作aexp即可得到专家动作序列。因此提出一种以当前状态值St(,)为自变量的判断函数f(St),用于输出专家动作aexp。其中条件判断函数f(St)设计如下:记=-,可 得的 取 值 范 围 为(-2,2)。当取(-2,0)时,分两种情况:若 (-2,-),则aexp=,若 (

33、-,0),则aexp=-;当取(0,2)时,同样分两种情况:若 (0,),则aexp=-,若 (,2),则aexp=。逻辑图如图7 所示。4 仿真实验结果及分析 本节将详细介绍基于gym搭建的环境具体参数设置以及实验方案设置。gym是由openai开发的一款专门应用于开发和比较强化学习算法的工具包,它对智能体的结构不会进行任何假设,并且与任何数值计算库如 Tensorflow 等兼容,支持python语言对其进行编写,目前绝大多数研究强化学习算法的学者都会基于gym进行环境的搭建,这会为后面使用强化学习算法训练智能体提供便利。整体环境大小为240 m 240 m,防守目标位于正中间,以防守目标

34、为中心,半径20 m的圆形区域为安全区域,半径80 m的区域为驱逐域;护卫船将从防守目标处出发,速度vG为一定值,其艏向角不可突变;可疑目标将在距离防守目标60 m之外的区域随机生成,速度vT为一恒定值,其运动规则服从人工势场法,其艏向角可以根据势场的变化立刻改变以满足人工势场法。环境的渲染设置为1秒60帧,这也意味着USV用强化学习1秒进行60次迭代学习,而本环境设置每一回合最多训练次数为1000次,这些限制条件影响了vG和vT图6专家经验矫正纠偏策略模型图Fig.6Expert experience s correction strategy model图7条件判断函数模型图Fig.7Co

35、nditional judgment function model57第 6 卷无人系统技术的设置。速度值不能设置过于小,这将导致学习初期USV与可疑目标无法快速接近,学习效率较低,并且在有限的回合步数中难以成功将可疑目标驱逐,这会大大影响USV学习的效率;同时速度不能设置过于大,这将导致USV与可疑目标的步长过大,训练效果会变差。因此综合考虑,将vG设置为20 m/s,vT设置为20 25 m/s较为合适。4.1测试意图预测及封堵策略实验为了测试意图预测及封堵策略的有效性,设置了三个对照组进行了实验。三个对照组分别为:1.空白组(Untreated State,US):将状态信息St(,)作

36、为DRL算法的输入进行训练;2.自学习组(Self-Learning,SL):通过将连续三个时间的状态信息(t-2,t-2,t-2,t-1,t-1,t-1,t,t,t)作为算法输入,希冀DRL能够自主通过连续的状态信息预测其意图;3.策略组(IPBP):添加意图预测及封堵策略的对照组,将Spredict(predict,predict,predict)作为算法输入进行训练。每个对照组进行了20次实验并取平均值作为结果进行对比,每一次实验训练了 150 个回合,每回合最大训练步数为1000步。如图8所示,可以发现在vT较小时,三种方法均能收敛并且学习效果相差不大,甚至US和SL组的奖励值更高,这

37、是因为在可疑目标低速进攻的情况下,通过设计的奖励函数就已经足以让USV学习到足够好的驱逐策略。但是当vT不断增大时,US和SL组的回合平均奖励值下降非常快,这是因为当vT不断增大时,US和SL组中的USV难以跟上可疑目标的位置变化,难以将可疑目标驱逐,随着速度增大,USV越来越难获得正向奖励值,因为可疑目标越来越容易逼近布防目标,因此在图8中可以看到,随着速度增大,回合平均奖励值不断降低。直到vT=25 m/s时,US和SL组奖励值基本没有增长,这意味着没有任何学习效果,也意味着对于US和SL组已经达到了它们的极限,在这个速度下,US和SL组很难获得正向奖励了,USV只要离开布防目标稍远一点,

38、可疑目标就会迅速找到一条进攻路径成功攻击到布防目标,而IPBP组在vT=25 m/s时仍然还有较好的表现,这说明IPBP组USV能够在一定范围内驱逐性能比自己更好的目标。4.2驱逐成功率实验而在驱逐的成功率和性能的稳定性方面,在20次实验结束后,对每一次训练得到的模型进行图8可疑目标不同速度下训练实验结果Fig.8Experimental results of training suspicious target at different speeds58第 4 期鲁宇琦等:海上布防任务中无人艇对可疑目标的驱逐方法研究100次测试并记录其成功次数。最后汇总20个模型的测试结果并取均值进行对比。

39、如图9、表1所示。可以发现在vT=20 m/s时,US和SL组也能有较好的成功率,与IPBP组差别并不大,这也说明了在可疑目标性能不强时,常规的一些强化学习算法即可完成对USV的训练,甚至有不错的效果;但是随着vT的增大,US和SL组的成功率下降非常快,在vT=25 m/s时基本无法完成驱逐任务。而IPBP 组虽然成功率也在下降,但是在vT=25 m/s的情况下仍然还能有53.3%的成功率。说明添加意图预测和封堵策略有助于USV学到更好的驱逐方法,完成对可疑目标的驱逐任务。4.3测试专家经验矫正纠偏策略实验为了测试专家经验矫正纠偏策略对USV学习策略的加速效果,同样设置对照组进行实验对比,结果

40、如图10所示。图10为在vT=20 m/s的情况下添加专家经验与否的实验结果,可以看出没有添加专家经验的实验组算法大概在40回合收敛,而添加了专家经验的实验组算法在25回合左右就能收敛。vT取不同的值也有相似的结果。添加专家经验相比没有添加提前了大概15个回合就能使算法训练达到收敛。当然,由于每个回合的步数不同,并不是每个回合都运行了 1000 步后才进入下一回合,因此仅仅用收敛所需的回合数来判断专家经验的加速效果是不准确的。为了正确地反映专家经验是否有加速收敛的效果以及量化反映加速的效果是好还是差,将vT取不同的值进行了实验,并重复进行了20次,然后对每次实验训练达到收敛的时间进行了记录并取

41、其均值,最终结果如表2所示。从表2中可以看出,当vT增大时,没有专家经验训练收敛所需的时间越来越大,而有专家经验则相对稳定,并且有专家经验所需的时间远小于无专家经验所需时间,这说明专家经验矫正纠偏策略能够实现算法的加速训练,并且对算法的稳定也有一定效果。表1可疑目标不同速度下驱逐成功率Table 1The success rate of expelling suspected targets at different speedsvT/vGUSSLIPBP20/2096.10%96.40%96.95%21/2092.00%96.40%97.50%22/2078.85%84.85%93.65%2

42、3/2062.00%68.35%85.30%24/2037.85%34.10%76.70%25/2014.05%6.85%53.30%图9可疑目标不同速度下驱逐成功率Fig.9The success rate of expelling suspected targets at different speeds图10专家经验实验结果Fig.10Experimental results about the expert experience表2收敛时间实验结果Table 2Experimental results of convergence timevT/vG是否有专家经验训练到收敛所需时间(s

43、)速度提升率(%)20/20是6946.4否10121/20是8825.0否11022/20是7839.7否10923/20是7946.8否11624/20是7852.5否11925/20是8282.9否15059第 6 卷无人系统技术5 结 论 本文针对具体的USV海上布防任务问题,以其中的驱逐任务为背景搭建了一个基于gym的强对抗环境,并提出了基于深度强化学习的可疑目标驱逐方法框架,然后在可疑目标不同速度值下对USV进行训练。实验结果表明,本文提出的方法框架能够提升USV的训练速度,速度提升率最高可达82.90%。在不同速度下该方法框架训练所得的驱逐成功率均为最佳,并且在速度差较大的情况下

44、仍然能有53.30%的成功率。综上所述,本文所提出的驱逐方法框架能够解决驱逐任务问题。但是本文仅在二维环境中进行了建模,未来还需在三维环境中进行实验测试,以验证其实用性。USV海上布防任务是一个综合研究课题,驱逐任务只是其中的一个难题,针对的是对于布防目标一定范围内,侦察到的低威胁目标。对低威胁目标而言,我们无需对其进行火力歼灭,而是需要将其驱逐出一定范围即可。本文则是研究了布防任务中驱逐任务的解决方法,后续可进一步研究如何实现控制、歼灭、侦察等其他任务。参 考 文 献1 赵玉新,杜登辉,成小会,等.基于强化学习的海洋移动观测网络观测路径规划方法 J.智能系统学报,2022,17(01):19

45、2-200.2 Deb K,Agrawal S,Pratap A,et al.A fast and elitist multiobjective genetic algorithm:NSGA-IIJ.IEEE Transactions on Evolutionary Computation,2002,6(2):182-197.3 陈增强,黄朝阳,孙明玮,等.基于大变异遗传算法进行参数优化整定的负荷频率自抗扰控制 J.智能系统学报,2020,15(01):41-49.4 Wang X Y,Liu H K,Yue X H,et al.Novel ant colony optimization me

46、thods for simplifying solution construction in vehicle routing problems J.IEEE Transactions on Intelligent Transportation Systems,2016,17(11):3132-3141.5 Shi H Y,Su C L,Cao J T,et al.Nonlinear adaptive predictive functional control based on the takagi-sugeno model for average cracking outlet tempera

47、ture of the ethylene cracking furnace J.Industrial&Engineering Chemistry Research,2015,54(6):1849-1860.6 Chen Y L,Bai G Q,Zhan Y,et al.Path planning and obstacle avoiding of the USV based on improved ACO-APF hybrid algorithm with adaptive early-warningJ.IEEE Access,2021(9):40728-40742.7 Khatib O.Rea

48、l-time obstacle avoidance for manipulators and mobile robots J.The International Journal of Robotics Research,1986,5(1):500-505.8 Siciliano B,Sciavicco L.A solution algorithm to the inverse kinematic problem for redundant manipulatorsJ.IEEE Journal of Robotics and Automation,1998(4):403-410.9 Shao S

49、 K,Peng Y,He C L,et al.Efficient path planning for UAV formation via comprehensively improved particle swarm optimizationJ.ISA Transactions,2020,97:415-430.10 史晓茹,侯媛彬,张涛.不完全信息博弈的机器人对抗决策 J.智能系统学报,2011,6(2):147-151.11 Lee M,Shin M K,Choi H L,et al.A target assignment and path planning framework for mu

50、lti-USV defensive pursuit C.2021 21st International Conference on Control,Automation and Systems(ICCAS),Jeju,Korea,Oct.12-15,2021.12 庄宇飞,李亚南,黄海滨,等.基于集群运动控制的无人艇覆盖部署方法 J .中国造船,2020,61(S1):52-59.13 宋梅萍,顾国昌,张汝波.多移动机器人协作任务的分布式控制系统 J.机器人,2003(5):456-460.14 Volodymyr M,Koray K,David S,et al.Human-level con

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
百度文库年卡

猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服