收藏 分销(赏)

结合Bootstrapped探索方法的CCLF算法.pdf

上传人:自信****多点 文档编号:3074857 上传时间:2024-06-15 格式:PDF 页数:7 大小:1.25MB
下载 相关 举报
结合Bootstrapped探索方法的CCLF算法.pdf_第1页
第1页 / 共7页
结合Bootstrapped探索方法的CCLF算法.pdf_第2页
第2页 / 共7页
结合Bootstrapped探索方法的CCLF算法.pdf_第3页
第3页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、结合 Bootstrapped 探索方法的 CCLF 算法杜志斌,黄银豪(华南师范大学软件学院,佛山528225)通信作者:杜志斌,E-mail:摘要:深度强化学习因其可用于从高维的图像中提取出有效信息,从而可以自动生成解决各类复杂任务的有效策略,如游戏AI,机器人控制和自动驾驶等.然而,由于任务环境的复杂性以及智能体低下的探索效率,使得即使执行相对简单的任务,智能体仍需要与环境进行大量交互.因此,本文提出一种结合 Bootstrapped 探索方法的 CCLF 算法BootstrappedCCLF,该算法通过 actor 网络中多个 head 来产生更多不同的潜在动作,从而能够访问到更多不同

2、的状态,提高智能体的探索效率,进而加快收敛过程.实验结果表明,该算法在 DeepMindControl 环境中具有比原算法更好的性能以及稳定性,证明了该算法的有效性.关键词:深度强化学习;策略梯度;探索策略;连续控制;高维度输入引用格式:杜志斌,黄银豪.结合 Bootstrapped 探索方法的 CCLF 算法.计算机系统应用,2023,32(9):162168.http:/www.c-s- Algorithm with Bootstrapped ExplorationDUZhi-Bin,HUANGYin-Hao(SchoolofSoftware,SouthChinaNormalUnivers

3、ity,Foshan528225,China)Abstract:Deepreinforcementlearningcanbeusedtoextracteffectiveinformationfromhigh-dimensionalimagesandthusautomaticallygenerateeffectivestrategiesforsolvingcomplextaskssuchasgameAI,robotcontrol,andautonomousdriving.However,duetothecomplexityofthetaskenvironmentandthelowexplorat

4、ionefficiencyoftheagent,itisstillnecessaryfortheagenttointeractwiththeenvironmentfrequentlyevenforrelativelysimpletasks.Therefore,thisstudyproposesaCCLFalgorithm(BootstrappedCCLF),whichcombinesBootstrappedexplorationmethodtogeneratemoredifferentpotentialactionsthroughmultipleheadsintheactornetwork,s

5、othatmoredifferentstatescanbeaccessedtoimprovetheexplorationefficiencyoftheagent,andthustheconvergenceprocesscanbeaccelerated.TheexperimentalresultsshowthatthealgorithmhasbetterperformanceandstabilitythantheoriginalalgorithmintheDeepMindControlenvironment,whichprovestheeffectivenessofthealgorithm.Ke

6、y words:deepreinforcementlearning;policygradient;explorationstrategies;continuouscontrol;highdimensionalinput深度强化学习解决了智能体如何将状态映射为动作的问题,使得智能体能够在与复杂及不确定的环境交互时,最大化累积获得的奖励,从而使得深度强化学习能够广泛应用于游戏对抗,机器人控制,城市交通,商业等领域1.该成功主要有以下几点原因,首先是将强化学习与深度神经网络结合在一起,利用深度神经网络强大的建模能力,对高维状态模式的信息(图像,声音等)进行建模,使得智能体能够从中提取状态特征;随后利

7、用强化学习为提取出来的状态信息分配不同的价值,赋予智能体连续决策的能力;最后通过端到端的计算机系统应用ISSN1003-3254,CODENCSAOBNE-mail:ComputerSystems&Applications,2023,32(9):162168doi:10.15888/ki.csa.009236http:/www.c-s-中国科学院软件研究所版权所有.Tel:+86-10-62661041基金项目:广东省自然科学基金面上项目(2023A1515011472)收稿时间:2023-03-02;修改时间:2023-04-04;采用时间:2023-04-12;csa 在线出版时间:202

8、3-07-17CNKI 网络首发时间:2023-07-18162软件技术算法SoftwareTechniqueAlgorithm训练,将特征提取和决策一起优化,使得智能体能够如同人类一般处理高维状态模式的信息,并进行判断与决策2.然而,也正是因为这个原因,为深度强化学习带来重大的挑战.在深度强化学习中,大多数环境状态都是复杂的高维状态模式,而直接从高维环境状态进行观测学习是具有挑战性的.智能体为了获取连续决策判断的能力,需要从高维状态模式的环境中提取出低维的有效状态信息,而这可能需要与环境进行百万次交互,并收集大量的样本数据来进行训练3.尤其当面临复杂的任务或者充满随机性的环境时,智能体所需的

9、学习时间可能以指数倍的速度恶化.其背后的一个瓶颈挑战是探索,即在嘈杂未知环境的情况下,智能体如何进行有效的探索,并收集到有用的样本经验来最大限度地改善自身策略4.针对这个效率低下的问题,为了提高算法的探索效率,近年来有专家学者提出过许多不同的探索策略.根据这些策略的关键思想以及原理,可将这些主流的探索策略归为两大类5.第 1 类是基于不确定性导向的探索策略,不确定性包含了环境不确定性和认知不确定性,可通过值函数的贝叶斯后验或者值函数的分布对不确定性进行衡量.该探索策略通常根据“乐观对待不确定性”的指导原则引导智能体对环境进行探索,尤其是引导智能体更多地探索认知不确定性高的状态,同时因为环境的随

10、机性会对智能体产生干扰,需要避免受到环境不确定性高的影响,从而实现对环境的高效探索.该类型的探索策略的典型工作有:BootstrappedDQN 算法6,通过随机选择最有可能是最优的策略来进行探索;RLSVI算法7,旨在通过线性参数化的价值函数进行有效的探索和归纳;OAC 算法8,通过最大化状态动作对的值函数的近似置信边界的方法进行探索;OB2I算法9,通过非参数引导法构建了一个通用的 UCB 奖励,并与线性设置的 LSVI-UCB 之间建立了理论联系,利用偶发的后向更新,提高了智能体的探索效率.第 2 类是基于内在激励信号导向的探索策略,该探索策略受到人类好奇心的启发,通过产生内在激励奖励驱

11、动智能体对环境进行探索.根据设计内在激励信号所使用技术的不同,可将该探索策略分为 3 类:估计环境动力学误差的方法,典型工作有:ICM 算法10,该算法提出了一个好奇心模块,其用来估计一个状态的新奇程度,并给予相应的内在奖励驱动探索.状态新颖性估计方法,典型工作有:RND 算法11,使用神经网络来作为状态新颖程度的估计,促使智能体更多地探索新颖程度较高的状态.基于信息增益的方法,典型工作有:VIME 算法12,通过给予智能体一种基于信息增益的内在奖励,弥补原本稀疏的奖励,鼓励智能体更好地进行探索.虽然目前有专家学者提出了许多的探索方法,但对于这些探索方法之间是否能够进行互补,并同时从不同的角度

12、解决智能体探索效率低下的问题仍然不清楚.本文将基于离散动作,值函数算法的 Bootstrapped探索方法6引入基于连续动作,策略梯度的 CCLF 算法13中.结合两种不同类型的探索策略,提出了 BCCLF(BootstrappedCCLF)算法.针对 CCLF 算法深度探索能力较弱,稳定性差以及收敛速度慢的缺点,通过将actor 网络拓展为 multi-head 结构,每个 head 根据自身的最优策略对环境进行深度探索,同时多个 head 之间保持了对潜在最优动作的分布,为神经网络引入不确定性,并通过该不确定性引导智能体对环境进行深度探索.最终通过实验结果证明,在 DMControl 的多

13、个连续控制任务上,极大地提高了算法的探索效率及收敛速度,超过近年来优秀的无模型算法.1相关工作强化学习的目标是智能体如何在未知,不确定的环境中进行决策,最终最大化它所获得的奖励14.在强化学习中,智能体不断与环境进行交互,获取环境中的某个状态后,进行决策选择最优动作并执行.环境根据智能体所执行的动作,输出下一个状态以及执行该动作所取得的奖励.这个过程可以通过马尔可夫过程来建模.SAPR(s,a)sas在马尔可夫过程中,通常使用元组来表示,其中 表示环境状态的有限集合,表示智能体可采取动作的有限集合,表示环境状态之间的转移概率,表示智能体执行某一动作进入环境下一状态时所获得的奖励,表示折损因子.

14、智能体在与环境不断进行交互的过程中,寻找出最优策略,即在当前状态 下执行动作 的概率,使得从当前状态 开始执行策略,能够最大化如式(1)所示的值函数:(s)=Et=0trt+1|s0=ss(1)1.1 Bootstrapped DQN在深度强化学习中的一个主要挑战是对环境进行2023年第32卷第9期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法163有效探索,而在常见的探索策略中,其无法对环境进行时间上的深度探索,而这可能导致样本效率的低下.Osband 等人提出了 BootstrappedDQN 算法6,将深度探索与深度

15、神经网络进行结合,从而大大提高了算法的学习速度.在该算法中,受 Thompsonsampling 算法的启发,通过 Bootstrapped 修改 DQN 网络结构,如图 1 所示,使其能够更好地拟合 Q 值的分布.函数头1函数头2函数头n共享层图像帧图 1BootstrappedDQND1,D2,DND在训练的每个回合开始之前,BootstrappedDQN算法从其近似后验中采样单个的 Q 值函数,然后,智能体接下来会将这个 Q 值函数视为这个回合最优的策略,并根据这个策略对环境进行探索,由于每个 Q 值函数所生成的策略不尽相同,从而实现对环境的深度探索.其中每个单独的 Q 值函数所用于训练

16、的样本都是分别从一个来自未知分布 F 的数据样本中采用返回抽样的方法进行抽样的,并利用这些样本训练 Q 值函数头对总体未知的分布 F 进行统计推断.1.2 SAC 算法Q(st,at,rt,st+1)SAC(softactor-critic)15是由 Haarnoja 等人于2018 年所提出的算法,是一种区别于确定性策略的随机策略算法.SAC 算法基于最大熵框架,在最大化环境反馈的奖励基础上,最大化每一时刻策略的熵,从而使产生的策略尽可能随机,进而能够采取更多潜在的最优动作.该算法通过动作值函数,温度系数 以及随机策略函数来进行学习.在训练的过程中,智能体从经验回放池中采样一个批次的样本经验

17、进行学习,并最小化贝尔曼误差:JQ()=E(st,at)D12(Q(st,at)rtV(st+1)2(2)其中,在 SAC 算法中目标值函数为:V(st+1):=Eat+1Q(st+1,at+1)log(at+1|st+1)(3)其中,温度系数 用于调节奖励与熵之间的相对重要程度.SAC 算法中 actor 通过执行策略选择动作以最小化损失:J()=EstDEatlog(at|st)Q(st,at)(4)SAC 算法在标准最大化奖励的基础上增加了一个最大化熵的目标,使其策略更加随机,进而提高探索效率,同时降低算法对估计误差的敏感性,使算法更加稳定.1.3 CURL 算法有大量的深度强化学习任务

18、需要智能体直接从高维状态进行观测学习,而这导致了深度强化学习的探索效率十分低效.为了解决这个问题,Laskin 等人在 SAC算法基础上引入对比表征学习,提出了 CURL 算法(contrastiveunsupervisedrepresentationlearning)16.该算法将对比表征学习与深度强化学习相结合,通过学习表征函数,将高维复杂的状态信息(诸如图像,文本等)转化为低维的语义表征信息.智能体基于这些语义表征进行学习训练,能够使数据更加高效,达到可以比肩向量化状态输入的数据利用率.对比学习表征的生成方法如式(5)所示:q=fq(xq)k=fk(xk)(5)其中,xq和 xk是对同一

19、状态图像的两种不同增强,fq和 fk是编码函数,q 和 k 是最后的表征.通过双线性内积去衡量 q 和 k 的相似度:sim(q,k)=qTWk(6)其中,W 为可学习参数矩阵.整个对比学习的损失定义如式(7)所示:Lq=logexp(qTWk+)exp(qTWk+)+K1i=0exp(qTWki)(7)1.4 CCLF 算法深度强化学习作为端到端的算法,需要将高维的状态图像最终映射为一个动作,而其中直接从状态图像进行观测,并从中提取有用的信息进行学习是一项挑战.最近有学者进行研究发现,通过图像增强的方法对输入的状态图像进行增强,利用编码原始像素的不变性能够有效提高特征提取的速度,进而提升算法

20、的效率.但是如果仅简单地引入更多的图像增强方法,没有对不同的经验进行加以区分,这将可能导致 Q 学习的不稳定性.Sun 等人通过将对比好奇心引入 CURL 算法中,提出了 CCLF(contrastive-curiosity-drivenlearning计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第9期164软件技术算法SoftwareTechniqueAlgorithmframework)算法13,系统地研究了这个问题.该算法通过对比好奇心驱动智能体对环境进行探索,并能够充分利用经验的重要性对重放经验池中的经验进行优先级排序,使得智能体能够优先从最具有信息量的样本

21、经验中进行学习,以便可以专注于更多信息的经验,进一步提高了探索效率.同时使卷积网络更有效地学习表示不变性,进而显著降低图像增强的影响.对比好奇心通过 CURL 算法中的对比损失项来建模,它可以在不引入任何额外神经网络体系结构和计算的情况下对好奇心水平进行衡量,其中衡量对比好奇心大小如式(8)所示:cij=1IB(gi(o),gj(o)0,1(8)IBqk+qk其中,表示智能体认为对同一状态图像通过两种不同的增强后是否具有相同的表征,可通过式(7)计算,并取反对数进行表示.较高的对比好奇心则表明智能体不认为 与相似,或者是错误地将 与一些匹配,最终以这种自我监督的方式产生较高的对比好奇心,而这一

22、般意味着智能体尚未从该环境状态中学到新信息,并且编码器目前仍不是从原始像素中提取有意义的状态表示的方案.此外,将基于对比好奇心生成内在奖励反馈给智能体,从而驱动智能体对环境进行探索,该内在奖励定义如式(9)所示:rit=exp(t)remaxrimaxcij+cij2(9)tremaxrimax其中,表示温度系数,表示衰减权重,表示环境步长,表示可获得的最大外部奖励,表示可获得的最大内部奖励.有了上述公式所计算的对比好奇心大小后,还能对经验重放池中的经验进行加权排序,使智能体能够从中采样更多未被探索的经验进行学习,同时选择信息最丰富的经验来提升卷积神经网络的编码不变性,进而显著减少深度强化学习

23、所需的经验量.为了使智能体能够更频繁地学习相对较新状态,通过对比好奇心来更新样本经验的权重:s=s1+12(1)(cij+cij)(10)其中,表示动量系数.动量更新的方式能够保持训练的稳定性,这样对比好奇心较高的经验将逐渐降低采样的权重,从而使智能体能够更频繁地抽样学习到较新且对比好奇心较高的经验.2BootstrappedCCLF 算法 2.1 问题分析目前深度强化学习的探索效率仍然不够理想,算法的探索能力还不足以在有限的资源与时间下尽快找到最优解,距离实际落地仍有一段距离.所以,对于充分利用样本经验来尽可能地提高算法的探索效率是十分有必要的.造成深度强化学习探索效率低下的一个重要原因是智

24、能体在单一探索策略的引导下,只能片面地解决探索问题.例如,当环境所能给予的外部奖励较为稀疏时,智能体将难以根据奖励学习到较优的策略,从而产生探索效率低下的问题,基于内在激励信号导向的探索策略则能够很好地解决这类问题.然而对于其他原因产生的探索难问题,例如需要智能体执行一系列动作才能获取奖励,则需要智能体拥有深度探索的能力,基于内在激励信号导向的探索策略则难以发挥作用.如果能够将不同的探索策略结合起来,对各自的优缺点进行互补,从不同的角度辅助智能体对环境进行探索,那么将能大幅提升智能体的探索效率.因此,本文将基于内在激励信号导向的 CCLF 算法与基于不确定性导向的 BootstrappedDQ

25、N 算法进行结合.通过随机选择最有可能是最优策略的策略来进行探索,将深度探索与深度神经网络相结合,从而使算法能够更好地适应目标的分布,进一步提高探索效率,减少收敛时间,同时提升算法的鲁棒性.2.2 算法设计为了将基于离散环境,值函数的 BootstrappedDQN 算法与基于连续环境,策略梯度的 CCLF 算法相结合,本文将 CCLF 算法中的 actor-critic 网络转换为一种全新结构,如图 2 所示.(a)critic 网络(b)actor 网络图 2actor-critic 网络结构在 BootstrappedDQN 算法中,由于智能体选择的动作是根据值网络输出的目标值进行选择,

26、而 CCLF算法为 actor-critic 结构,动作的选择由 actor 网络给出,critic 网络对 actor 网络所选择的动作进行评估,所以如2023年第32卷第9期http:/www.c-s-计 算 机 系 统 应 用SoftwareTechniqueAlgorithm软件技术算法165图 1 所示,critic 网络由编码层及一个全连接层组成,actor 网络由 1 个共享的编码层和 K 个不同 head 组成.将 actor 网络的编码层设计为共享部分,虽然会降低不同 head 之间的多样性,但是能够使其学习到所有数据的联合特征表示,并且有效地减少网络参数的数量和计算资源的消

27、耗,同时提升网络的鲁棒性.K 个不同的head 接收共享编码层的输出,每个 head 都进行了随机且不同的初始化,相互之间保持独立.使用 Bootstrapped 方法修改了 actor 网络的结构,通过 Bootstrapped 对动作的分布进行近似.在每次训练开始前,从 actor 网络的近似后验抽取一个 head,然后直至训练结束都认为该 head 所生成的策略是最优的策略,使其保持对环境的乐观探索,从而能够对环境进行时间上的深度探索.在训练过程中,为智能体收集的每一个样本经验生成一个长度为 K 的二进制数组,数组中的每一位对应一个 head.从伯努利分布中以 0.5 的概率为对应的he

28、ad 生成一个掩码,并储存在二进制数组中.掩码值为 1 代表该样本经验能够被对应的 head 所学习,为0 则不用于学习.actor 网络的随机梯度下降公式对应修改如式(11)所示:gkt=mkt(yQtQk(st,at;)Qk(st,at;)(11)mkt其中,代表每个样本经验对应 head 的掩码值.从而使得每个 head 所学习到的样本经验子集之间互不相同,进而每个 head 能够输出不同的策略,充分反映潜在最优动作的分布,并通过 TD 估计引入时间上的价值不确定性估计.同时对式(3)也进行对应的修改:V(st+1):=maxEant+1nQ(st+1,ant+1)nlog(ant+1|

29、st+1)Kn=1(12)通过使用掩码的方式,使 actor 网络中的每个 head所学习到的经验不尽相同,从而接近动作概率的后验分布.此外,还通过对每个 head 网络进行随机初始化,作为诱导神经网络产生动作多样性的先验,并且在训练过程,这些在初始化时产生的小差异将随着适应各自的 TD 误差逐渐变得更大.一旦其中一个 head 探索到更优的状态,便可以通过目标网络将这个信号传播回最初始的状态,并被其他的 head 网络所学习到,从而驱动智能体进行深度探索.在该算法中,并没有将 critic 网络做出与 actor 相同改动,主要原因在于单一的 critic 网络能够学习到所有样本经验,进而生

30、成一个综合性的考量,且能够更快更准确地评估动作所对应的 Q 值,同时为 actor 网络提供一个更稳定的目标进行学习.本文提出的 BootstrappedCCLF 算法总结如算法 1所示.算法 1.BootstrappedCCLFnkn=11.初始 encoder 网络参数,critic 网络参数 及 actor 网络参数,同时使用 critic 网络参数初始化 target-critic 网络;初始化采样长度 T,回放经验池 B.2.fort=1toTdo:nUniform1,2,K3./选择一个 headnatn(.|g(st)4./根据当前策略选择动作st+1,rtp(st+1,rt|s

31、t,at)5./与环境交互mtM6./生成掩码BB(st,at,rt,dt,mt,st+1)7./存入样本经验tB8./采样经验样本进行训练=Lq9./更新 encoder 网络=JQ()10./更新 critic 网络=J()11./更新 actor 网络s=s1+12(1)(cij+cij)12./更新经验权重=+(1)13./更新 target-critic 网络14.endfor3实验分析本文通过 DMControl100K 基准对算法的性能及探索效率进行评价.通过与 DMControl 的环境交互100k 步,比较 BCCLF 算法与基准算法的最高得分与平均得分来评价算法的性能和探索

32、效率.3.1 实验环境为了验证算法的有效性,将 BCCLF 算法和基准算法应用于 DMControl 环境的 6 个基准任务中,如图 3所示.(a)Cartpole,swingup(b)Finger,spin(c)Reacher,easy(d)Cheetah,run(e)Walker,walk(f)Ballincup,catch图 3DMControl 环境计 算 机 系 统 应 用http:/www.c-s-2023年第32卷第9期166软件技术算法SoftwareTechniqueAlgorithmDMControl 是由一系列连续控制任务基准环境所组成.在不同的任务环境中,智能体需要控制

33、物理仿真机器人完成目标任务17.智能体获取的环境状态为38484 的 RGB 图像,同时输入连续 3 帧状态图像能够为智能体提供仿真机器人的运动方向与速度等时间上的信息.将本文提出的 BCCLF 算法与近年来在 DMControl环境中性能表现较为优秀,以 SAC 为基础的算法进行对比,这些算法分别是:(1)以图像作为输入的 SAC 算法.(2)引入对比学习的 CURL 算法.(3)使用图像增强的 DrQ 算法18.(4)好奇心驱动探索的 CCLF 算法.本文提出的算法以及进行对比的基准算法都是以SAC 算法为基础,因此大部分采用与原始算法 CCLF相同的超参数,具体超参数如表 1 所示.3.

34、2 对比实验在 6 个不同的基准任务中,将 BCCLF 算法在这些任务对应的环境均运行 5 次,每次采用不用的随机种子进行初始化,且都与环境进行 100k 步的交互,计算所获取分数的平均值和标准差,将其作为最终结果,评价算法的最终性能.在 6 个不同的连续控制任务中,BCCLF 都取得了最高得分,展现了其优秀的最终性能.平均计算下来,BCCLF 的性能相较于基准算法 CCLF提升了 12%.评价数据如表 2 所示.将 BCCLF 算法和 CCLF 算法运行于 DMControl环境中的 6 个基准任务中当中,其实验结果如图 3 所示,横坐标表示训练的次数,纵坐标表示算法所取得的平均分数.从图

35、4 中可以看出,在获取相同的分数时,BCCLF 算法相较于原始 CCLF 只需更少的训练次数,且收敛速度更快.尤其是在 finger-spin 任务中,由于该任务需要控制手指持续拨动铰链才能获取分数,相对其他任务来说更需要智能体对环境进行一个深度的探索,才能了解获取奖励的方式.在该任务中,BCCLF 算法大约学习了 12k 次后开始学会拨动铰链,分数逐渐上升,而原始的 CCLF 算法则需要学习 37k 次,提升了约 3 倍探索效率.同时,BCCLF 算法从开始学会,分数逐渐上升到分数收敛,只需学习 18k 次;而 CCLF 算法则需要学习 23k 次,收敛速度提升了约 1.3 倍,且BCCLF

36、 算法能够收敛到更高的分数.表 1算法超参数设置超参数名称超参数值重放经验池大小10k初始采样次数1k动作重复次数2finger,spin;walker,walk8cartpole,swingup4otherwise优化器Adam卷积层层数4输出通道数32隐藏层神经元个数1024隐藏层层数3学习率1E4alpha1E3otherwise批大小128信息熵系数0.1激活函数ReLU折损因子0.99head数量9表 2BCCLF 所取得的平均得分和标准差与其他算法的对比基准任务SAC-PixelCURLDrQCCLFBCCLFFinegr,spin230194686113 784173 94442

37、97014Cartpole,swingup23749524179 675174 7996183824Reacher,easy239183566226 6828673899 746132Cheetah,run1181328665332363173835225Walker,walk9519482237 492267 648110 70343Ballincup,catch85130667197 828131 9142092960030060090020k40k训练次数评估分数60k80k 100k010030050070020k40k训练次数评估分数60k80k 100k0010020030020k

38、40k训练次数评估分数60k80k 100k0030060090020k40k训练次数评估分数60k80k 100k0030060090020k40k训练次数评估分数60k80k 100k0020040060020k40k训练次数评估分数60k80k 100kCCLFBCCLF(a)Ball in cup,catch(b)Cartpole,swingup(c)Cheetah,run(d)Finger,spin(e)Reacher,easy(f)Walker,walk图 4DMControl 环境中 6 个任务的训练曲线2023年第32卷第9期http:/www.c-s-计 算 机 系 统 应

39、用SoftwareTechniqueAlgorithm软件技术算法167 3.3 消融实验BCCLF 算法与原始的 CCLF 算法之间最大的区别是在 BCCLF 算法中,actor 网络为 multi-head 结构,CCLF 算法可以视为只有单一 head 的 BCCLF 算法.为了了解 head 数量对提升智能体探索效率的贡献.本文分别将采用不同数量 head 的 BCCLF 算法运行于 finger-spin 的任务中.该任务需要智能体对不断地对环境进行探索,才能了解奖励获取的机制,能够很好地体现出算法的探索效率.由图 5 可知,随着 head 数量的增加,智能体的探索效率逐渐提升,表明

40、 Bootstrapped 探索方法能够有效地提升 CCLF 算法的探索性能.评估分数001002003004005006007008009001 00010k 20k 30k 40k 50k 60k 70k 80k 90k100k训练次数CCLFBCCLF 9-headBCCLF 7-headBCCLF 5-headBCCLF 3-head图 5不同 head 数量的 BCCLF 算法的训练曲线4结论与展望本文针对 CCLF 算法存在探索效率低,收敛速度慢的问题,将 Bootstrapped 探索方法与其结合,提出BCCLF 算法.该算法将 actor 网络拓展为 multi-head 结构

41、,使其能够在输出最优策略的同时引入动作值的不确定性,进而提升算法的深度探索能力,并且能够取得更高的性能.BCCLF 算法能够输出多个潜在的最优动作,虽然在离散动作环境下可通过投票法从中选择一个最优的动作,但在连续动作环境下,动作值是连续的,如何从中选择一个最优的动作仍然是一个问题.后续工作将针对这个问题进行展开更加全面与深入研究.参考文献李茹杨,彭慧民,李仁刚,等.强化学习算法与应用综述.计算机系统应用,2020,29(12):1325.1Mnih V,Kavukcuoglu K,Silver D,et al.Human-levelcontrolthroughdeepreinforcement

42、learning.Nature,2015,518(7540):529533.doi:10.1038/nature142362项宇,秦进,袁琳琳.结合向前状态预测和隐空间约束的强化学习表示算法.计算机系统应用,2022,31(11):148156.doi:10.15888/ki.csa.0088013HuGN,ZhangW,ZhuWH.Prioritizedexperiencereplayforcontinual learning.Proceedings of the 6th InternationalConferenceonComputationalIntelligenceandApplica

43、tions.4Xiamen:IEEE,2021.1620.Hao JY,Yang TP,Tang HY,et al.Exploration in deepreinforcement learning:From single-agent to multiagentdomain.IEEE Transactions on Neural Networks andLearning Systems,2023.doi:10.1109/TNNLS.2023.32363615OsbandI,BlundellC,PritzelA,et al.Deepexplorationviabootstrapped DQN.P

44、roceedings of the 30th InternationalConference on Neural Information Processing Systems.Barcelona:CurranAssociatesInc.,2016.40334041.6OsbandI,vanRoyB,WenZ.Generalizationandexplorationvia randomized value functions.Proceedings of the 33rdInternationalConferenceonMachineLearning.NewYorkCity:JMLR.org,2

45、016.23772386.7CiosekK,VuongQ,LoftinR,et al.Betterexplorationwithoptimisticactor-critic.Proceedingsofthe33rdConferenceon Neural Information Processing Systems.Vancouver:NIPS,2019.17851796.8BaiCJ,WangLX,HanL,et al.Principledexplorationviaoptimisticbootstrappingandbackwardinduction.Proceedingsofthe38th

46、InternationalConferenceonMachineLearning.SanDiego:PMLR,2021.577587.9Pathak D,Agrawal P,Efros AA,et al.Curiosity-drivenexplorationbyself-supervisedprediction.Proceedingsofthe34thInternationalConferenceonMachineLearning.Sydney:PMLR,2017.27782787.10Burda Y,Edwards H,Storkey AJ,et al.Exploration byrando

47、m network distillation.Proceedings of the 7thInternationalConferenceonLearningRepresentations.NewOrleans:OpenR,2019.17.11Houthooft R,Chen X,Duan Y,et al.VIME:Variationalinformationmaximizingexploration.Proceedingsofthe30thInternationalConferenceonNeuralInformationProcessingSystems.Barcelona:CurranAs

48、sociatesInc.,2016.11171125.12Sun CY,Qian HW,Miao CY.CCLF:A contrastive-curiosity-driven learning framework for sample-efficientreinforcementlearning.Proceedingsofthe31stInternationalJointConferenceonArtificialIntelligence.Vienna:IJCAI.org,2022.34443450.13高阳,陈世福,陆鑫.强化学习研究综述.自动化学报,2004,30(1):86100.14H

49、aarnojaT,ZhouA,AbbeelP,et al.Softactor-critic:Off-policymaximumentropydeepreinforcementlearningwithastochastic actor.Proceedings of the 35th InternationalConferenceonMachineLearning.Stockholm:PMLR,2018.18611870.15Laskin M,Srinivas A,Abbeel P.CURL:Contrastiveunsupervised representations for reinforce

50、ment learning.Proceedingsofthe37thInternationalConferenceonMachineLearning.SanDiego:PMLR,2020.56395650.16TodorovE,ErezT,TassaY.MuJoCo:Aphysicsengineformodel-based control.Proceedings of the 2012 IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems.Vilamoura-Algarve:IEEE,2012.50265033.17Yarat

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服