收藏 分销(赏)

基于多智能体强化学习的微装配任务规划方法.pdf

上传人:自信****多点 文档编号:637035 上传时间:2024-01-21 格式:PDF 页数:7 大小:4.14MB
下载 相关 举报
基于多智能体强化学习的微装配任务规划方法.pdf_第1页
第1页 / 共7页
基于多智能体强化学习的微装配任务规划方法.pdf_第2页
第2页 / 共7页
亲,该文档总共7页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、设计与应用计算机测量与控制 ()C o m p u t e r M e a s u r e m e n t&C o n t r o l 收稿日期:;修回日期:.基金项目:国家重点研发计划资助项目(Y F B );辽宁省“兴辽英才计划”资助项目(X L Y C );辽宁省自然科学基金项目(M S ).作者简介:徐兴辉(),男,甘肃临夏人,硕士研究生,主要从事精密微小装配技术方向的研究.通讯作者:任同群(),男,辽宁省瓦房店人,博士研究生,副教授,主要从事精密微小装配技术、精密测试技术及信号处理等方向的研究.引用格式:徐兴辉,唐大林,顾书豪,等基于多智能体强化学习的微装配任务规划方法J计算机测量与

2、控制,():文章编号:()D O I:/j c n k i /t p 中图分类号:T P 文献标识码:A基于多智能体强化学习的微装配任务规划方法徐兴辉,唐大林,顾书豪,左家祺,王晓东,任同群,(大连理工大学 微纳米技术及系统辽宁省重点实验室,辽宁 大连 ;北京航天测控技术有限公司,北京 ;大连理工大学 高性能精密制造全国重点实验室,辽宁 大连 )摘要:现有装配任务规划方式多为人工规划,存在低效、高成本、易误操作等问题,为此分析了微装配操作的任务特点,以及对微装配中多操作臂协作与竞争关系进行了详细分析,并提出多智能体强化学习中符合微装配任务特点的动作空间、状态空间以及奖励函数的构建方法;利用C

3、o p p e l i a S i m仿真软件构建合理的仿真模型,对已有设备进行物理建模;构建了基于多智能体深度确定性策略梯度算法的学习模型并进行训练,在仿真环境中对设计的状态、动作空间以及奖励函数进行了逐项实验验证,最终获得了稳定的路径以及完整的任务实施方案;仿真结果表明,提出的环境构建方法,更契合直角坐标运动为主要框架的微装配任务,能够克服现有规划方法的不足,能够实现可实际工程化的多臂协同操作,提高任务的效率以及规划的自动化程度.关键词:多智能体强化学习;奖励函数;微装配;任务规划;仿真环境构建M i c r o a s s e m b l yT a s kP l a n n i n gM

4、 e t h o dB a s e do nM u l t i a g e n tR e i n f o r c e m e n tL e a r n i n gXUX i n g h u i,T ANGD a l i n,GUS h u h a o,Z UOJ i a q i,WANGX i a o d o n g,R E NT o n g q u n,(D a l i a nU n i v e r s i t yo fT e c h n o l o g y,S t a t eK e yL a b o r a t o r yo fH i g h P e r f o r m a n c eP

5、r e c i s i o nM a n u f a c t u r i n g,D a l i a n ,C h i n a;B e i j i n gA e r o s p a c eM e a s u r e m e n t&C o n t r o lT e c h n o l o g yC o,L t d,B e i j i n g ,C h i n a;D a l i a nU n i v e r s i t yo fT e c h n o l o g y,K e yL a b o r a t o r yf o rM i c r o/N a n oT e c h n o l o g

6、ya n dS y s t e mo fL i a o n i n gP r o v i n c e,D a l i a n ,C h i n a)A b s t r a c t:T h ee x i s t i n gp l a n n i n gm e t h o d sm o s t l ya r em a n u a lp l a n n i n g,w h i c hh a v ep r o b l e m ss u c ha s i n e f f i c i e n c y,h i g hc o s t,a n de a s ym i s o p e r a t i o n T

7、h u s,t h e c h a r a c t e r i s t i c so fm i c r o a s s e m b l yo p e r a t i o n t a s k s,c o l l a b o r a t i o na n dc o m p e t i t i o nr e l a t i o n s h i po fm i c r o a s s e m b l yo p e r a t i o na r ea n a l y z e d i nd e t a i l,a n dam e t h o d f o r t h ec o n s t r u c t i

8、 o no f a c t i o n,s t a t ea n dr e w a r dc o n d i t i o n s t h a t c o n f o r m s t o t h ec h a r a c t e r i s t i c so fm i c r o a s s e m b l yt a s k s i nm u l t i a g e n tr e i n f o r c e m e n tl e a r n i n g i sp r o p o s e d U s i n gC o p p e l i a S i ms i m u l a t i o ns o

9、f t w a r et om o d e l e x i s t i n ge q u i p m e n t p h y s i c a l l y,a l e a r n i n gm o d e l i sb u i l t a n d t r a i n e db a s e do nm u l t i a g e n t d e e pd e t e r m i n i s t i cp o l i c yg r a d i e n t a l g o r i t h m,t h e nt h ed e s i g n e da c t i o n,s t a t ea n dr

10、e w a r df u n c t i o na r ev e r i f i e de x p e r i m e n t a l l y i ns i m u l a t i o ne n v i r o n m e n t U l t i m a t e l yas t a b l ep a t ha n dc o m p l e t e t a s k i m p l e m e n t a t i o ns c h e m e i so b t a i n e d T h e s i m u l a t i o nr e s u l t s s h o wt h a t t h e

11、p r o p o s e dm e t h o d i sm o r e s u i t a b l e f o rt h em i c r o a s s e m b l yt a s kw i t hC a r t e s i a nc o o r d i n a t em o t i o na st h em a i nf r a m e w o r k,a n dc a no v e r c o m et h es h o r t c o m i n g so fe x i s t i n gp l a n n i n gm e t h o d s B e s i d e s,t h

12、 em e t h o dc a nr e a l i z e t h em u l t im a n i p u l a t o ra r mc o l l a b o r a t i v eo p e r a t i o n,w h i c hc a nb ep r a c t i c a l l ye n g i n e e r e da n d i m p r o v e t h ee f f i c i e n c yo f t h e t a s ka n dt h ea u t o m a t i o nd e g r e eo fp l a n n i n g K e y w

13、o r d s:m u l t i a g e n t r e i n f o r c e m e n t l e a r n i n g;r e w a r df u n c t i o n;m i c r o a s s e m b l y;t a s kp l a n n i n g;s i m u l a t i o ne n v i r o n m e n tc o n s t r u c t i o n引言国防高端武器中常用的传感器、惯性器件等,具有尺度小、精度高的特点,装配是其制造过程中的重要环节.装配任务就是基于视觉、力觉等传感器对作业环境的感知,控制引导多操作臂协作完成序列零

14、件的拾取、搬运、位姿调整对齐以及释放等操作,即多操作臂的协同操作.由于任务需要综合考虑装配序列信息,操作臂运动区域等条件,导致在操作臂前往目标位置的途中,难以始终保持连续、直线的运动路径,因此通常需要对任务路径进行规划.目前,大多在调试阶段通过多次人工试验找到一个优先保证安全的控制方案.然而这种方式相当耗时,且在试验过程中由于没有明确目标,容易操作失误,造成操作臂之间的投稿网址:w w wj s j c l y k z c o m计算机测量与控制第 卷 运动干涉,甚至产生硬件损坏.除此,人工方式不能全局规划,所得运动控制方案并非最优,势必牺牲一定的装配效率.此时,微装配任务自主规划就成为了传统

15、微装配演变成数字化智能微装配的关键手段之一.针对规划问题,典型的方法是人工势场法及其衍生的算法.其优点是收敛速度快,路径平滑,运行稳定.还有学者将各类智能搜索算法如遗传算法、模拟退火以及模糊控制算法等融入人工势场法,以此来增加算法的搜索能力,改善局部最优问题.微装配的任务由操作臂连续动作决策所构成,因此可将其归为序贯决策问题.强化学习(R L,r e i n f o r c e m e n t l e a r n i n g)的出现主要用于序贯决策问题,能够增加了操作臂的适应能力,且只需要操作臂在探索过程中不断地从错误中学习,即可得到稳定的路径.近年来,针对大维度数据带来的迭代复杂问题,有学者

16、将深度学习(D L,d e e p l e a r n i n g)融入R L中形成深度强化学习(D R L,d e e pr e i n f o r c e m e n tl e a r n i n g),如控制机械臂重新排列物体,完成协作任务,在非结构化区域中抓取目标对象.在装配领域,李彦江利用多智能体深度确定性策略梯度 算 法(MA D D P G,m u l t i a g e n td e e pd e t e r m i n i s t i cp o l i c yg r a d i e n t a l g o r i t h m)算法,实现了双关节臂的协同装配并进行了仿真验证.李

17、妍等将模糊贝叶斯与深度Q网络结合,提高了狭窄空间中的运行效率.微装配系统特有的支撑框架、直角坐标、空间密集使其对精度、空间等要求较高.而障碍物与目标点集中等特征加剧了迭代复杂、局部最优问题,因而传统的人工势场法等并不适用此类规划问题.一次任务中有不同的子任务,而各子任务的操作臂个数、障碍物布置等均不同,此类先验信息、环境信息的变化将导致使用智能搜索算法规划时需要重新构建环境,耗费了大量资 源.当 前D R L方 法 多 用 于 移 动 机 器 人 的 路 径 规划 、无人机导航与任务分配、以及实际生产线上的人机协作问题 等.然而上述工况与微装配任务特点差异较大,存在动作空间不符、奖励函数条件不

18、合理等可能导致微装配实物训练难度大的问题,以及精确度低的仿真环境可能导致训练失败.综上所述,提出了多智能体强化学习(MA R L,m u l t i a g e n t r e i n f o r c e m e n t l e a r n i n g)下更契合微装配任务的动作、状态、奖励条件的构建方法.同时,基于MA D D P G算法,利用C o p p e l i s i a m软件对已有测量设备进行物理建模,构建了任务的深度强化学习模型并进行训练得到可工程化的路径,实现了微装配设备的自主规划.多智能体强化学习算法 深度强化学习机制深度强化学习方法将深度学习较强的感知能力与强化学习具有的

19、决策能力相结合.主要思想是利用深度神经网络实现对原始低层特征输入的非线性变换,增强智能体的环境感知能力,并结合强化学习的探索能力,形成一种将原始环境状态输入直接映射为动作决策输出的端对端的学习方法.与强化学习一样,深度强化学习框架中也由智能体(A g e n t)、动作、状态及奖励等要素组成.策略(P o l i c y),状 态 集(S t a t e)与 动 作 空 间(A c t i o n):策略是智能体与环境交互时的行为选择依据,(s,a)智能体在状态s下根据选择动作a.状态空间S表示智能体状态信息的集合,是智能体训练过程中制定决策和获取长期收益的交互依据;动作空间A包含了智能体在某

20、状态下所能做出所有可选动作的集合.SA表示状态空间到动作空间的映射.奖励函数(R e w a r d):奖励函数r反映当前环境状态StS下所选择的动作AtA对达成目标的贡献度,其将任务目标具体化和数值化,是实现操作臂与环境之间交互的载体,影响着智能体策略的选择.奖励值是否合理,决定着智能体通过训练之后选择的动作能否有利于达成目标.价值函数(V a l u eF u n c t i o n):价值函数Q(s,a)表示某个状态下在选择某动作时的价值,其由带有折扣因子的未来奖励组成,因此表示选择动作的潜在价值.从定义上看,价值函数就是回报的期望:Rtrt rt rt()Q(s,a)E rtm a x

21、Q(st,at)|Sts,Ata()其中:为奖励的折扣因子.在D R L中,使用神经网络逼近拟合价值函数.经验回放池(E R,e x p e r i e n c e r e p l a y):深度学习对训练数据的假设是独立同分布的,然而在D R L中,训练数据由高度相关的“智能体环境交互序列”组成,不符合采样数据独立性条件.智能体在探索状态空间的不同部分时是主动学习的,因此训练数据的分布是非平稳的,不符合采样数据独立同分布条件.E R机制使D R L中的智能体能够记住并回放过去的经验数据,通过与最近数据混合,打破观测序列的时间相关性,有助于解决数据非独立同分布造成的问题.MA D D P G算

22、法由于微装配任务规划是一个典型的多操作臂问题,在利用多智能体强化学习进行求解时,存在环境不稳定问题,当前状态优化的策略在下一个变化的环境状态中可能又无效了,这就导致不能直接使用E R来进行训练,因此适用于单智能体的D R L方法需要改进.由L o w e等提出的MA D D P G算法将多智能体思想融入了基于深度强化学习的演员评论家算法,MA D D P G算法采用集中学习,分散执行的方法解决了多智能体竞争、合作或者竞争合作共存的复杂环境中存在的环境不稳定问题.集中学习指的是环境中的所有智能体的信息是全局共享,分散执行指智能体在做出决策时,仅依靠自己观测得到的环境情况进行选择合适的动作,无需其

23、他智能体的状态或动作,因此该算法解决了之前单智能体算法只能获得自己的状态动作的问题.微装配环境中,各操作臂既有多操作臂共同完成一项工作的合作关系,同时也有不同模块间避免干涉的竞争关系.因投稿网址:w w wj s j c l y k z c o m第期徐兴辉,等:基于多智能体强化学习的微装配任务规划方法 此在使用多智能体强化学习训练多操作臂时,应具体分析微装配任务特点设计合理的环境交互机制,对动作、状态,特别是奖励函数进行针对性设计.图MA D D P G算法框架示意图 微装配测量设备训练模型构建分析微装配任务特点:其通常采用直角坐标机器人,运动方式不能脱离支撑框架,难以完成顺滑的非直线运动轨

24、迹,因此一些高精度避障、协调的动作难以通过插补实现.同时,规避干涉时应尽量避免停顿和反向运动,以减小控制难度和装配精度损失;其次,多操作臂拥挤在狭小的操作空间内,既有协作也有竞争(运动干涉),使得规划求解空间有限;最后,操作臂的运动轨迹相对于操作空间多为长序列,且易干涉区域相对集中,使得协同运动时干涉的风险增加.动作、状态以及奖励函数构建以上述特点为依据.状态空间与动作空间构建状态空间的设计包括子任务划分、观测空间的建立.在微装配中,操作臂应尽量避免反向运动,但还是存在如操作臂取放工件,相机观测不同位置零件等难以避免反向运动的情况.因此可将这些装配任务中运动方向的临界位置作为各子任务的划分点,

25、既便于进行精度控制,又便于后续动作空间设计后续路径的训练.观测空间是状态空间的基础,决定了要对哪些操作臂的状态进行观测,并将观测结果输入策略网络以及价值评价网络.在进行观测时,各模块操作臂所处位置可作为观测空间的组成部分,为了便于网络输入,对实时位置应当进行归一化处理:R e l|prpf|PF()其中:pr是当前操作臂位置,pf是子任务中操作臂需要运动的总长度.同时,对于无碰路径,还需要对实体之间的碰撞情况进行观测,最终得到的观测空间为:SC o l l i s i o n,R l e()动作空间决定了操作臂动作库的动作数量.动作空间的设计应具有完备、高效以及合理的特点.在进行动作空间设计时

26、,应当对无效动作进行屏蔽.无效动作是指操作臂选择的动作违反其所处的实际环境.不同于无人机控制、关节机械臂的应用场景,微装配设备在运行时由于高精度要求,需要尽量避免停顿和反向运动的无效动作,以减少频繁启停和回程误差造成的装配精度损失,尤其在进行干涉规避时,更应避免随意反向运动等无效运动;停顿次数过多也会导致脉冲计数误差增大,增加操作臂的控制难度.因此微装配测量系统的子任务中,操作臂一旦朝向一个方向运动,原则上就不能再向反方向移动,但仍可以接受由于避碰而导致的较少次数的停顿.对于已经到达目标点的操作臂,其动作将始终为,因此动作空间设计为:Av,d i r,i f n o t r e a c ht

27、a r g e t,o t h e r w i s e()其中:v为操作臂所选择动作的速度,包括选择速度为的停顿,d i r为操作臂的运行方向.每一个s t e p开始时,都通过将操作臂当前的状态输入策略网络得到选择不同动作组合的概率,并以概率最大的动作组合作为该s t e p的动作.奖励函数设计操作臂的训练过程就是不断试错的过程,奖励函数作为评价操作臂所选择动作的好坏评价标准,直接决定了能否训练出成功的方案.微装配任务中,各操作臂通过环境给予的奖励得知自己在某一状态下采取的动作是否合理,因此奖励函数的本质是建立状态动作对与奖励之间的映射关系,并将这种关系用于对操作臂所采取的动作的评价和约束.

28、奖励函数直接影响了算法的收敛性,与微装配环境契合的奖励函数是实现设备无碰、高效的前提.各操作臂的首要任务是到达目标位置,因此奖励函数应具有吸引操作臂前往目标点的功能.以操作臂所处位置为自变量,构建主要的奖励函数为:R ppf()其中:p是操作臂当前位置与目标点之间的距离.pf是子任务中操作臂需要运动的总长度.该函数下,随着操作臂靠近目标点,p不断减少,则正向奖励值不断增大.动作空间中包含速度为的停止动作,对每个子任务而言,为了保证精度以及保证操作臂的运动可控性,频繁启停将会导致精度损失,显著增加控制难度,在规划时需要避免,因此操作臂的停顿次数应当越少越好.然而在MA D D P G算法中,为了

29、让操作臂保证一定的探索性,各动作的选择概率具有一定的随机性,所以对停顿次数过多的行为进行惩罚:R(ss)s()其中:s为子任务中操作臂选择动作为的s t e p个数,s为操作臂在路径中所经历的s t e p个数,为对应的系数.由于对于路径的要求还有无碰的要求,因此当操作臂产生碰撞时需要给予较大的惩罚,即为:Ra()其中:a为一常量,表示碰撞结果一经产生,就给予操作臂固定的惩罚.然而,微装配设备中多为狭小空间,多臂协同动作时碰撞极易发生,这导致操作臂即便通过大量投稿网址:w w wj s j c l y k z c o m计算机测量与控制第 卷 冗余试验也不能明白碰撞前的路径是低价值的,此时若仅

30、当产生碰撞时才惩罚,则会由于相关信息不直接而导致操作臂始终选择低价值动作,避碰失败,在这种情况下,操作臂需要通过大量冗余试验才能明白碰撞前的路径也是低价值的.其中,正是因为与控制目的相关的信息并未在奖励函数的设计中得到体现,而导致此类问题的产生.此时就需要使用奖励函数进行外部干预,这意味着奖励函数不仅需要对碰撞行为进行惩罚,还需要能够对碰撞进行预测.具体到微装配中,就是以实体对象之间的距离为依据,构建奖励函数为:R(dDt)()其中:为系数,用于调节该部分奖励函数对整体奖励的影响程度.Dt为碰撞检测阈值,d为实体之间的实时距离,当实体距离小于Dt时,则R为负值,对操作臂开始惩罚,反之进行正向奖

31、励.综上,可得符合微装配测量设备的奖励函数为R ppf(ss)sa(dDt)()微装配设备仿真 物理仿真环境搭建采用C o p p e l i a S i m软件对已有的测量设备进行物理建模,基于前述奖励函数的设计方法,在C o p p e l i a S i m中以MA D D P G算法进行训练并验证.训练过程中,利用仿真软件自身提供的实体间碰撞以及距离检测功能,实现零部件之间的距离检测和碰撞检测,操作臂实时位置监测等操作,这些信息通过软件的消息机制送给训练算法,再由训练算法处理并将得到的策略通过远程控制实现仿真运动,训练环境与仿真环境关系如图所示.目标设备为课题组研制的“航天陀螺仪气浮动

32、压马达间隙测量设备”,结构如图所示.设备中,由自由度操作臂协同完成马达轴向及径向m级间隙的测量任务.图训练环境以及仿真环境关系示意图C o p p e l i a S i m是一款机器人仿真平台,其具有完备的物理引擎,支持实体重构模型、距离检测、实体碰撞检测等,支持通过P y t h o n远程控制关节进行移动.为了节约仿真计算量,通常将复杂的模型部件进行重构,将各零部件有具有精准 细 节 的 实 体 转 换 为 凸 包 体,因 此 利 用 开 源 的V HA C D库对操作臂组成部分进行凸分解,实现粗略建模,同时由于对夹指、工件、测头等进行较为精细的重构,使凸包体与部件形状接近一致,如图所示

33、.最终得到的物图气浮轴承间隙测量设备实物图 理模型如图所示.图凸分解构建凸包体示意图图待规划设备在C o p p e l i a S i m中的物理模型虽然操作臂的运动是一个连续的动作,但连续运动时,持续性的碰撞检测将使得训练时间成本过高,如平均两个零部件之间的碰撞检测就需要 s的时间,导致操作臂连续运动时进行训练、处理仿真软件信息流的延迟过大.因此,将操作臂的连续运动简化为离散匀速运动,即在仿真环境中以操作臂在固定时间的位移表示其在实际设备中的速度.则在间隔时间确定的情况下建立操作臂在实际设备投稿网址:w w wj s j c l y k z c o m第期徐兴辉,等:基于多智能体强化学习的

34、微装配任务规划方法 中与仿真模型中运动的模型映射关系为:sv T()其中:T为确定的间隔时间,v为操作臂运行的实际速度.C o p p e l i a s i m机械臂控制器中的B a c k g r o u n dT a s k通过U D P向外部程序每隔 m s循环发送当前各轴位置,确定T为 m s的整倍数即可.基于MA D D P G算法构建设备操作臂的训练算法.对动作、状态空间以及奖励函数进行重构,各s t e p之间的间隔为T.仿真实验以图中的工件姿态旋转子任务为例,该子任务包含多臂协同、避障两个动作要求.旋转模块上的夹指沿Y轴运动并夹住工件后,操作臂的具体目标位置为:旋转模块Y轴执

35、行后退动作至限位位置使零件退出上料区域,在Y轴退出的同时,旋转模块R轴旋转 使马达由水平转至竖直状态.同时,三爪夹持模块的X轴与Z轴也同时向目标位置运动,以准备零件的对接工作.图工件姿态旋转子任务实验对象在P y c h a r m中搭建好基于P y t h o n的训练所需环境,然后使用基于MA D D P G算法的训练算法对设备整体进行多个e p i s o d e的训练.训练算法输出的策略通过封装好的函数对仿真软件中的物理模型进行远程控制.物理仿真环境中实时交互产生的操作臂位置、零部件间的距离、碰撞检测结果等作为观测值返回到训练算法.首先构建好训练所需的动作,状态空间.然后根据式()设计

36、仅以目标点吸引作为正向奖励的奖励函数,通过多次训练,得到两个操作臂位移变化曲线、动作选择曲线以及所经历的各位置处的奖励值如图所示.虽然位移的实际运动曲线显示操作臂成功避障并到达了目标位置,但由动作选择曲线可看出,操作臂运行时存在断断续续反复启停的问题,选择了过多无必要的零动作,无法保证连续稳定的运动,这违反了微装配任务规划的准则,如此频繁的启停增加了控制难度,不能契合微装配的操作特点,使得训练结果无法实际工程化.同时,该路径花费时长较大,使用了近 多个s t e p,观察实时奖励值可看到当操作臂选择了朝向目标位置的运动动作时,环境给图仅以目标点吸引的正向奖励为奖励函数予一定的奖励值,然而当操作

37、臂选择停止时,并无任何奖惩.因此,根据式()增加对停顿次数有约束效果的奖励函数,再次训练,可得到相关曲线如图所示.可以看到,动作选择曲线中再未出现操作臂频繁启停的现象,但由于缺少对碰撞的约束,操作臂始终在刚开始就产生碰撞,从图中可看出操作臂在第个s t e p就产生了碰撞.因此依据式()增加碰撞约束的奖励函数得到图路径曲线,经过训练后可以由运动曲线图和动作选择曲线看到,旋转模块R轴的积极性被打消,不再进行任何的旋转动作,这是由于操作臂运动初期在狭窄的空间中较易产生碰撞,进而很容易就得到很大的惩罚,导致探索难度增大,这种惩罚使得操作臂产生“积极性丧失”的现象.为了降低操作臂初期的探索难度,根据式

38、()对奖励函数进行改进,提升对碰撞情况的预测能力,得到各操作臂的相关曲线如图 所示.可以看到,旋转模块R轴在运动初期静止不动,直到Y轴操作臂运动了一定的距离后R轴的旋转运动才开始,最终实现避障,且为了避碰而产生的停顿集中,路径效率较高,在目标点吸引的正向奖励中做出更加有利于路径整体规划的动作选择.可以看出在该稳定路径下的一个e p i s o d e中,当操作臂未到达目标位置时,奖励值随s t e p的增加而稳定增加.从动作选择曲线中可看出,受奖励函数约束,动作选择能够保持稳定,符合微装配设备操作臂运行特点.结束语分析了微装配的任务特点,提出了微装配任务动作、投稿网址:w w wj s j c

39、 l y k z c o m计算机测量与控制第 卷 图增加停顿次数奖惩的路径曲线图增加碰撞约束奖励函数状态、奖励条件设计准则以及构建方法,使得多智能体深度强化学习与直角坐标下的微装配任务更契合,克服了现有环境不符合微装配特点的问题.在仿真软件中对已有的图 根据式()训练后的曲线图测量设备各零部件进行了凸分解.最后,基于MA D D P G算法模型进行训练,得到了完整的测量方案,并通过试验证明设计的奖励函数能够使得路径更加符合微装配的实际工况,为微装配自主规划提供了理论、技术支撑.参考文献:于忠洋微小磁性零件的自动化特征定位与装配控制 D大连:大连理工大学,王乾州磁钢组件自动装配设备及自动组装夹

40、具设计 D大连:大连理工大学,刘翊刚柔混合产品的装配工艺规划技术与应用研究 D武汉:华中科技大学,P ANZ H,L ID F,YANGK,e t a l M u l t i r o b o to b s t a c l ea v o i d a n c eb a s e do nt h ei m p r o v e da r t i f i c i a lp o t e n t i a l f i e l da n dP I Da d a p t i v et r a c k i n gc o n t r o la l g o r i t h mJ R o b o t i c a,():F

41、ANX J,GUOY J,L I U H,e ta l I m p r o v e da r t i f i c i a lp o t e n t i a lf i e l dm e t h o da p p l i e df o rAUVp a t hp l a n n i n gJ M a t h e m a t i c a lP r o b l e m s i nE n g i n e e r i n g,:马庆禄,黄光浩基于改进人工势场法的自动驾驶路径规划方法 J计算机仿真,():M I L A DN,E S MA E E LK,S AM I R A D M u l t i o b j

42、 e c t i v em u l t i r o b o tp a t h p l a n n i n gi nc o n t i n u o u se n v i r o n m e n tu s i n ga ne n h a n c e dg e n e t i ca l g o r i t h mJ E x p e r tS y s t e m sw i t h A p p l i c a t i o n s,:张殿富,刘福基于人工势场法的路径规划方法研究及展望J计算机工程与科学,():O R O Z C O R O S A SU,MO N T I E LO,R O B E R T

43、OS M o b i l er o 投稿网址:w w wj s j c l y k z c o m第期徐兴辉,等:基于多智能体强化学习的微装配任务规划方法 b o tp a t hp l a n n i n gu s i n gm e m b r a n ee v o l u t i o n a r ya r t i f i c i a lp o t e n t i a l f i e l dJ A p p l i e dS o f tC o m p u t i n g,:朱颖,李元鹏,张亚婉,等基于改进人工势场法的搬运机器人路径规划 J电子测量技术,():S O NGQ,L I UL M o

44、 b i l e r o b o t p a t hp l a n n i n gb a s e do nd y n a m i c f u z z ya r t i f i c i a lp o t e n t i a l f i e l dm e t h o dJJ o u r n a l o f I n f o r m a t i o na n d C o m p u t a t i o n a l S c i e n c e,():S UT T O NR S,B A R T OAG R e i n f o r c e m e n t l e a r n i n g:a n i n t

45、r o d u c t i o nJI E E ET r a n s a c t i o n so nN e u r a lN e t w o r k s,():YUAN W,S T O R K J A,K R AG I C D,e ta l R e a r r a n g e m e n tw i t hn o n p r e h e n s i l em a n i p u l a t i o nu s i n gd e e pr e i n f o r c e m e n t l e a n i n gC/I n t e r n a t i o n a lC o n f e r e n

46、c eo nR o b o t i c sa n dA u t o m a t i o n,刘钱源基于深度强化学习的双臂机器人物体抓取 D济南:山东大学,I R I O N D O A,L A Z KANO E,S U S P E R R E G I L,e ta l P i c ka n dp l a c eo p e r a t i o n si nl o g i s t i c su s i n ga m o b i l e m a n i p u l a t o rc o n t r o l l e dw i t hd e e pr e i n f o r c e m e n t l

47、e a r n i n gJA p p l i e dS c i e n c e sb a s e l,():李彦江一种基于多智能体强化学习的智能装配系统 D北京:北京邮电大学,李妍,甄成刚基于深度Q网络的虚拟装配路径规划 J计算机工程与设计,():张柏鑫,杨毅镔,朱华中,等基于深度强化学习的移动机器人动态路径规划算法 J计算机测量与控制,():,张浩杰,苏治宝,苏波基于深度Q网络学习的机器人端到端控 制 方 法 J仪 器 仪 表 学 报,():张堃,李珂,时昊天,等基于深度强化学习的UAV航路自主引导机动控制决策算法 J系统工程与电子技术,():金哲豪,刘安东,俞立基于G P R和深度强化学

48、习的分层人机协 作 控 制 J自 动 化 学 报,():赵立阳,常天庆,褚凯轩,等完全合作类多智能体深度强化学习综述 J计算机工程与应用,():L OWE R,WU Y,T AMA R A,e ta l M u l t i a g e n ta c t o rc r i t i c f o rm i x e dc o o p e r a t i v e c o m p e t i t i v ee n v i r o n m e n t sC/s tC o n f e r e n c eo n N e u r a lI n f o r m a t i o n P r o c e s s i n

49、 gS y s t e m s,王晓飞气浮陀螺仪轴承间隙测量系统研制 D大连:大连理工大学,(上接第 页)仝兆景,郑权,韩耀飞,等基于新滑模观测器的永磁同步电机无传感器控制 J电子科技,():崔波,方玲利,蒋全,等表贴式永磁同步电机高速无位置传感器控制技术比较研究 J电子科技,():J E O NGYS,L O R E N ZRD,J AHN ST M,e t a l I n i t i a l r o t o rp o s i t i o ne s t i m a t i o no f a n i n t e r i o rp e r m a n e n tm a g n e t s y n

50、 c h r o n o u sm a c h i n eu s i n gc a r r i e r f r e q u e n c yi n j e c t i o nm e t h o d sJI E E ET r a n s a c t i o no nI n d u s t r yA p p l i c a t i o n s,():陈小玲基于高频注入法的永磁同步电机转子磁极位置估计D成都:电子科技大学,XUNQ,WANGPL,C A IZD,e t a l H a l l r o t o rp o s i t i o ne s t i m a t i o nm e t h o da

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服