1、第40卷 第3期2 0 2 3 年 6 月沈 阳 航 空 航 天 大 学 学 报Journal of Shenyang Aerospace UniversityVol.40 No.3Jun.2 0 2 3高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制齐义文1,李 鑫1,张 弛1,姜渭宇2(1.沈阳航空航天大学 自动化学院,沈阳 110136;2.北京动力机械研究所 控制中心,北京 100074)摘要:提出一种基于深度强化学习的高空直连试验台进气压力模拟系统前馈补偿控制方法。研究并给出深度确定性策略梯度(deep deterministic policy gradient,DDPG)前馈
2、补偿控制器的状态参数选取、动作输出设计、奖励函数设置等关键步骤,有效提高了前馈控制器的扰动感知能力,解决了单纯PID控制器主导所带来的智能体局部最优问题。仿真结果表明:与单一PID控制器相比,所设计的控制器在高空舱进气压力扰动和发动机流量扰动下,均实现了进气压力的无超调控制,且调节时间更短,验证了DDPG智能前馈补偿控制设计的快速性、稳定性和鲁棒性。关键词:高空直连试验台;进气压力模拟系统;前馈补偿控制;强化学习;深度确定性策略梯度中图分类号:V217+.21 文献标志码:Adoi:10.3969/j.issn.2095-1248.2023.03.006DDPG feedforward com
3、pensation intelligent control for intake pressure simulation system of high-altitude direct-connected test benchQI Yi-wen1,LI Xin1,ZHANG Chi1,JIANG Wei-yu2(1.College of Automation,Shenyang Aerospace University,Shenyang 110136,China;2.Control Center,Beijing Power Machinery Institute,Beijing 100074,Ch
4、ina)Abstract:A feedforward compensation control method for the intake pressure simulation system of high-altitude direct-connected test bench based on deep reinforcement learning was proposed.The key steps of state parameter selection,action output design and reward function setting of the Deep Dete
5、rministic Policy Gradient(DDPG)feedforward compensation controller were given,which effectively improved the disturbance perception ability of the controller and solved the agent local optimal problem caused by the dominance of a single PID controller.The simulation results show that,compared with t
6、he single PID controller,the controller designed can achieve no overshoot control of the intake 收稿日期:2022-05-26基金项目:国家自然科学基金(项目编号:61873172);国家科技重大专项(项目编号:2017-V-0014-0066);中央引导地方科技发展专项(项目编号:2021JH6/10500162);辽宁省教育厅项目(项目编号:JYT2020154);热能动力技术重点实验室开放基金(项目编号:TPL2020C01)作者简介:齐义文(1983-),男,辽宁丹东人,教授,博士,主要研究
7、方向:先进动力系统与智能控制,E-mail:。文章编号:2095-1248(2023)03-0044-12齐义文,等:高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制第 3 期pressure under the disturbance of the intake pressure of the high-altitude cabin and the disturbance of the engine flow,and the adjustment time is shorter.The rapidity,stability and robustness of the DDPG inte
8、lligent feedforward compensation control design are verified.Key words:high-altitude direct-connected test bench;intake pressure simulation system;feedforward compensation control;reinforcement learning;DDPG高空直连试验台(简称高空台)作为发动机设计、定型、改进改型、故障再现与排除的关键试验设备,模拟并为发动机提供工作包线内不同飞行环境的压力、温度1。其中,进气压力模拟系统作为关键设备之一,
9、其控制品质的优劣直接决定试验效果2。在高空台直连试验过程中,发动机起动、加减速等状态所导致的流量瞬变问题对进气压力调节系统造成较大干扰,发动机流量在12 s内变化范围可达80100,致使进气压力调节系统受到大幅值阶跃干扰。如何消除此类扰动对系统的影响,是获得快速、鲁棒、高精度的稳/动态控制性能的关键3。而PID控制、自抗扰控制、模糊控制等传统控制方法存在响应速度较慢、鲁棒性较弱等局限,难以达到理想的控制效能。因此,探索性能更优异、设计更简便、响应速度更快的控制方法十分必要。强化学习方法作为人工智能技术研究热点与前沿之一,具有不依赖模型、自学习、自更新等优点,可通过试错方式不断积累经验,完善控制
10、策略,是解决复杂系统控制设计难题的一种有效手段4。强化学习在控制领域已有较多应用,Dorokhova等5提出一种基于深度强化学习的电动汽车充电控制方法,解决了充电模式对电网的不良影响。Mahmoud 等6通过强化学习方法来调节分布式发电源的输出电压,该控制器引入值迭代算法,实现不同电力干扰下的鲁棒控制。Gupta等7提出一种基于深度强化学习的加热控制器,提高智能建筑热舒适度的同时最大限度地降低了能源成本。Pi等8提出一种基于强化学习的四旋翼控制策略,解决了阵风等外界干扰下的四旋翼定位难题。赵纯等9提出一种深度 Q-Learning的交通信号灯配时优化方案,基于经验回放机制,运用深度神经网络进行
11、训练和输出预测。李岩等10提出一种三流道自适应循环发动机的确定性策略梯度控制算法,通过在线优化压比计划,实现控制规律自主寻优。裴培等11提出一种深度强化学习理论的制导控制一体化算法,智能体根据导弹观测量生成舵偏转角控制指令准确拦截目标。张汲宇等12提出一种基于深度强化学习优化的智能分层控制器,智能体通过优化串级PI控制器获得了更好的控制性能。在高空台进气压力模拟系统控制方面,张松等13提出一种复合控制技术,将PID控制与模糊控制相结合,构成兼具两者优点的压力模拟控制系统。朱美印等14提出一种基于 LMI极点配置的PI增益调度控制设计方法,根据线性模型推导了基于LMI极点配置的PI控制器设计方法
12、。乔彦平等15提出一种遗传算法优化的进气压力模拟系统,设计对应的适应度函数,实现了PID参数的全局优化。周家林等16提出一种基于模糊自适应PID控制器的自动调压技术,并对真实加减速过程中空气流量的调节进行了仿真验证。尽管高空台进气压力模拟系统的控制研究取得了一些进展,但多采用遗传算法优化、PID变参控制等方法,但强化学习方法在本领域的应用仍为空白。而基于强化学习的前馈补偿方法具有不依赖模型的优点,对于强非线性、复杂程度高的进气压力模拟系统而言,可有效降低控制设计难度,提高系统抗干扰能45沈 阳 航 空 航 天 大 学 学 报第 40 卷力,其自学习、自更新特性可实现进气压力模拟系统的高性能控制
13、。因此,结合PID控制,本文提出一种基于深度确定性策略梯度(deep deterministic policy gradient,DDPG)的前馈补偿控制方法,通过DDPG方法对高空台进气压力模拟系统流量、压力等扰动进行前馈补偿控制,大大降低PID控制器负担,并通过仿真验证了所提出方法的快速性、准确性、稳定性和鲁棒性。1高空台进气压力模拟系统描述本文考虑的高空台进气压力模拟系统模型结构如图1所示。高空台进气压力模拟系统主要包括:气源总管、进气流量调节阀门V1、进气压力调节阀门 V6、旁路放气调节阀门 V4 和高空舱等部分。气源总管为高空台进气压力模拟系统提供恒定压力和温度的气流,进气流量调节阀
14、门V1主要调节进气模拟系统的总流量,进气压力调节阀门V6和旁路放气调节阀门 V4 主要调节进气模拟系统中高空舱的进气压力。高空直连试验过程中,阀门V1根据高空舱内发动机流量需求来调整阀门开度,阀门 V4用于调节阀门 V6 前压力,将多余空气外排,阀门V6 调节高空舱进气压力及内部发动机进气流量。高空台进气压力模拟系统PID控制原理如图 2所示,PID控制器的输入为高空舱进气压力误差,输出为阀门V6开度(范围为01),为降低控制系统负担(减少控制器输出自由度)的同时提高系统调压范围和性能,保持阀门V6与V4开度相加为1。2基于深度强化学习的高空台进气压力模拟系统前馈补偿控制设计2.1控制原理控制
15、原理前馈控制属于一种开环调节方式,通过观测扰动的变化,正确预测控制偏差,进而提前补偿干扰,维持系统稳定输出。而反馈控制利用误差使控制器发挥作用,故其调节速度滞后于内/外部干扰作用。与反馈控制相比,前馈补偿控制通过读取干扰值并将其引入反馈调节,具有更快的调节速度,故前馈-反馈组合的控制方式可在减小误差的基础上,进一步提高系统抗扰能力。基于DDPG的前馈补偿控制原理如图3所示,状态空间是智能体感知进气压力(通过测量进气总压得到)模拟系统运行状态的集合,包括进气压力的误差、误差微分、误差积分等,奖励函数输入为进气压力误差。DDPG智能体通过状态空间感知系统特征,在不同状态下,奖励机制指导其做出最优决
16、策,即智能体输出前馈补偿动作。DDPG智能体的前馈补偿训练过程与PID控制过程同步,当系统出现扰动(如进气压力扰动、发动机流量扰动等)时,在反馈控制器还未及时调整时,智能体便可根据系统当前状态和扰动量进行前馈补偿控制,即智能体输出相应动作,并与PID反馈控制器输出相加得到最终的控制输出(阀门开度),以达到更好的控制效能。2.2控制器设计控制器设计DDPG是一种融合基于值与策略的强化学图1高空台进气压力模拟系统结构图图2高空台进气压力模拟系统PID控制原理图46齐义文,等:高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制第 3 期习算法,明显不同于深度 Q 网络(deep Q nerwor
17、k,DQN)算法,DDPG算法可以处理连续动作17。DDPG算法将神经网络与行动器评价器(actor-critic,AC)框架相结合,AC算法包含行动函数和评价函数,行动函数 Actor生成智能体agent与环境交互的动作;评价函数Critic用于评价智能体agent执行动作的优劣性。在DDPG算法中,采用深度神经网络近似行动函数和评价函数,共包括 4 个神经网络,其作用是:Actor估计网络与环境交互;Critic估计网络通过交互信息更新自身参数,并指导 Actor估计网络更新;Actor目标网络与Critic目标网络预测下一时刻动作与动作价值函数。DDPG算法框架如图4所示。基于 DDPG
18、 算法的前馈补偿控制器设计包括如下3部分。(1)状态与动作参数选取状态是智能体感知环境的特征表达,是动作选择的基础。为降低神经网络的拟合难度,状态参数需直观反映高空台进气压力模拟系统的运行特征。此外,动作参数与状态参数之间需具有明确对应关系,否则会增加网络训练难度,甚至无法收敛。本设计将可表征进气压力模拟系统运行特征的进气总压误差、误差积分、误差微分、发动机流量、PID控制器输出、DDPG 动作输出作为状态参数。在设计初期,考虑到系统进气总压误差为主要性能指标,同时前馈控制器需具有扰动感知能力,故选取进气总压误差、发动机流量作为控制器输入的状态参数;选取阀门 V6开度作为控制器输出参数,且将阀
19、门 V4 与 V6 联合控制,即两者开度之和恒定保持为 1,其余阀门开度根据试验过程所需设置为固定值。在网络训练时,通过给定不同目标进气总压指令来满足高空舱对发动机不同运行状态进气总压的需求。图3基于DDPG的前馈补偿控制原理图图4DDPG算法框架图47沈 阳 航 空 航 天 大 学 学 报第 40 卷在实际训练过程中,由于PID控制器的参与,即使智能体输出动作维持不变,反馈控制器仍可减少进气总压误差,此时智能体由于得到一定奖励而陷入局部最优,无法达到较好的前馈补偿控制效果。因此,对状态和动作参数进行了再设计。为解决陷入局部最优问题,将PID控制器输出、DDPG控制器输出作为状态参数,将动作输
20、出范围限定为-0.30.3,对应阀门V6开度为减小30至增加30;此外,为解决系统迟滞问题、提高智能体动作预测能力,将包含历史数据的误差积分和包含误差趋势的误差微分作为状态参数。据此,最终完成状态与动作参数选取。(2)奖励函数设计奖励函数设计的合理性直接决定网络能否收敛、收敛效果及控制精度。奖励条件与控制目标还需具有确切关系,以起到对网络训练的有效指导作用。此处设计的奖励函数由进气总压误差决定,误差绝对值越小,奖励值越大。设计初期采用的奖励函数如式(1)所示r=0 0 kPa|Pt_e1 kPa-1 1 kPa|Pt_e3 kPa-2 3 kPa|Pt_e5 kPa-5 5 kPa|Pt_e1
21、0 kPa-10 10 kPa|Pt_e20 kPa-15 20 kPa|Pt_e(1)式中:Pt_e为进气总压误差;r为奖励值。该分段奖励函数的权重设计思路为:进气总压误差越大,奖励值越低(扣分越多),即进气总压误差与所得奖励成反比,且所能得到的最大奖励为0,分段奖励函数曲线如图5所示。小稳态误差下的奖励值没变化,故智能体无法进一步优化稳态误差,无法满足控制要求,原因为稳态误差在1kPa以内时,奖励函数值不变。因此,对进气总压误差与奖励条件做了进一步设计,使得稳态误差在1kPa以内的奖励函数仍与进气总压误差成反比,如图6所示,以达到高性能的控制目标,改进后的奖励函数如式(2)所示r=-10P
22、2t_e(2)最终,采用式(2)的奖励函数,有效减小了稳态误差,提高了控制精度。(3)网络设计与更新本文设置 Actor网络含有两个隐藏层,激活函数为 Relu 函数,层与层之间为全连接方式;Critic网络结构较为复杂,由状态网络和动作网络经过相加层后,通过两个隐藏层,激活函数为Relu函数,其中,状态网络和动作网络均含3个隐藏层。神经网络结构如图7所示。1)Actor估计网络设计以高空台进气压力模拟系统状态参数s作为Actor估计网络输入,输出对应阀门开度aV6,更新进气模拟系统状态 s并得到奖励 r,动作aV6与状态s的关系为aV6=ea2T(ea1Ts-bea)+N(3)式中:aV6R
23、为阀门开度;ea1Rnm与ea2Rml均图5分段奖励函数图6改进后奖励函数48齐义文,等:高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制第 3 期为权重矩阵;beaRm为偏置列向量;NR为添加的高斯噪声,且随着网络迭代次数增加,噪声强度逐渐减弱,以此来解决训练过程前、后期不同的探索与收敛需求。2)Critic估计网络设计用 Critic 估计网络评价 Actor 估计网络在当前进气压力模拟系统状态s下输出阀门开度动作aV6的优劣,以s和aV6作为Critic估计网络输入,输出评价函数Qc(s,aV6)Qc(saV6)=ec2T(ec1T VsVaV6-bec1)Vs=ec5T(ec4T
24、(ec3Ts-bec2)-bec3)VaV6=ec8T(ec7T(ec6Ts-bec4)-bec5)(4)式中:ec1R(n+l)m、ec3ec5Rnk、ec6ec8Rlj为权重矩阵;ec2Rm为权重列向量;bec1Rn+l、bec2bec3Rk、bec4bec5Rj为偏置列向量。3)Actor与Critic目标网络设计Actor 目标网络、Critic 目标网络分别与Actor估计网络、Critic估计网络初始参数及网络结构完全一致。Actor 目标网络以 Actor 估计网络作用后的进气压力模拟系统 s作为输入,输出新的阀门开度动作aV6,Critic目标网络以s和aV6作为输入,输出评价
25、函数Qc(s,aV6)。4)网络更新Critic 估计网络的反向传播误差如式(5)所示Jec=1qi=1q()yi-Qc()siaV6i2(5)式中:q为采样个数;yi为目标评价函数值,计算公式如式(6)所示yi=ri is_done=1ri+Qc()saV6 is_done=0(6)式中:ri为奖励;为折扣因子,取值范围为01。基于此,可得出Critic估计网络权重与偏置更新公式eci=eci-ec(Jececi)Ti=128(7)beci=beci-ec(Jecbeci)Ti=125(8)式中:ec为Critic估计网络更新步长。为减小Critic估计网络的反向传播误差Jec,Actor估
26、计网络需输出使评价函数Qc(s,aV6)值更大的阀门开度动作aV6,Actor估计网络的反向传播误差如式(9)所示Jea=-1qi=1qQc()siaV6i(9)基于此,可得出 Actor估计网络权重与偏置更新公式,如式(10)和(11)所示eai=eai-ea(Jeaeai)Ti=12(10)bea=bea-ea(Jeabea)T(11)目标网络与估计网络具有不同的更新频率,以减弱网络间的耦合性。目标网络以软更新的方式更新权重与偏置,即每次只以较小幅度更新网络参数。Critic目标网络更新公式为tci=eci+(1-)tcii=128(12)btci=beci+(1-)btcii=125(1
27、3)Actor目标网络更新公式为tai=eai+(1-)taii=12(14)bta=bea+(1-)bta(15)式(12)(15)中:为0.1以下的更新系数。以上为基于 DDPG 算法的前馈补偿控制器设计内容,具体的 DDPG 前馈补偿控制器图7神经网络结构图49沈 阳 航 空 航 天 大 学 学 报第 40 卷学习训练过程为:首先,选择进气压力模拟系统状态集合,用以表征系统运行状态,且选取的状态集合包括 PID 控制器输出信息。其次,构造前馈补偿控制器输出动作(阀门 V6开度),特别地,将输出动作与前馈系数相乘并与PID控制器输出相加作为新的阀门V6开度,前馈系数用于限定前馈补偿控制器输
28、出范围,前馈系数取值为 01。然后,设计深度神经网络,并设定网络收敛条件(奖励达到的设定阈值),由经验集合采样(如图 4所示)进行网络更新,若达到收敛条件则停止网络更新。最后,使用训练完的神经网络与 PID 协同控制,实现基于 DDPG 算法的高空直连试验台进气压力模拟系统前馈补偿智能控制,控制方法流程如图8所示。3仿真验证与分析对所设计的 DDPG 前馈补偿控制器进行仿真验证,具体包括:进气压力扰动仿真验证和发动机流量扰动仿真验证。进气压力扰动仿真包括阶跃信号扰动、匀速斜坡信号扰动和加速信号扰动仿真。在阶跃信号扰动仿真过程中,进气总压调节跨度达到 130190 kPa,发动机流量保持不变,流
29、量均进行了归一化处理,单位无量纲,如图 911 所示。3 次试验的目标进气总压初始值分别为 130 kPa、150 kPa 和 170 kPa,第10 s阶跃上升20 kPa,第20 s阶跃下降20 kPa,由此验证进气压力扰动下的控制设计性能。图8进气压力模拟系统DDPG前馈补偿控制方法流程图图9压力阶跃信号扰动下仿真对比曲线(初始压力为130 kPa)50齐义文,等:高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制第 3 期(与 单 纯 PID 控 制 器 相 比,本 文 所 设 计 的DDPG 前馈补偿控制器同 PID 控制器联合作用,实现了对进气压力的无超调控制,且调节时间更快(
30、4s)。具体为,当目标压力突变时,DDPG前馈补偿控制器分别在初始0时刻、第10 s和第20 s输出非零前馈补偿量,以提前消除进气总压误差。同时在 PID 控制器的调节下,补偿量逐渐稳定,且在匀速斜坡信号扰动图10压力阶跃扰信号动下仿真对比曲线(初始压力为150 kPa)图11压力阶跃信号扰动下仿真对比曲线(初始压力为170 kPa)51沈 阳 航 空 航 天 大 学 学 报第 40 卷和加速信号扰动仿真过程中,DDPG前馈补偿控制器也表现出更优的控制性能,实现了进气压力扰动下的智能自学习前馈补偿控制),如图12、13所示。图12压力匀速斜坡信号扰动下仿真对比曲线图13压力加速信号扰动下仿真对
31、比曲线发动机流量扰动仿真包括阶跃信号扰动、匀速斜坡信号扰动和加速信号扰动仿真。如图1416所示。在阶跃信号扰动仿真过程中,发动机流量跨度为0.3751,流量均进行了归一化处理,单位无量纲,3 次试验的发动机流量初始值分别为0.375、0.625和0.875,第10 s阶跃上升0.125,第20 s阶跃下降至初始流量。目标进气总压保持 150 kPa不变,实际进气总压受发动机流量影响:当流量增大时,即高空舱进气通道空气被发动机抽吸,导致实际进气总压降低;当流量减小时,即高空舱进气通道空气流量高于发动机需求流量,导致实际进气总压升高。在发动机流量受扰情况下(与单纯PID控制器相比,本文所设计的DD
32、PG前馈补偿控制器同PID控制器联合作用,实现了对进气压力的无超调控制,且调节时间更快(4 s)。具体为,当实际进气总压因发动机流量扰动而变化时,DDPG前馈补偿控制器分别在初始 0时刻、第 10 s 和第 20 s 输出非零前馈补偿量(如图14所示),以提前消除进气总压误差,同时在 PID 控制器的调节下,补偿量逐渐稳定,图14发动机流量阶跃信号扰动下仿真曲线(初始流量为0.375)52齐义文,等:高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制第 3 期且在匀速斜坡信号扰动和加速信号扰动仿真过程中,DDPG前馈补偿控制器也表现出更优的控制性能,实现了发动机流量扰动下的智能、自学习、强
33、抗扰前馈补偿控制)如图17、18所示。图15发动机流量阶跃信号扰动下仿真曲线(初始流量为0.625)图16发动机流量阶跃信号扰动下仿真曲线(初始流量为0.875)53沈 阳 航 空 航 天 大 学 学 报第 40 卷图17发动机流量匀速斜坡信号扰动下仿真对比曲线图18发动机流量加速信号扰动下仿真对比曲线综上,在遭受进气压力和发动机流量的不同扰动下,所提出的基于深度强化学习的高空台进气压力模拟系统前馈补偿控制表现出更优的快速性、稳定性和鲁棒性,实现了高性能、高精度的智能自学习控制。4结论本文提出一种高空台进气压力模拟系统DDPG前馈补偿智能控制,得到如下结论:(1)基于深度强化学习算法的前馈补偿
34、控制方法对于高空台进气压力模拟系统这类结构复杂、耦合关联程度高的非线性系统有较好控制效果,与单纯PID控制器相比,本文所设计控制器在高空舱进气压力扰动和发动机流量扰动下,均实现了进气压力的无超调控制,且调节时间更短;(2)选取表征高空台进气压力模拟系统扰动变化的数据作为状态参数,可有效提高前馈控制的扰动感知能力,如将进气总压误差、发动机流量作为控制器输入状态参数;(3)对智能体动作输出进行范围限定可有效解决PID控制器主导作用带来的智能体陷入局部最优问题。参考文献(References):1侯敏杰.高空模拟试验技术 M.北京:航空工业出版社,2014.2田金虎,但志宏,张松,等.高空台环境模拟
35、控制技术 J.航空动力,2021(3):64-68.3但志宏,侯敏杰,石小江,等.大流量航空发动机高空模拟进气压力智能与复合控制技术 J.燃气涡轮试验与研究,2011,24(2):13-16.4Wen Y,Si J,Brandt A,et al.Online reinforcement learning control for the personalization of a robotic knee prosthesisJ.IEEE Transactions on Cybernetics,2020,50(6):2346-2356.5Dorokhova M,Martinson Y,Ballif
36、 C,et al.Deep reinforcement learning control of electric vehicle charging in the presence of photovoltaic generationJ.Applied Energy,2021,301:117504.6Mahmoud M S,Abouheaf M,Sharaf A.Reinforcement learning control approach for autonomous microgrids J.International Journal of Modelling and Simulation,
37、2021,41(1):1-10.7Gupta A,Badr Y,Negahban A,et al.Energy-efficient heating control for smart buildings with deep reinforcement learningJ.Journal of Building Engineering,2021,34:101739.8Pi C H,Ye W Y,Cheng S.Robust quadrotor control through reinforcement learning with disturbance compensationJ.Applied
38、 Sciences,2021,11(7):3257.9赵纯,董小明.基于深度Q-Learning的信号灯配时优化研究 J.计算机技术与发展,2021,31(8):198-203.10李岩,聂聆聪,牟春晖,等.自适应循环发动机性能智能在线寻优算法研究 J.推进技术,2021,54齐义文,等:高空直连试验台进气压力模拟系统DDPG前馈补偿智能控制第 3 期42(8):1716-1724.11裴培,何绍溟,王江,等.一种深度强化学习制导控制一体化算法 J.宇航学报,2021,42(10):1293-1304.12张汲宇,夏虹,彭彬森,等.基于深度强化学习的蒸汽发生器水位控制 J.哈尔滨工程大学学报,
39、2021,42(12):1754-1761.13张松,郭迎清,侯敏杰,等.复合控制技术在高空台进排气调压系统中的技术研究 J.测控技术,2009,28(11):29-33.14朱美印,王曦,张松,等.基于LMI极点配置的高空台飞行环境模拟系统 PI 增益调度控制研究J.推进技术,2019,40(11):2587-2597.15乔彦平,黄单.基于遗传算法的高空台进排气控制仿真研究 J.测控技术,2012,31(6):83-86.16周家林,敖永平,侯俊林,等.基于模糊自适应PID控制器的自动调压技术 J.燃气涡轮试验与研究,2017,30(3):53-56.17万典典,刘智伟,陈语,等.基于DDPG算法的冰蓄冷空调系统运行策略优化J.控制工程,2022,29(3):441-446.(责任编辑:刘划 英文审校:杜文友)55