收藏 分销(赏)

基于光纤陀螺的温度补偿模型改进、压缩和FPGA实现.pdf

上传人:自信****多点 文档编号:2401836 上传时间:2024-05-29 格式:PDF 页数:9 大小:1.49MB
下载 相关 举报
基于光纤陀螺的温度补偿模型改进、压缩和FPGA实现.pdf_第1页
第1页 / 共9页
基于光纤陀螺的温度补偿模型改进、压缩和FPGA实现.pdf_第2页
第2页 / 共9页
基于光纤陀螺的温度补偿模型改进、压缩和FPGA实现.pdf_第3页
第3页 / 共9页
亲,该文档总共9页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 32 卷第 1 期 中国惯性技术学报 Vol.32 No.1 2024 年 01 月 Journal of Chinese Inertial Technology Jan.2024 收稿日期:收稿日期:2023-07-21;修回日期:修回日期:2023-12-11 基金项目:基金项目:国家自然科学基金(61875016)作者简介:作者简介:杨雷静(1985),女,特聘副研究员,博士生导师,从事惯性导航、FPGA开发方向的研究。文章编号:文章编号:1005-6734(2024)01-0079-09 doi.10.13695/ki.12-1222/o3.2024.01.011 基于光纤陀螺的温

2、度补偿模型改进、压缩和基于光纤陀螺的温度补偿模型改进、压缩和 FPGA 实现 实现 杨雷静1,王竣可1,苏 杭2(1.北京邮电大学 电子工程学院,北京 100876;2.湖北三江航天红峰控制有限公司,孝感 432100)摘要:摘要:为提高光纤陀螺(FOG)在变温环境下输出误差的补偿精度,在长短期记忆神经网络模型(LSTM)基础上,利用分段非线性粒子群算法(PN-PSO)对 LSTM 模型超参数寻优,建立 PN-PSO-LSTM 光纤陀螺温度补偿模型。为有效降低计算和存储开销,便于部署在资源受限的硬件环境中,提出一套适用于光纤陀螺应用场景的模型压缩方案,包括:知识蒸馏、剪枝、激活函数线性化、定点

3、数量化等。最后基于 Xilinx 公司某芯片完成部署。对比实验结果表明,相较于传统反向传播(BP)模型和传统PSO-LSTM 模型,采用所提模型补偿后,陀螺零偏输出均方误差分别降低 74.4%和 53.5%,模型压缩后在大小减小 94.1%的同时,陀螺零偏输出均方误差仍然比传统全精度模型更低,在 FPGA 实现后对比 PC 端模型推理速度提升 98.47%。关 键 词:关 键 词:光纤陀螺;长短期记忆神经网络模型;温度补偿;模型压缩 中图分类号:中图分类号:U666.1 文献标志码:文献标志码:A Improvement,compression,and FPGA implementation

4、of temperature compensation model based on fiber-optic gyroscopes YANG Leijing1,WANG Junke1,SU Hang2(1.School of Electrical and Electronic Engineering,Beijing University of Posts and Telecommunications,Beijing 100876,China;2.Hubei Sanjiang Aerospace Hongfeng Control Co.,Ltd,Xiaogan 432100,China)Abst

5、ract:To improve the output error compensation accuracy of fiber optic gyroscope(FOG)in variable temperature environments,the piecewise nonlinear particle swarm optimization(PN-PSO)is used to optimize the hyperparameters of the long and short-term memory neural network(LSTM),and the PN-PSO-LSTM model

6、 for compensating the output error of FOG is established.In order to effectively reduce the computation and storage overhead and facilitate deployment in resource-constrained hardware environments,a set of model compression schemes suitable for FOG application scenarios are proposed,including knowle

7、dge distillation,pruning,linearization of activation function,quantization of fixed points,etc.Finally,the deployment is completed based on a chip from Xilinx.Comparison experimental results show that compared with the traditional BP model and traditional PSO-LSTM model,the gyro zero-bias output mea

8、n square error is reduced by 74.4%and 53.5%respectively after using the proposed model compensation,and the gyro zero-bias output mean square error is still lower than the traditional full-precision model after model compression while the size is reduced by 94.1%,and the model reasoning speed is inc

9、reased by 98.47%compared with that of PC model after the implementation in FPGA.Key words:fiber-optic gyroscope;LSTM;temperature compensation;model compression 1913 年,法国科学家 G.Sagnac 提出了 Sagnac 效应,即沿闭合光路相向传播的两光波之间的相位差正比于闭合光路法向的输入角速度1。基于此原理,并结合光纤通信器件技术与工艺基础的发展,1976 年,美国 Utah 大学 Victor Vali 和 Richard W

10、.Shorthill 在实验室成功演示了第一个光纤陀螺仪(Fiber-Optic 80 中国惯性技术学报 第 32 卷 Gyroscope,FOG),标志着 FOG 的诞生2。其应用范围非常广泛,主要包括惯导系统、汽车和船舶导航、无人机和机器人、防震和平稳系统、航空航天工业、石油和天然气勘探等多个领域3。FOG 中核心光电子器件受温度的影响性能指标会发生变化,主要受温度影响的是光纤环,根据 Shupe 理论,温度环境变化会直接导致 FOG 产生相位误差,从而导致 FOG 的零偏误差增大4。由温度变化引起的 FOG 零偏误差是非线性的,即随着温变速度的变化,漂移量不是恒定的,常常受到一段时间内大

11、范围温度变化的影响,需要进行复杂的补偿和校准。针对 FOG 受温度变化影响带来的零偏误差,研究人员建立了多种模型进行温度误差补偿。总体而言,分为传统温度补偿模型和神经网络温度补偿模型,传统的温度补偿模型有多项式算法、支持向量机等5,相较而言,神经网络对于复杂非线性关系具有良好的逼近能力,模型补偿精度高,近年来,运用神经网络模型对 FOG 进行温度补偿成为探索趋势。有学者采用反向传播(Back Propagation,BP)神经网络以及各种改进 BP 神经网络模型来补偿 FOG 温度误差6。但 FOG 的输出常常不是受到某一时刻的温度影响,在一段时间范围内温度的变化都会影响 FOG 的输出,而

12、BP 神经网络简单的全连接(Fully Connected,FC)结构只能依据单一时刻温度影响来补偿对应的温度误差,导致补偿精度有限;有学者提出采用循环神经网络(Recurrent Neural Network,RNN)来补偿 FOG温度误差,凭借 RNN 的记忆性特点,可以有效改进BP 神经网络模型的不足7,但是 RNN 只能记忆上一时刻的输入值,对于全局的拟合效果不佳;有学者提出采用长短期记忆神经网络模型(Long Short-Term Memory,LSTM)对 FOG 进行温度补偿8,LSTM 模型可以解决 RNN 存在的长距离依赖以及梯度消失和梯度爆炸的问题,而对于 LSTM 中的超

13、参数选择,常常通过试凑法决定,不具有客观性,导致最终建模效果不佳。针对该问题,本文通过将粒子群算法(Particle Swarm Optimization,PSO)的惯性权重,个体学习因子,社会学习因子由固定值改变为分段非线性(Piecewise Nonlinear,PN)的动态值,对 LSTM 模型超参数进行寻优,建立了 PN-PSO-LSTM 模型。实验结果表明,与 BP 神经网络模型、传统 PSO-LSTM 模型相比,本文提出的 PN-PSO-LSTM 模型补偿精度更高。在 FOG 诸多应用场景中,对实时性需求非常高,因为它直接影响系统的响应速度、稳定性和准确性,比如在航空航天、船舶和车

14、辆导航系统中,需要实时获取和处理陀螺仪提供的角速度和方向信息,以确保航行的准确性和安全性。采用神经网络模型来提高补偿精度时,其巨大的参数量和模型深度导致无法在计算资源有限的硬件设备进行推理,如何满足 FOG 实时性的需求是非常重要的研究课题。本文在综合考虑FOG 实际应用场景、模型参数数量以及模型输出精度后,为上述得到的优化模型提出了一套合适的压缩方案来解决神经网络对硬件资源消耗大的问题,包括知识蒸馏、参数剪枝、非线性函数线性化、定点数量化等方法。神经网络的计算是高度并行的,而 FPGA 具有可实现大规模并行计算的能力。FPGA 中的可编程逻辑单元和内部存储器可以同时执行多个计算任务,从而在神

15、经网络的推理过程中实现高效的并行计算。此外,FPGA 还具有低延迟、低功耗、灵活性等特征,综上所述,本文采用 Verilog 语言实现压缩模型,并在搭载Xilinx 某型芯片的 FPGA 开发板上测试成功。压缩后模型相较于压缩前模型大小减小 94.1%,补偿速度也比 PC 端提升 98.47%。1 温度误差机理 1 温度误差机理 在光纤环中,存在两束干涉光,分别按顺时针(Clock Wise,CW)和逆时针(Counter Clock Wise,CCW)方向传播。当环境温度发生变化时,光纤的折射率也发生变化,导致两束光在经过距离端点处z的一段光纤基元dz时产生相位延迟,其计算公式如下:ccw0

16、00,dLnztnLT Lz tzTc (1)cw000,dLnztnLT z tzTc (2)式(1)(2)中,cwt为顺时针光沿光纤环传输产生的相移;ccwt为逆时针光沿光纤环传输产生的相移;L为光纤环长度;n 为光纤折射率,0为光在真空中的传输系数,其值为2/,为光波长,c为光在光纤环中传播的速度,T为光纤内温度,T为光纤环z点处的温度变化量。式(1)与式(2)相减并化简得到光纤环温度变化产生的Shupe误差为:/20002dLnnT zT LzzLzcT(3)式(3)表明,环境温度引起的相位误差 t与温度、温度变化率等有关。由IEEEStd952-1997标准提供的单轴FOG温度误差模

17、型如下9:TdTvd/dd/dTEDTDTtDTt (4)式(4)中,E为温度误差,TD为漂移速率温度敏第 1 期 杨雷静等:基于光纤陀螺的温度补偿模型改进、压缩和 FPGA 实现 81 感系数,T为温度变化,dTD为温度斜坡漂移速率敏感系数,d/dTt为温度变化率,vTD为时变温度梯度漂移率敏感系数,d/dTt为温度梯度。FOG内部温度场分布的复杂性导致温度梯度的测量变得困难。因此,建立FOG温度误差、温度以及温度变化率之间的关系,补偿FOG的输出,提高FOG的输出精度。2 2 温度补偿模型改进 温度补偿模型改进 2.1 LSTM算法 LSTM是Hochreiter等提出的RNN的变体,其具

18、有记忆长短期信息的能力。该模型引入门结构,将系统认为重要时刻的数据信息一直保留传递,而不像RNN只保留上一时刻的数据信息,这对FOG温度变化带来的误差有更好的补偿效果。相较于RNN,LSTM克服了机器学习中梯度消失和梯度爆炸的问题10。LSTM单元的状态是由长期记忆单元和各个门控结构组成,其单元结构如图1所示。图 1 LSTM 基本单元结构 Fig.1 LSTM basic unit structure 首先,定义长期记忆单元的值,记作c。在每个时间步骤t,LSTM单元会接收到一个输入值tx和前一个时间步骤的状态值1th。然后,它会计算输入门ti、遗忘门tf、数据输入tg和输出门to的值,这些

19、值由式(5)-(8)计算得出:1tiitiihithiiW xbW hb (5)1 tiftifhfthffW xbW hb (6)1 tanhtigtighgthggW xbW hb (7)1tiotiohothooW xbW hb (8)其中,iW、fW、gW和oW是权重矩阵,ib、fb、gb和ob是偏置向量,是sigmoid函数。接下来LSTM单元会更新长期记忆单元tc的值,使用式(9)计算得出:1tttttcfcig (9)其中,表示对应相乘,1tc表示上一时刻的长期记忆单元值。最后LSTM单元会根据输出门to和长期记忆单元tc的值,计算当前时刻的输出值th:tanhttthoc (1

20、0)这样LSTM模型可以自适应地选择何时读取或遗忘过去的信息,以及何时输出当前的信息。对于FOG温度补偿模型,由于温度是连续的数据,LSTM模型可以保留整段温度参数中对系统影响最大的数据,来更好地补偿修正FOG零偏输出。本文以温度和温度变化率作为输入,温度补偿值作为输出,一层LSTM层,一层FC层进行建模。图 2 LSTM 整体模型图 Fig.2 LSTM over all model diagram LSTM模型在训练时需要人为调整的超参数有学习率,神经元个数,通过试凑法往往导致训练结果陷入局部最优解,本文采用改进PSO算法来优化LSTM温度补偿模型。2.2 PSO算法 PSO算法的基本原理

21、是通过模拟生物群体中个体间的信息交流和协作来搜索最优解。算法中的“粒子”是搜索空间中的一个候选解,每个粒子都有一个位置和速度向量,表示它当前的搜索状态和搜索方向。每个粒子根据自身经验和群体经验来更新自己的速度和位置,以期望更好地搜索到全局最优解11。基本流程为:(1)随机生成一定数量的粒子,粒子的位置向量中包含了LSTM模型中待优化的超参数,并随机给定它们的初始位置和速度。(2)分别使用每个粒子中的LSTM超参数进行训练,根据训练结果与真实零偏输出计算均方误差(Mean Square Error,MSE)得到每个粒子的适应度。(3)对于每个粒子,将其适应度与其历史最优位置的适应度相比,若更好就

22、替代其位置成为历史最优位置。再从所有粒子的历史最优位置中,选择全局最优位置。(4)根据式(11)(12),更新每个粒子的速度和位置,其中、1c、2c分别为惯性权重、个体学习因子和社会学习因子,1r、2r为0,1范围内均匀分布的随机数:11 1pbest2 2gbestkkkkkkvvc rpxc rpx (11)11kkkxxv (12)其中,kv表示第k次粒子的速度,kx表示其位置,pbestkp表示其个体历史最优位置,gbestkp表示全局最优位置。82 中国惯性技术学报 第 32 卷(5)判断是否满足停止条件(如达到最大迭代次数或目标函数值小于某个阈值),如果满足,则算法结束;否则,回到

23、第(2)步。2.3 PN-PSO-LSTM算法 在标准的PSO里,惯性权重,个体学习因子1c,社会学习因子2c分别都是固定的一个经验值,这无法保证系统在寻优过程中既满足大范围搜寻的同时又尽可能稳定地收敛,因此带来了局限性。惯性权重控制PSO算法中探索和开发之间的平衡。更高的惯性权重意味着粒子将更频繁地移动到新的邻域,增加探索。另一方面,较小的惯性权重可以使粒子保持在相同的邻域附近,并在其中寻找最优解。针对,文献12提出采用线性变换代替固定值,但是其搜寻能力和收敛稳定性有限,本文采用式(13),即分段非线性代替标准PSO算法里的:maxmin2maxmaxmaxmaxminmaxminmaxma

24、xmaxmax(2/)02222/,222,Tk TkTTkTkT(13)式(13)中,max、min为惯性权重的最大值和最小值;maxT为最大迭代次数;k为当前迭代次数。如图3所示,对比传统线性变换,采用式(13)时,在寻优初始阶段从max更加缓慢地减小,可以在初始阶段保持一个较大的值,使系统尽可能探索更多的领域;在寻优结束阶段,减小到min的变化率也更加平缓,使粒子在结束阶段时能尽可能在自身附近寻优,系统更加稳定。图 3 随迭代次数k变化图 Fig.3 Graph of changing with number of iterations k 当增大1c时,会增强粒子的个体认知能力,但是收

25、敛速度缓慢;当增大2c时,会增强粒子的社会认知能力,收敛速度迅速,但是极易使算法早熟。为了保证PSO算法的搜索能力和协调粒子的个体认知及社会认知能力,采用与构建相同的方法,将1c、2c的取值与粒子当前的迭代次数联系起来。其函数表达式为:1max1min211maxmaxmax1max1min1max1minmax1maxmaxmax(2/)2022/,2222,cccck TTkccccTckTTkT(14)2max2min222minmaxmax2max2min2max2minmax2maxmaxmax(2/)2022/,2222,cccck TTkccccTckTTkT(15)式中,1ma

26、xc、1minc、2maxc和2minc为1c、2c的最大值和最小值;maxT为最大迭代次数;k为当前迭代次数。图 4 PN-PSO-LSTM 算法流程图 Fig.4 PN-PSO-LSTM algorithm flowchart 2.4 实验对比 在本实验中,将课题组某型FOG置于温箱的水平转台上,FOG敏感轴指向天顶,并将温度设定为-20,温箱变温速率配置为4/min,随后逐渐升温至60,每隔一秒采集温度数据和FOG输出数据。先在相同的条件下进行两次实验,得到两组数据。其中一组数据用作训练集,另一组数据用作测试集,再在不同温变第 1 期 杨雷静等:基于光纤陀螺的温度补偿模型改进、压缩和 F

27、PGA 实现 83 速率下分别进行一组升温实验和降温实验,得到二组数据作为验证集,来验证温度补偿模型在不同温度条件下的适应性。然后将得到的数据进行100 s滑动平均,再经过归一化得到实验所需FOG误差和温度数据,最后分别进行BP神经网络,PSO-LSTM,PN-PSO-LSTM建模进行补偿,得到实验结果如下。图 5 BP 神经网络补偿结果图 Fig.5 BP neural network compensation result diagram 图 6 PSO-LSTM 补偿结果图 Fig.6 PSO-LSTM compensation result diagram 0.00.10.20.3 图

28、 7 PN-PSO-LSTM 补偿结果图 Fig.7 PN-PSO-LSTM compensation result diagram 图5、图6、图7分别为采用BP神经网络模型,传统PSO-LSTM模型以及PN-PSO-LSTM网络模型的训练结果,以及各模型对应的补偿结果。表1显示了各模型的补偿MSE、零偏稳定性和角度随机游走,对比可得,PN-PSO-LSTM网络模型补偿结果的均方误差相较于BP网络模型降低74.4%,相较于PSO-LSTM模型降低53.5%;零偏稳定性相较于BP模型降低48.8%,相较于PSO-LSTM模型降低31.6%;角度随机游走相较于BP模型降低49.6%,相较于PSO

29、-LSTM模型降低30.4%,补偿效果均有较大的提高。图8、图9为改变温度条件后,分别采用三种模型对FOG零偏输出进行补偿的结果图,表2为在升温条件下验证集上各模型的补偿MSE、零偏稳定性和角度随机游走,对比可得PN-PSO-LSTM网络模型补偿结果的均方误差相较于BP网络模型降低72.5%,相较于PSO-LSTM模型降低59.4%;零偏稳定性相较于BP模型降低33.3%,相较于PSO-LSTM模型降低29.1%;角度随机游走相较于BP模型降低55.8%,相较于PSO-LSTM模型降低41.0%;表3为在降温条件下验证集上各模型的补偿MSE、零偏稳定性和角度随机游走,对比可得PN-PSO-LS

30、TM网络模型补偿结果的均方误差相较于BP网络模型降低65.0%,相较于PSO-LSTM模型降低57.0%;零偏稳定性相较于BP模型降低30.5%,相较于PSO-LSTM模型降低28.6%;角度随机游走相较于BP模型降低40.2%,相较于PSO-LSTM模型降低35.7%。图 8 升温条件下各模型补偿效果图 Fig.8 Compensation effect diagram of each model under heating conditions/(/h)/(/h)图 9 降温条件下各模型补偿效果图 Fig.9 Compensation effect diagram of each mode

31、l under cooling conditions 84 中国惯性技术学报 第 32 卷 表 1 各算法效果对比 Tab.1 Comparison of the effectiveness of various algorithms 补偿模型 MSE/(/h)2)零偏稳定性/(/h)角度随机游走/(/h)BP 0.00662 0.00806 0.00141 PSO-LSTM 0.00364 0.00604 0.00102 PN-PSO-LSTM 0.00169 0.00413 0.00071 表 2 验证集各算法效果对比(升温)Tab.2 Comparison of the effectiv

32、eness of various algorithms in the validation set with temperature rising 补偿模型 MSE/(/h)2)零偏稳定性/(/h)角度随机游走/(/h)BP 0.00783 0.00831 0.00208 PSO-LSTM 0.00529 0.00781 0.00156 PN-PSO-LSTM 0.00215 0.00554 0.00092 表 3 验证集各算法效果对比(降温)Tab.3 Comparison of the effectiveness of various algorithms in the validatio

33、n set with temperature decreasing 补偿模型 MSE/(/h)2)零偏稳定性/(/h)角度随机游走/(/h)BP 0.00706 0.00813 0.00169 PSO-LSTM 0.00574 0.00791 0.00157 PN-PSO-LSTM 0.00247 0.00565 0.00101 3 3 模型压缩 模型压缩 深度学习模型通常具有巨大的参数数量,需要大量的存储空间。对于移动设备、边缘设备和云平台等资源受限的环境,压缩模型可以减少存储需求,降低模型部署和传输的成本,对于实时应用场景至关重要。深度学习模型压缩是在保持模型性能的前提下减小模型的存储空间

34、和计算成本的过程,可以为深度学习模型提供更广泛的应用场景13。基于上一节训练好的模型,本文设计并实现了一套适用于FOG应用场景的压缩方案。压缩方案包括:(1)知识蒸馏;(2)模型剪枝;(3)非线性函数线性化;(4)定点数量化。流程图如图10所示。图 10 压缩流程图 Fig.10 Compression flowchart 3.1 知识蒸馏 知识蒸馏是模型压缩的一种常用方法,最早是由Hinton在2015年首次提出并应用在分类任务上面。知识蒸馏中的大模型称为教师模型,小模型称为学生模型。来自教师型输出的监督信息称为知识,而学生模型学习迁移来自教师模型的监督信息的过程称为蒸馏。不同于一般的模型压

35、缩,由于实时性的需求,FOG输出数据是单独连续的,所以模型补偿数据也需要单独连续,即神经网络模型在进行推理时不能像训练那样将多组数据进行打包输入。又因为LSTM模型具有记忆特征,对于温度补偿误差来说,其训练与推理对输入数据的打包数量需要统一。这就导致了对实时性有要求的小模型在每次训练时需要单组数据进行输入,训练速度大大降低。对于上一节训练好的高精度模型,采用知识蒸馏的压缩方法训练得到小模型,这不仅解决了大模型训练时由于单组数据输入带来的训练速度缓慢问题,也比直接训练得到的小模型精度更高。经过知识蒸馏,神经元个数减少50%。3.2 模型剪枝 模型剪枝是一种通过减少模型中不必要或冗余的参数和连接来

36、压缩模型的技术,它的目标是在保持模型性能的同时减小模型的存储空间和计算成本。top-k剪枝方法是一种简单有效且具有高灵活性的剪枝方法15。本文采用top-k剪枝方法,剪枝原理如图11所示:基于式(5)-(8),一个输入维数为in,输出维数为on的LSTM层,有no 11th,no nohW,先将hW进行分组,每组c个元素,在c个元素中只保留绝对值最大的k个,其余赋0值。在本文中,针对输入为2输出为16的LSTM层,在大量实验测试后,选取c=4,k=2进行剪枝,最终hW参数量减半,即8 16hW。同理,针对16输入,1输出的全连接层的权重也用相同剪枝方法,对于hW与fcW,参数量减少50%。至此

37、,整体模型参数减少84%。图 91 Top-k 剪枝示意图 Fig.11 Top k pruning diagram 3.3 非线性函数线性化 由于LSTM模型中的非线性激活函数tanh函数和sigmoid函数需要复杂的指数运算,这些运算在FPGA第 1 期 杨雷静等:基于光纤陀螺的温度补偿模型改进、压缩和 FPGA 实现 85 上具有较高的计算复杂度,而分段线性函数仅需要简单的比较和乘法操作,计算复杂度较低,能够更有效地在硬件上实现。将非线性激活函数改为分段线性函数可以更好地适应硬件资源的分配和利用,提高FPGA的效率。本文采用式(16)代替tanh函数,用式(17)代替sigmoid函数。

38、1,2.53,0.52.5481,0.50.53,2.50.5481,2.5xxxfxxxxxx (16)1,220.52240,2xxfxxx,(17)3.2 定点数量化 在基于PyTorch框架下训练得到的LSTM模型,其参数为32位浮点数,浮点数计算需要更多的计算资源。相比之下,定点数计算可以使用更简单和高效的算术运算,减少了计算复杂度,提高了计算效率,本文采用线性量化将输入数据及各参数进行量化16。线性量化的原理由式(18)(19)给出:,1222ffm fclipQWW (18)1min,2sign2mclipfWWW (19)其中W为原数据,m为整数位比特数,f为小数位比特数,因为

39、是有符号数,最终,m fQ所占比特数为1mf。本文在综合考虑FPGA内存占比和模型精度后,对参数采取12比特量化,其中8比特小数位,3比特整数位,1比特符号位。量化比特数与误差如表4所示。表 4 量化对比 Tab.4 Quantitative comparison 量化比特数 模型大小 MSE/(/h)2)全精度模型 17.6289 KB 0.0016825 9 bit 0.6963 KB 0.0037456 12 bit 1.0444 KB 0.0026897 15 bit 1.3055 KB 0.0027159 最终完成模型压缩后实验结果如图12和表5所示,在模型压缩后,其补偿误差仍然比B

40、P神经网络模型低59.4%,比传统PSO-LSTM神经网络模型低26.1%。对比全精度PN-PSO-LSTM模型,误差增加58.8%,模型大小减小94.1%。图 12 压缩后模型补偿结果图 Fig.12 Diagram of model compensation results after compression 表 5 压缩后效果对比 Tab.5 Comparison of compressed effects 补偿模型 MSE/(/h)2)零偏稳定性/(/h)角度随机游走/(/h)BP 0.00662 0.00806 0.00141 PSO-LSTM0.00364 0.00604 0.00

41、102 PN-PSO-LSTM0.00169 0.00413 0.00071 压缩后模型0.00269 0.00513 0.00093 4 4 FPGA 实现 实现 基于Xilinx公司某芯片,采用Verilog语言实现压缩后的模型,整体系统框图如图13所示,主要包括LSTM模块和FC模块17。其核心是采用使能信号控制的思想,完成式(5)式(10)的运算。为保证中间运算过程数据精度的同时尽可能减少资源占比,通过大量实验测试,将输入数据位数设置为23 bit,最终运算结果位数保留为45 bit。图 13 系统整体框图 Fig.13 Overall system block diagram LST

42、M模块设计框图如图14所示。(1)首先将存有剪枝后非零权重的位置信息的数据以二进制格式存入Vivado ROM IP核中,同时将上一时刻输出1th一起输入路复用器中,通过对比非零权重位置信息的数据,选择性输出与非零权重位置对应的1th值,而其余1th值将不会被输入计算。(2)再将权重数据iW、fW、gW和oW,偏置数据ib、86 中国惯性技术学报 第 32 卷 fb、gb和ob也存入ROM IP核中,结合输入tx一起传入矩阵向量乘法器中,tx先与iW、fW、gW和oW进行矩阵乘法运算,再与对应偏置相加得到计算结果。然后经过激活函数的运算,原本非线性激活函数经过第3节线性化之后,只需要进行简单移

43、位运算和加减法运算即可,最后经过激活函数运算可得ti、tf、tg、to四个门控值,即完成了式(5)式(8)的运算过程。(3)将输出ti、tf、tg输入C运算单元,同时将上一时刻1tc从移位寄存器中输入C运算单元,tf和1tc完成对应相乘运算,ti和tg完成对应相乘运算,然后再将两结果相加,可计算得到tc,即完成了式(9)的运算过程。(4)将tc输入移位寄存器保存,以便与下一时刻的各数据计算,同时将tc、to输入H运算单元,在H运算单元中,tc先经过激活函数tanh,计算过程与第(2)步中激活函数运算一样,计算结果再与to对应相乘,得到th。(5)将H运算单元运算结果th输入移位寄存器,以便与下

44、一时刻各数据进行计算。(6)移位寄存器输出th给FC模块,同时回到(1),进行循环计算。图 14 LSTM 设计框图 Fig.14 LSTM design block diagram FC层结构和LSTM模块相似,直接将FC层权重、偏置、非零权重位置信息以及LSTM层th输入矩阵向量乘法器,最终输出即为整体模型输出结果。Vivado2018.3仿真结果如图15所示,由于FPGA运算过程中对数据位有截断,所以推理结果与PC端有些许误差,推理结果对比如图16所示,误差对比如表6所示。可见推理结果与PC端推理结果相比误差可忽略不计。图 15 Vivado 仿真结果 Fig.15 Vivado sim

45、ulation results 图 16 FPGA 输出结果与 PC 对比图 Fig.16 Comparison between FPGA output results and PC 表 6 FPGA 输出结果对比 Tab.6 Comparison of FPGA output 补偿模型 MSE/(/h)2)PC 端模型 0.0026897 FPGA 输出 0.0026898 在速度方面,PC端i7-13700CPU推理速度为33.2 ms,而在FPGA中,本文对时钟的配置为50 MHz,图17为时序报告表,其中WNS表示最差负时序裕量,意味着在实际需求的时钟周期内有额外的2.114 ns来满

46、足时序要求,所以实际运行周期是满足配置的时钟周期的,完整推理时间为0.508 ms,速度对比PC端i7-13700CPU提升98.47%。资源占比如表7所示,可见充分合理利用了该FPGA开发板的资源。图 17 时序报告 Fig.17 Timing report 表 7 资源占比 Tab.7 Resource proportion ResourceUtilizationAvailable Utilization%LUT 32845 53200 61.74 LUTRAM173 17400 0.99 FF 10974 106400 10.31 BRAM 31.5 140 22.50 DSP 200

47、220 90.91 BUFG 2 32 6.25 5 结 论 5 结 论 本 文通过 分析FOG温度 误差特 性,提出PN-PSO-LSTM温度补偿模型,对比传统BP神经网络模型陀螺输出零偏均方误差降低74.4%,相较于PSO-LSTM模型均方误差降低53.5%。在此基础上,针对FOG温度补偿实时性的需求,设计了一套模型压缩方案,在模型大小减小94.1%的同时,误差仍然比第 1 期 杨雷静等:基于光纤陀螺的温度补偿模型改进、压缩和 FPGA 实现 87 传统全精度模型更低。最后,对比PC端i7-13700CPU,压缩模型部署在FPGA上后推理速度提升98.47%。综上,本文实现了PN-PSO-

48、LSTM全精度温度补偿模型及相应的压缩小模型,并完成了压缩小模型的FPGA部署。针对不同的硬件资源和工程需要,可将全精度模型应用于硬件资源充裕且精度要求苛刻的场景,压缩小模型应用于硬件资源受限且精度标准相对宽松的场景。参考文献(参考文献(References):):1 G.Sagnac.Lether lumineux demontre par leffet du vent relative dether dans un interferometer en rotation uniformeJ.C.R.Acad.Sci.,1913,157:708-710.2 郑辛,刘飞,雷明,等.微小型惯性仪表

49、发展现状、趋势以及对行业的影响J.中国惯性技术学报,2021,29(6):701-708.Zheng X,Liu F,Lei M,et al.Development and trend of micro inertial sensors and its impact on the industryJ.Journal of Chinese Inertial Technology,2021,29(6):701-708.3 Wang Z,Wang G,S.Kumar,et al.Recent advancements in resonant fiber optic gyroa reviewJ.IEE

50、E Sensors Journal,2022,22(19):18240-18252.4 D.M.Shupe.Oermally induced nonreciprocity in the fiberoptic interferometerJ.Applied Optics,1980,19(5):654-655.5 黄春福,李安,覃方君,等.基于PSO-SVR 的光纤陀螺温度误差建模与实时补偿J.光子学报,2019,48(12):95-102.Huang C,Li A,Qin F,et al.Temperature error modeling and real-time compensation

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服