收藏 分销(赏)

基于通道注意力机制和BIGRU的非侵入式负荷分解方法.pdf

上传人:自信****多点 文档编号:649979 上传时间:2024-01-23 格式:PDF 页数:10 大小:1.09MB
下载 相关 举报
基于通道注意力机制和BIGRU的非侵入式负荷分解方法.pdf_第1页
第1页 / 共10页
基于通道注意力机制和BIGRU的非侵入式负荷分解方法.pdf_第2页
第2页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 Vol.21 No.7 2023 年 7 月 Electric Power Information and Communication Technology Jul.2023 中图分类号:TN915.853 文献标志码:A 文章编号:2095-641X(2023)07-001-10 DOI:10.16543/j.2095-641x.electric.power.ict.2023.07.01 著录格式:钱玉军,包永强,姜丹琪,等基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法J电力信息与通信技术,2023,21(7):1-10

2、 基于通道注意力机制和 BIGRU 的 非侵入式负荷分解方法 钱玉军1,包永强2,姜丹琪1,张旭旭1,雷家浩1(1南京工程学院 电力工程学院,江苏省 南京市 211167;2南京工程学院 信息与通信工程学院,江苏省 南京市 211167)Non-intrusive Load Monitoring Method Based on the Channel Attention Mechanism and BIGRU QIAN Yujun1,BAO Yongqiang2,JIANG Danqi1,ZHANG Xuxu1,LEI Jiahao1(1.School of Electric Power En

3、gineering,Nanjing Institute of Technology,Nanjing 211167,Jiangsu Province,China;2.School of Information and Communication Engineering,Nanjing Institute of Technology,Nanjing 211167,Jiangsu Province,China)摘要:针对目前负荷监测领域存在模型分解准确率低、训练周期长、泛化性能差的问题,文章构建了基于通道注意力机制和双向门控循环单元的非侵入式负荷监测模型,利用搭建的序列到点编码解码结构,将智能电表入

4、口处总功率序列与待测目标设备序列中点在模型上进行映射训练。使用功率嵌入层对负荷序列的输入过程进行优化,将离散的负荷总功率序列通过功率嵌入矩阵映射到高维紧密向量空间;采用一维卷积神经网络提取负荷序列的局部特征,双向门控循环单元提取负荷的长序列依赖关系,同时融合通道注意力机制强化对目标设备重要信号特征的学习,挖掘目标设备状态与负荷功率之间的关联。在基于能量分解模型基准框架下,利用公开数据集 REDD和 UK-DALE 进行实验,与现有两种典型负荷分解模型进行比较分析,实验结果表明,文章构建的模型在减少网络训练时间和参数的前提下,有效检测了目标设备的开关状态,显著提升了负荷分解准确性。关键词:非侵入

5、式负荷监测;双向门控循环单元;序列到点;功率嵌入;通道注意力机制 ABSTRACT:A non-intrusive load monitoring model based on the channel attention mechanism and BIGRU is constructed to address the current problems of low accuracy of model decomposition,long training period and poor generalization performance in the field of load monit

6、oring.Using the constructed sequence-to-point encoding-decoding structure,the total power sequence at the entrance of the smart meter is mapped to the midpoint of the sequence of target devices to be tested on the model for training.The input process of the load sequence is first optimized using a p

7、ower embedding layer to map the discrete load total power sequence to a high-dimensional compact vector space via a power embedding matrix.A one-dimensional convolutional neural network is used to extract the local features of the load sequence,a bi-directional gated recurrent network(BIGRU)to extra

8、ct the long sequence dependencies of the load,and a fused channel attention mechanism(Attention)to enhance the target device state and load power correlations are explored by incorporating a channel attention mechanism(Attention)to enhance the learning of important signal features of the target devi

9、ce.In the benchmark framework based on the energy decomposition model,experiments are conducted using the publicly available datasets REDD and UK-DALE to compare and analyse with two existing typical load decomposition models.The experimental results show that the model constructed in this paper eff

10、ectively detects the switching status of the target device and significantly improves the load decomposition accuracy with reduced network training time and parameters.KEY WORDS:non-intrusive load monitoring;BIGRU;sequence-to-point;power embedding;channel attention mechanism 0 引言 电力系统中贯彻发展可再生能源、提升电能

11、在 基金项目:国家自然科学基金项目(62171217)。终端消费的比重是实现碳达峰、碳中和的重要保证。电力系统结构形态需要向深度低碳或零碳新型电力系统模式转变1。新型电力系统用户侧有大量新型负荷参与电网调度,用户之间差异化负荷2 钱玉军等:基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法 Vol.21 No.7 需求会影响能源容量的配置,因此有必要采用非侵入式负荷监测(non-intrusive load monitoring,NILM)技术对用户侧的负荷特性进行监测,推动能源革命,统筹实现双碳目标的长期战略任务2。NILM 是一种面向新型电力系统分析用户侧用电信息的创新技术,该技术利

12、用智能电表采样负荷数据,应用信号分析和机器学习算法获取电器启停时间、能耗量和用电规律等信息3。NILM 的实现基本步骤包括数据采集(用于模拟电压和电流信号的数字采样)、数据处理(计算功率、谐波等电气参数)、事件检测(从数据序列中检测电器开关或状态切换事件)、特征提取和负载分类(对检测到的电器进行分类识别)。目前实现非侵入式负荷分解的主要方法分为组合优化和模式识别两类。NILM 中基于组合优化算法通过将采样到的设备信号与已建立负荷特征库中的信号进行模板匹配作为优化策略4。文献5提出总谐波失真系数作为负荷新特征,采用动态自适应粒子群算法对实测用电数据进行负荷分解;文献6构建总负荷数据图信号模型,利

13、用功率损耗进行条件约束,自主调整参数,完成负荷分解。随着机器学习的发展,K 最近邻分类(K nearest neighbor,KNN)7、支持向量机(support vector machine,SVM)8、随机森林9等算法在 NILM 问题中得到了应用。文献10利用均值漂移算法对负荷状态进行聚类,根据稳态情况下时域分布确定负荷事件的发生点,完成负荷检测;文献11利用稀疏编码算法学习电器的功耗模型,利用模型预测各电器的功耗;文献12利用改进的维特比算法计算超状态的稀疏矩阵,通过概率密度函数(probability mass function,PMF)量化负荷状态,保留负载之间的依赖关系,在较短

14、的时间内评估了负载类型以及负载消耗状况。然而这些方法所用的负荷特征需要人工手动提取与标记,可扩展性较差。与传统方法不同,深度学习方法能够自动从原始数据中提取负荷特征。文献13提出了基于双向门控循环单元(bi-directional gate recurrent unit,BIGRU)和序列到序列网络模型,构建 BIGRU 神经网络对输入序列进行负荷特征提取,将多个 GRU层沿正向和反向拼接叠加在一起,利用 Softmax 函数计算研究目标用电设备被分类到对应类别的概率,选择模型分解最大概率确定目标用电设备的类型,进而识别负荷类型以及确定负荷运行起始时间;文献14提出了一种基于序列到序列的多层深

15、度神经网络,该算法通过读取每日总耗电量的负荷曲线,根据设备特定的功率特征来识别设备的状态;文献15首次提出仅使用全连接层和卷积神经网络的序列到点的模型,滑动聚合数据窗口来分解单个中点时间上的设备消耗;文献16提出了使用滑动窗口进行实时能量分解的循环网络单元(window-gated recurrent unit,WGRU),该算法在多状态设备上表现突出;文献17提出一种基于编码解码模型并且融合了注意力机制的 NILM 模型,通过注意力机制强化特征提取范围,增强了负荷识别能力。综上所述,NILM 已经从依赖于机器学习和人工提取负荷特征的传统方法发展到完全由数据驱动的深度学习技术,模型性能的表现接

16、近于实际应用。为了解决 NILM 存在分解准确率低、训练周期长、泛化性能差的问题,本文提出一种综合考虑负荷特征以及功耗时序特征的深度学习模型,在文献16的双向门控循环单元结构上进行改进,采用通道注意力机制(channel attention mechanism)替代原网络中的 Dropout 层,强化了负荷特征学习,同时引入 NILM 领域首次提出的序列到点的编码解码结构,进行横向对比。与已研究案例相比,本文的创新点和贡献如下。1)构建功率嵌入矩阵,将离散的功率序列映射到高维空间,便于编码部分对于时序信息的提取,有效降低了模型运算量及提高负荷分解的准确性。2)采用序列到点编码解码模型,预测输出

17、序列窗口中点值,降低了负荷序列中边缘数据的影响。3)引入基于通道注意力机制改进BIGRU网络,增强重要负荷特征的学习,同时强化负荷前后关联时序特征的信息挖掘。4)采用迁移学习模式实现不同数据集间的跨域分解,改进了网络模型的泛化能力。1 非侵入式负荷分解模型 本文构建的非侵入式负荷分解模型如图 1 所示,主要包括功率嵌入、序列到点编码解码结构、基于通道注意力机制改进 BIGRU 网络(BIAGRU)3 部分。首先对每一用电设备训练一个基于通道注意力机制和 BIGRU 的序列到点模型,设备之间网络结构完全相同,差别在于每种设备对应的网络内部权重参数数量以及输入模型的负荷序列长度不同,设备模型在总功

18、率数据序列上滑动采样,通过功率嵌入层映射到高维向量空间,利用 BIGRU 网第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 3 络改进模块强化负荷特征的选取,优化负荷分解效果,最后目标设备对应序列到点模型会映射当前时间目标设备的有功功率。图 1 非侵入式负荷分解模型 Fig.1 Diagram of the non-intrusive load monitoring model 1.1 功率嵌入 鉴于深度学习输入的总负荷功耗数据是公开源数据集,数据量涉及上百万个采样点,而文章设计的模型输入序列的长度是 50100 个采样点,故需要对负荷数据进行信息粒化处理。具体来说,数据集中出现

19、的不同用电设备对应训练的模型的输入功率序列长度是不同的,这主要取决于单个用电设备运行期间完整遍历负荷激活周期的大小。如热水壶烧开水只需 5 min,洗衣机完成整个洗衣和脱水过程需要 60 min 左右。对此,将数据集中出现的M 种用电设备根据其激活周期设置模型的输入窗口长度 L,划定为L1,L2,L3,LM。将负荷序列按照目标设备的激活周期大小分割,分割的单块序列通过词嵌入矩阵映射到高维向量空间。主要步骤为:将输入的总负荷序列1jP,2jP,jiP进行信息粒化处理,其中jiP代表目标设备 j 在对应的总功率序列中的第 i 个点的功率,在粒化处理过程中,对负荷序列按采样频率整数倍切割,在一定程度

20、上造成在切割点处功率信息的损失,不过相较于单点处的功率大小,这种微小负荷信息缺失不会对负荷分解造成影响,粒化处理后得到1P,2P,iP,之后将粒化后的序列通过初始化的功率嵌入矩阵 E=v_s*e_s映射到高维向量E1P,E2P,EiP,其中 v_s 代表某一时刻采样点的有功功率大小,要求大于数据集中单点最高功率值(数据集单点最大功率值约为 5000 W),否则会导致部分采样点没有对应的映射向量;e_s表示单一设备功率值由功率嵌入矩阵映射后的序列长度。将功率序列和功率嵌入矩阵构建向量映射联系,便于编码器对时序信息的提取,同时对原始负荷序列保持了良好的跟踪性,降低了深度学习模型的运算量,从而提高负

21、荷分解性能。1.2 门控循环单元和 BIGRU 门控循环单元(gate recurrent unit,GRU)网络是长短期记忆(long short-term memory,LSTM)网络的改进结构,可以有效解决网络梯度消失和爆炸的问题,同时一定程度上减少网络学习参数量和降低模型过拟合的风险。GRU 结构单元包含更新门和重置门,前者用来关注负荷信息更新隐藏状态,后者用于遗忘部分非重要隐藏状态。GRU 结构是单向输入输出,然而在提取负荷深层特征时,需要将当前状态信息与前后时刻的隐藏状态建立联系,BIGRU 在这种场景中表现良好。BIGRU 由 2 个单向、方向相反的 GRU 组成,其结构如图 2

22、 所示。图 2 BIGRU 单元结构 Fig.2 BIGRU unit structure diagram 在每一时刻,网络中的隐藏状态由 2 个方向相反的 GRU 共同决定,即:1GRU(,)ttthhx (1)1GRU(,)ttthhx (2)tttttthhhWVb(3)式中:th和th分别表示在t时刻正向GRU和反向GRU的输出状态;xt为隐藏状态的输入;Wt和Vt分别表示输出状态th和th的权重矩阵;bt代表偏置矩阵。由上述公式看出,BIGRU 当前的隐层状态由当前的输入tx、t1 时刻前向的隐层状态输出1th 和反向隐层状态输出1th 3 个部分共同决定。在 t 时刻BIGRU 的

23、隐层状态通过前向隐层状态1th 和反向4 钱玉军等:基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法 Vol.21 No.7 隐层状态1th 加权求和得到。与单向 GRU 相比,BIGRU 能更好地联合捕捉正向和反向依赖,以较少的训练迭代次数获得更好的训练损失。1.3 序列到点模型 序列到点模型是在输入序列(如 NILM 问题中的功率读取)和输出序列(如单个设备中的功率预测)之间建立映射,将采样的负荷序列通过编码和解码两个步骤输出目标负荷窗口的中点值,具有较强的时序信息处理能力,有利于网络训练耗时的减少。序列到点体系结构定义了一个神经网络 FP,它将输入的滑动窗口1t t WY 映射到

24、输出相应窗口1t t WX 的中点X,模型为1F()+t t WXX,其中是高斯随机噪声。该结构预测设备中点元素的状态与该中点前后的输入功率信息相关,对每个中点X都有一个预测,而非对整个窗口预测平均值。1.4 通道注意力机制 注意力机制18-20是一种对网络模型权重选择性分配的机制,通过调整权重系数修改负荷特征的关键程度,权重系数越大,关联特征越重要,对负荷分类和预测结果影响越大。本文算法的创新之处在于利用通道注意力机制进一步提高了网络的特征提取能力(见图 3),尤其对不常用电气特征的提取,这种注意机制不同于之前的结构,它提高了特征通道的性能。该机制有选择性地关注功耗序列数据中不同位置的负荷信

25、息,变向地减少需要处理时序数据的规模;由于每种用电设备模式存在差异性,处于不同时刻的特征信息对于设备运行与否的贡献不同,引入通道注意力机制对影响设备开启的特征根据重要性分配权重,强化模型学习负荷特征的能力,进而提高模型的检测精度。具体步骤如下。步骤 1:输入负荷特征图 uC,uCRHWC,R表示特征图的维度,C 表示 uC的通道数,H 和 W分别表示 uC的高和宽,对 uC全局空间进行压缩,实现全局感受野。采用全局平均池化(global average pooling,GAP)将每个通道上对应的空间信息(HW)压缩到对应通道中变为一个通道。此时一个像素表示一个通道,变为 11C 维度向量,表示

26、如下:sq111F()(,)CCCWijHi jHWzuu(4)式中:sqF()cu为压缩操作;Cz表示对 uC压缩后得到的中间向量;,i j为计数变量。步骤 2:给每个特征通道生成一个权重值,应用 2 个完全连接层建立通道之间的相关性作为激励,并输出与输入特征相同数量的权重,即:ex221()()F,CCCwwwszz(5)式中:ex2()F,Cwz为激励操作;w1和 w2的维度均为CCs,s 代表标度系数;和分别代表 Relu 和Sigmoid 激活函数;Cs表示经 Relu 函数和 Sigmoid函数激活后获得的注意力权重;激活函数为每个特征通道生成不同的权重。Cs进一步表示通道中负载特

27、征信息的变化,其维度也是 11C,是在通道特征图向量Cz的基础上获得的高阶全局特征权重信息。步骤 3:最后,将 sC与原始三维矩阵相乘完成权重特征图的重校准,根据特征图获得每个负荷特征的重要性,以此增强有用负载特性,抑制无用的负载特性,提高低使用率设备的负载分解精度,即:scaleF),(CCCCXusus (6)式中:scale(F),CCus为重构操作;X 为重构后的特征图。图 3 通道注意力结构 Fig.3 Channel attention structure diagram 1.5 基于 BIAGRU 的非侵入负荷模型 BIGRU的隐藏输出由2个相互独立的GRU共同决定,其中 BIG

28、RU 从前后 2 个方向输入功率序列,学习当前时刻前后的特征。为了记忆当前时刻后面的信息,BIGRU 增加一个输入逆序列的反向 GRU,将正向 GRU 与反向 GRU 输出的向量进行拼接作为输出。当网络挖掘某一时刻的功耗信息时,利用 BIGRU 学习当前位置与前一时刻和后一时刻之间的状态关系,捕捉用电设备耗电的潜在表征规律,进而提升网络自身学习特征的能力。当输入的功耗序列过长时,无法学习到序列初始位置的特征信息,造成模型分解滞后、效率低下等问题。针对上述问题,提出利用通道注意力机制优化网络性能。在 BIGRU 对输入序列数据分别进行特征提取和时序分析后,与之进行结合,仅关注自身信息更新网络训练

29、参数,降低对外部信息的依赖程第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 5 度,有效获取负荷的内部关联。图 4 展示了本文设计的基于通道注意力机制改进的 BIAGRU 模型。具体处理步骤如下。1)步骤 1:将输入功率数据 Xi,j映射到高维空间向量,经过卷积层提取局部特征后输入到 BIGRU网络进行学习,得到输出 Yi,j,即:,BIGR()Ui ji jYX (7)2)步骤 2:利用对 BIGRU 优化的注意力机制为局部负荷特征按照重要性程度分配权重,即:,w,w(tanh)i ji jkYDB (8),wsoftma,)x(i ji jekf (9),ii ji jjZe

30、 k (10)式中:ki,j表示注意力机制中隐藏层状态;Dw表示分配权重系数矩阵;Bw表示偏置向量;ei,j表示注意力机制为不同特征分配的权重;fw为注意力矩阵;Zi为第一层注意力输出隐藏状态。3)步骤 3:经注意力机制计算得到的 Zi输入BIGRU 网络进一步学习,采用同上的计算方式为全局负荷特征向量分配权重,即:BIGR)U(iiYZ(11)ss(tanh)iikYDB(12)ssoftma,)x(iiekf(13)iijZek(14)式中:Ds、Bs、fs分别表示后层注意力机制的权重系数矩阵、偏置向量和注意力矩阵;Yi为第二轮经过 BIGRU 学习得到的中间状态。4)步骤 4:计算得到的

31、 Z 输入全连接层非线性分类器,得到最终单点目标设备的分解结果。Xi,1Xi,2Xi,n.功率嵌入层CNNCNNCNNGRUGRUGRUtanhtanhtanhSoftmaxZ1Z2Zn.Yi,1Yi,2Yi,n.ki,2ki,nGRUGRUGRUtanhtanhtanhSoftmaxY1Y2Yn.k2kne2en全连接层窗口中点输出e1k1ki,1 图 4 基于 BIAGRU 的非侵入负荷模型 Fig.4 Non-intrusive load model based on BIAGRU 2 实验数据集及评估指标 2.1 训练策略 本文提出基于通道注意力机制和 BIGRU 模型对功率序列处理实

32、现负荷分解,主要训练策略为:首先将采集到的原始电信号通过功率嵌入矩阵映射到高维向量,对数据归一化处理构建训练集和测试集,搭建 BIGRU 算法结构,融合通道注意力机制强化模型表现,通过对模型的训练降低损失函数值,引入自适应矩估计(adaptive moment estimation,Adam)21-23算法优化结构参数,参数设置见表 1 所列,以达到最佳收敛状态,待模型训练完成,输入测试集数据,用于评估模型分解效果。负荷分解方法流程如图 5 所示。表 1 Adam 参数设置 Table 1 Parameter settings of Adam 参数名称 参数大小 学习率 0.001 Beta1

33、 0.9 Beta2 0.999 Epsilon 108 图 5 负荷分解方法流程 Fig.5 Process of the load monitoring method 2.2 数据集选取及预处理 使用 UK-DALE24和 REDD25公开数据集进行6 钱玉军等:基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法 Vol.21 No.7 实验。数据集分别测量了 5 所英国住宅和 6 所美国住宅的家用电器能源消耗和全屋总负荷能源使用情况。UK-DALE 包含了从 2012 年 11 月2015 年1 月所有负荷的消耗数据,采样频率为 6 s,涉及多种类型的家用电器的测量结果;对于 RE

34、DD 数据集,家用电器和总电源分别以 3 s 和 1 s 频率采集负荷数据,数据范围跨度为 319 天。文中只对水壶、微波炉、冰箱、洗碗机和洗衣机 5 种典型家用电器进行实验,5 类家用电器能源消耗占据了大部分家用电费支出,具有不同的工作模式,同时设备不易受噪声干扰、易分解,有较高的研究价值。所有的负荷数据在用于训练和测试前都需要进行预处理,实验用电设备参数如表 2 所示。表 2 实验用电设备参数 Table 2 Experimental electrical equipment parameters 实验设备 窗口长度 L 功率均值/W 功率标准差/W冰箱 50 200 400 热水壶 50

35、 700 1000 微波炉 50 500 800 洗衣机 100 400 700 洗碗机 50 700 1000 对数据进行预处理:newtXXx (15)式中:Xt为设备在 t 时刻的功率值;x和 分别为设备功率均值和设备功率标准差;Xnew为预处理后的功率值。2.3 损失函数 损失函数L定义了模型分解结果和真实值之间的误差,将模型预测输出与真实负荷消耗值的偏离程度进行量化,网络结构的优化直接关系到模型训练效果。文中选用模型分解结果和真实值的均方误差(mean square error,MSE)作为模型的损失函数,其具体表达式为:211L(,)()Niy yyyN (16)式中:y 为真实负

36、荷消耗值;?为模型预测值;N 为序列点个数。2.4 硬件配置及软件平台 实验硬件环境为Intel(R)Core i5双核CPU,8 G DDR3L 内存及 Nvidia GeForce 820 M(2 GB 显存)的计算机;软件平台采用谷歌的 Colab 平台Ubuntu18.04 64位 操 作 系 统,Python3.7,TensorFlow2.1,cuDNN11.2 和 NILMTK0.3。在训练模型时使用Colab平台下提供的GPU为模型训练加速。2.5 评估指标 用以下指标对模型进行评估和比较。1)F1 分数。模型检测设备开启关闭状态的能力通过 F1 分数评估,F1 分数被定义为召回

37、率 R 和精确率 Ppre的调和平均数。2)总功率相对误差(relative error,RETE)。RETE代表实际功率和估计输出功率之间的绝对差值的商。3)平均绝对误差(mean absolute error,MAE)。计算逐个时刻的真实值与预测值差的平均绝对值,可以反映模型每时刻分解功率值的准确性。RETE 和 MAE 指标值越低,则功率分解值的准确性越高。各指标公式如下:MAE11|TtttMppT (17)RETE|max(,)EERE E (18)PPN =+TRFT (19)PprePP=+TTFP (20)prepre 1=+2FPRPR (21)式中:tp为t时刻目标设备实际

38、消耗有功功率;tp 为t时刻序列到点模型分解消耗有功功率;E为总功率功耗;E为模型预估总功率功耗;T为周期内序列点数;TP表示用电器实际处于工作状态且模型分解结果也为工作状态的序列点总数;FP表示用电器实际处于工作状态但模型分解结果为非工作状态的序列点总数;FN表示用电器实际未工作但模型分解结果为在工作状态的序列点总数。2.6 对比实验 为了横向对比实验的性能,设备滑动窗口长度以及设备的激活参数选择参考文献15中的。除洗衣机使用输入样本为100外,其余所有目标电器的输入功率窗口为50个样本。实验比较了3种不同的结构:BIAGRU体系结构、Seq2Point结构15和WGRU16结构。对于所有模

39、型,训练持续时间是5个批次。针对居民对电器设备使用习惯的差异,会在不同建筑之间形成不同的能耗模式,采用文献26中描述的基准试验准则框架进行训练,第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 7 该框架能有效分析模型的可扩展性和泛化能力。在该框架下,实验被分为4个不同的类别:第1类实验在同一住宅训练与测试;第2类实验在同一数据集单一住宅训练与泛化测试;第3类实验是同一数据集多住宅训练与泛化测试;在第4类实验中,模型训练和测试分别来自UK-DALE和REDD数据集的未知负荷数据。训练及测试集选取如表3所示。表 3 训练及测试集选取 Table 3 Training and test

40、 set selection 负荷 实验 1 实验 2 实验 3 实验 4 训练 测试 训练 测试 训练 测试 训练测试 洗碗机 1 1 1 2,5 1,2 5 1,21,2,3,4,6冰箱 1 1 1 2,4,5 1,2,4 5 1,2,41,2,3,5,6热水壶 1 1 1 2,3,4,5 1,2,3,4 5 微波炉 1 1 1 2,3,5 1,2 5 1,21,2,3,5洗衣机 1 1 1 2,4,5 1,5 2 1,51,2,3,4,5,6注:表中数字是住宅房间号。3 实验结果分析 针对模型进行了3个层次的比较,包括4类实验的性能表现、不同数据量下模型训练参数量及推理速度、模型功率分解

41、表现。3.1 融合通道注意力机制后结果对比 在洗碗机的单轮模型训练时间上,BIAGRU比WGRU快7倍,BIAGRU在第2类试验中各项指标表现最优,F1分数最大提升了37%,RETE和MAE分别降低了21%和24%。WGRU和BIAGRU在第3类及第4类实验中获得了更好的F1分数和MAE值,原因是洗碗机的运行状态及功率特征多,适合被GRU的更新门记忆。就洗衣机而言,除了模型的训练时间较长外,BIGRU在第1类实验中的各项指标是3种模型中最突出的;Seq2Point在第3类及第4类实验中分别获得了最低的总功率相对误差值,而BIGRU在F1分数和MAE表现更好,其原因是Seq2Point的卷积层在

42、提取负荷特征时,忽略了功率序列之间的长时依赖,部分特征未能被捕捉到;微波炉在BIAGRU模型下的所有实验中都表现突出,说明BIAGRU模型具有良好的泛化能力;冰箱和热水壶在第1类、第2类和第3类实验中,BIAGRU表现相对较好,尤其在第3类实验的各项指标表现最优,说明BIAGRU模型在分解具有简单行为的设备如只有开关状态的水壶和周期性使用特性的冰箱表现优秀,侧面凸显了通道注意机制在检测设备开/关事件中提高了网络性能。实验评价指标结果见表4所列。表 4 实验评价指标结果 Table 4 Results of experimental evaluation indicators 实验设备 实验类别

43、 模型类别F1 RETE MAE 训练时间/s洗碗机1 WGRU0.33 0.17 13.222750 Seq2Point0.31 0.35 15.44395 BIAGRU0.25 0.17 12.03385 2 WGRU0.26 0.77 37.472750 Seq2Point0.35 0.83 41.77395 BIAGRU0.63 0.62 33.48385 3 WGRU0.33 0.57 26.452875 Seq2Point0.35 0.70 40.52540 BIAGRU0.33 0.34 20.75370 4 WGRU0.30 0.65 8.602875 Seq2Point0.3

44、1 0.20 13.10505 BIAGRU0.53 0.77 8.60690 洗衣机1 WGRU0.51 0.26 18.515485 Seq2Point0.25 0.15 18.50750 BIAGRU0.54 0.12 16.55735 2 WGRU0.3 0.34 13.105485 Seq2Point0.10 0.66 20.57750 BIAGRU0.34 0.43 10.45735 3 WGRU0.12 0.36 22.742925 Seq2Point0.14 0.16 17.20735 BIAGRU0.19 0.36 14.66405 4 WGRU0.26 0.66 43.65

45、2925 Seq2Point0.22 0.54 42.22735 BIAGRU0.18 0.70 41.93405 冰箱 1 WGRU0.63 0.27 33.292810 Seq2Point0.63 0.30 33.20390 BIAGRU0.59 0.13 30.56725 2 WGRU0.82 0.13 28.462810 Seq2Point0.82 0.21 26.86390 BIAGRU0.91 0.13 33.43365 3 WGRU0.52 0.18 51.182595 Seq2Point0.52 0.22 50.52370 BIAGRU0.52 0.03 49.52350 4

46、WGRU0.53 0.32 52.572595 Seq2Point0.42 0.27 60.06360 BIAGRU0.5 0.33 51.39350 微波炉1 WGRU0.16 0.14 7.512800 Seq2Point0.22 0.35 6.01395 BIAGRU0.32 0.09 6.29370 2 WGRU0.26 0.17 5.982800 Seq2Point0.37 0.54 5.29395 BIAGRU0.44 0.25 4.36720 3 WGRU0.08 0.59 60.532200 Seq2Point0.1 0.55 59.61205 BIAGRU0.22 0.51

47、59.36205 4 WGRU0.41 0.19 23.532200 Seq2Point0.34 0.15 25.13370 BIAGRU0.36 0.08 22.68205 热水壶1 WGRU0.44 0.14 8.572815 Seq2Point0.28 0.24 17.60295 BIAGRU0.65 0.09 7.35365 2 WGRU0.49 0.28 17.352815 Seq2Point0.39 0.36 29.80395 BIAGRU0.90 0.31 14.04715 3 WGRU0.27 0.27 12.245480 Seq2Point0.41 0.56 10.44750

48、 BIAGRU0.41 0.05 9.92705 8 钱玉军等:基于通道注意力机制和 BIGRU 的非侵入式负荷分解方法 Vol.21 No.7 3.2 模型伸缩性分析 本设计在网络参数量大小与训练推理速度两方面进行了优化,采用通道注意力机制改进BIGRU,在不降低算法准确率的前提下使网络更加专注重要特征以此降低算法的复杂度,提升计算效率。模型训练时间从1天增加到3个月,测量不同规模测试数据的训练时间分析模型可伸缩性。各模型训练参数见表5所列。各模型测试周期对比如图6所示。表 5 各模型训练参数 Table 5 Training parameters for each model 模型 训练总

49、参数 每轮训练最长时间/sWGRU 261 585 1097 Seq2Point 5 159 449 150 BIAGRU 39 905 147 图 6 各模型测试周期对比 Fig.6 Comparison of testing cycles for various models 从图6和表5可以明显看出BIAGRU模型实现了与Seq2Point相近的训练推理周期,单轮训练时间比WGRU节省了86%,而模型训练参数较WGRU和Seq2Point分别减少了84%和99%,因此BIAGRU模型在实际工程部署上可以降低硬件的存储空间并提高推理速度。3.3 负荷分解分析 本文提出的NILM算法对研究目

50、标用电器的有功功率消耗进行了分解,与电器实际功耗数据的对比如图7、图8所示。5种设备在3类实验下MAE 图 7 3 类模型的 MAE 性能表现对比 Fig.7 Comparison of MAE performance of three types of models 图 8 5 类电器真实功率与模型分解功率对比 Fig.8 Comparison between the real power of each electrical appliance and model decomposition 第 21 卷 第 7 期 电 力 信 息 与 通 信 技 术 9 值表现如图7所示,BIAGRU模

展开阅读全文
相似文档                                   自信AI助手自信AI助手
猜你喜欢                                   自信AI导航自信AI导航
搜索标签

当前位置:首页 > 学术论文 > 论文指导/设计

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2024 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服