收藏 分销(赏)

大规模电力系统潮流计算的分布式GESP算法.pdf

上传人:fa****a 文档编号:36518 上传时间:2021-05-10 格式:PDF 页数:7 大小:741.06KB
下载 相关 举报
大规模电力系统潮流计算的分布式GESP算法.pdf_第1页
第1页 / 共7页
大规模电力系统潮流计算的分布式GESP算法.pdf_第2页
第2页 / 共7页
大规模电力系统潮流计算的分布式GESP算法.pdf_第3页
第3页 / 共7页
大规模电力系统潮流计算的分布式GESP算法.pdf_第4页
第4页 / 共7页
大规模电力系统潮流计算的分布式GESP算法.pdf_第5页
第5页 / 共7页
点击查看更多>>
资源描述

1、2010 年6 月 电 工 技 术 学 报 Vol.25 No. 6 第 25 卷第 6 期 TRANSACTIONS OF CHINA ELECTROTECHNICAL SOCIETY Jun. 2010 大规模电力系统潮流计算的分布式 GESP 算法 谢开贵 张怀勋 胡 博 曹 侃 吴 韬 (重庆大学输配电装备及系统安全与新技术国家重点实验室 重庆 400044) 摘要 并行计算已成为大规模电力系统潮流计算的主要解决手段之一。为取得良好的加速比 和并行效率,基于 GESP 算法提出牛顿法潮流迭代计算中修正方程组求解的分布式算法。根据方 程组系数矩阵非零元主要集中于对角带及高度稀疏等特点确定

2、系数矩阵的超节点,并基于超节点 的边界将潮流修正方程组的系数矩阵划分为若干个 2 维分块矩阵以实现分块存储;在 LU 分解过 程中,采用基于流水线技术的并行分解以提高计算速度。本文设计了分布式存储的并行算法,并 应用于 3000、12000 节点等不同规模电力系统。算例分析表明:在网络达到 2000 节点及以上时, 本文分布式 GESP 法相对串行计算和分布式牛顿法具有明显的速度优势。 关键词:大规模电力系统 潮流计算 GESP 算法 分块存储 流水线技术 分布式计算 中图分类号:TM744 Distributed Algorithm for Power Flow of Large-Scale

3、 Power Systems Using the GESP Technique Xie Kaigui Zhang Huaixun Hu Bo Cao Kan Wu Tao (State Key Laboratory of Power Transmission Equipment & System Security and New Technology, Chongqing University Chongqing 400044 China) Abstract Parallel computing has become a main means for power flow calculatio

4、n of large scale power systems. In order to obtain a good parallel speedup and efficiency, this paper presents a distributed algorithm for solving linear power flow iteration equations of Newton approach using the Gaussian-elimination-with-static-pivoting (GESP) technique. Based on the properties of

5、 coefficient matrix, such as the diagonal dominance and sparsity, the matrix can be split into several blocks with a smaller dimension and be stored in a distributed storage mode based on the border of supernodes. The pipeline technique is also used to improve the efficiency of the proposed algorith

6、m in the process of parallel LU decomposition. A distributed parallel algorithm for power flow is designed and applied to a number of power systems, such as the power systems with 3000 and 12000 buses. Results of case studies show that the major advantage of the proposed distributed GESP method is t

7、hat it has better parallel speedup and efficiency when a power system has more than 2000 buses. Keywords:Large-scale power systems, power flow calculation, GESP algorithm, distributed storage, pipeline technique, distributed computing 1 引言 区域大电网互联的运行行为分析以及电力市场 环境下实时安全控制和潮流跟踪计算,都迫切需要 快速地进行大规模甚至超大规模电力

8、潮流计算1。 在潮流计算中,需对形如 Ax=b 的高维稀疏线性修 正方程进行反复求解,以得到收敛的潮流解。文献 2指出:在用牛顿法计算电力系统潮流时,超过 80%的时间用于求解高维修正方程组,而 LU 分解 更占据了大规模电力系统潮流单步迭代的绝大部分 国家自然科学基金(50777067),输配电装备及系统安全与新技术 国家重点实验室项目(2007DA10512709103)和重庆市自然科学基 金重点项目(CSTS2008BC7031)等资助。 收稿日期 2008-10-15 改稿日期 2009-03-16 90 电 工 技 术 学 报 2010 年 6 月 时间。在求解超大规模电力系统潮流问

9、题时,已有 的潮流算法呈现出计算机内存不足、收敛速度慢等 维数灾问题。 高性价比可扩展集群并行系统的逐步成熟和应 用,使大规模电力系统潮流并行计算和分布式仿真 成为可能。采用并行技术处理 LU 分解和三角方程 的求解, 已成为大规模电力系统潮流计算的新思路。 并行计算的本质是将多任务映射到多处理机中进行 处理。电力系统潮流并行计算的主要研究内容正是 设计具有较高并行性、较低数据相关性的高效并行 算法。 现有的潮流并行计算方法主要有 3 类:分解协 调计算法、稀疏矢量法、Krylov 子空间迭代法。分 解协调计算法3-4通过对大规模电力网络进行物理 意义上的区域分块,并将各子块通过协调层联系起

10、来。这样便将潮流计算转换为各个子块潮流的并行 计算和协调层的计算。但是,对大电网进行合理区 域划分的策略和依据,以及对协调层进行平衡计算 已成为该算法的难点。稀疏矢量法5需提前判断前 代和回代过程中所必需的运算,然后根据运算过程 中的因子表路径找出其中可以并行执行的部分。文 献6将消去树理论与稀疏向量法相结合使得 LU 分 解过程也具有了可并行性。Krylov 子空间方法7-8 在潮流计算过程中将高维非线性方程组划分为内、 外双层迭代,在求解内层线性化方程组时采用 Krylov 子空间方法并行求解。但是,文献9指出 Krylov 子空间方法的收敛速度和稳定性严重依赖于 系数矩阵的条件数和特征值

11、分布,所以必须对其进 行恰当的预条件处理才能取得良好的收敛特性。 GESP(Gaussian Elimination with Static Pivoting) 算法10已在 20 世纪末提出,其适用于分布式并行 处理大规模稀疏方程组。该算法通过采用静态选主 元技术来代替传统稀疏高斯消去过程中的部分选主 元技术。文献11指出,GESP 算法已在电路仿真、 石油工程、流体力学等领域取得了初步的应用,并 且在分布式存储的并行计算平台上显示出良好的稳 定性。但是到目前为止,GESP 算法在电力系统潮 流计算中的设计、实现及应用还很鲜见。 已有的电力系统潮流并行算法大都基于共享存 储的并行计算平台,使

12、得潮流并行计算严重依赖于 昂贵的共享存储并行计算机,以至于在实际工程应 用中潮流并行计算很难实现。本文在分布式集群环 境下,结合电力系统潮流方程固有的稀疏性特点, 利用 GESP 算法对潮流计算中修正的大型稀疏方程 组进行并行 LU 分解以及 LU 分解后的三角方程进 行并行求解。 2 GESP 算法及其在潮流计算中的应用 传统牛顿潮流算法将大量非线性方程组转换成 线性修正方程组进行反复迭代、串行求解。但是, 随着网络规模不断扩大,串行计算面临着越来越严 重的维数灾问题。利用潮流问题修正方程系数矩阵 固有的超稀疏性,对其进行快速并行求解成为解决 问题的新思路。 2.1 GESP 算法 稀疏线性

13、方程组的直接求解常需进行系数矩阵 的 LU 分解。进行矩阵分解时,可能会引入填充元, 从而增加了计算复杂性和储存需求。另外,分解过 程中的主元为 0 或者主元的模太小也会导致分解无 法进行或者数值不稳定。 传统的部分选主元 LU 分解算法在计算过程中 通过对主元进行修正,在保证矩阵的非零元结构情 况下取得较高的数值稳定性。但是,部分选主元算 法必须动态改变数据的存储结构,由此所采用的细 粒度通信模式使其难以在分布式存储的集群系统上 并行执行。 静态选主元相对于部分选主元的优点在于可以 提前决定高斯消去过程中的数据结构和通信模式。 基于静态选主元技术的 GESP 算法在 LU 数值分解 之前对矩

14、阵 A 进行对称置换和选主元操作,减少了 分解过程中非零元的填入,提高了分解过程的并行 性。这使得 GESP 算法可以提前确定填入模式、分 布式的数据结构和通信模式,便于对 A 矩阵进行块 状划分的粗粒度的并行计算。 设 A=aij为线性方程组 Ax=b 的系数矩阵, 为收敛容差(可根据实际问题需要选取合适的值) , eb、elb分别表示当前回代误差和最小回代误差。 GESP 算法11求解大规模稀疏方程组的计算步骤如 下: (1)通过双向加权匹配算法对 A 执行行置换, 以实现其对角占优。 (2)对 A 进行符号分解并执行列置换,以保 证其在分解过程中的稀疏性,同时对 A 进行静态选 主元。

15、(3) 因式分解=AL U并控制对角元绝对值的 大小: if (|aii| 1 ?A then do aii 1 ?A 第 25 卷第 6 期 谢开贵等 大规模电力系统潮流计算的分布式 GESP 算法 91 endif (4)用矩阵 L 和 U 进行三角求解。如有必要, 进行迭代修正: iterate: rbA x= /稀疏矩阵矢量乘 Solve Axr = /三角求解 max () i bi i r e Axb = + /回代误差 if or bb ee 1 2 lb e break /满足精度退出 else xxx=+ /对解进行修正 eb=elb goto iterate endif 从

16、 GESP 算法流程可以看出,第 2 步的静态选 主元操作可能使所得解中包含较大的误差,但通过 (4)的迭代修正保证了最终解的精度。GESP 算法 作出这种改进的目的正是为了适应大规模线性方程 组分布式存储、求解的需要。 2.2 基于 GESP 算法的牛顿潮流算法 牛顿潮流算法的突出优点是算法具有二次方收 敛特性,且算法的迭代次数与网络规模基本无关, 对某些病态问题也具有较可靠的收敛特性12。但牛 顿法每次迭代计算时间过长以及所需的存储量较 大,所以很难直接应用于超大规模电力系统潮流求 解。由于牛顿潮流修正方程的系数矩阵是一个超稀 疏矩阵, 且系数矩阵的非零元主要分布于对角带上。 如果能够充分

17、利用系数矩阵的稀疏性,进行各块都 较小的某种分块划分时,只有少量块中存在非零元 素,而其他块中的元素都是 0。利用 GESP 算法对 牛顿法潮流的修正方程组进行求解,可以充分利用 修正方程系数矩阵的稀疏性,降低计算过程中的存 储需求。此外,GESP 算法所具有的可并行性,使 得对修正方程进行直接并行求解成为可能,从而大 大降低了程序所需的计算时间。根据牛顿法潮流计 算的步骤,可形成基于 GESP 算法的牛顿潮流分布 式算法的流程,如图 1 所示。 3 基于 MPI 的分布式潮流计算 下面将根据潮流修正方程系数矩阵的结构和分 布的特点, 设计 GESP 算法的数据结构以及稀疏 LU 图 1 GE

18、SP 算法在牛顿潮流计算中应用 Fig.1 Distributed algorithm for power flow using the GESP technique 分解的分布式处理算法,算法流程如图 1 所示。 本文利用 MPI(Message Passing Interface)进 行数据通信和进程同步。MPI 是目前国内外高性能 集群中最广泛使用的并行通信接口,采用消息传递 的方式实现并行程序间通信13。在分布式计算过程 中数据复制的速度和延迟是影响消息传递效率的关 键因素,因而如何减少进程之间的数据交换是提高 并行效率的关键。 3.1 分布式数据结构的设计 如 2.2 节所述:大规模

19、电力系统牛顿潮流修正 方程的系数矩阵为一超稀疏矩阵且非零元主要集中 于对角带。由此可见,对系数矩阵的分块存储可以 在很大程度上减少存储量与计算量。 本文将系数矩阵基于超节点(超节点即是基于 L 或 U 阵的非零元结构划分的方阵)12的边界划分 为若干个二维分块矩阵。由于系数矩阵的非零元主 要集中于对角带上,所以每个超节点中只存在少量 的非零元。如果一个 NN 矩阵里面有 M(M?N) 个超节点,那么该矩阵即被划分为 M2个子块。 如图 2 所示: 图 2a 为一个由 6 个处理器节点 (即 0,1,2,3,4,5)排列成 23 的 2 维处理器网格; 图 2b 表示系数矩阵分块划分后,分块存储

20、在由图 2a 中的处理器网格循环排列成的处理器网格上,即 92 电 工 技 术 学 报 2010 年 6 月 方格中的数字表示该子块对应的处理器编号。图 2b 中位于系数矩阵对角线上的阴影子块皆为超节点, 而其他子块的维数则取决于其所处行块与列块中超 节点的维数。基于直接对分块进行存储的思想,系 数矩阵的每个子块被看作一个元素存储在 2 维处理 器网格的某个节点上。设 Pr、Pc分别表示 2 维处理 器网格中行、列所含处理节点的个数,则在这种存 储方式中,子块 A(i, j)(0i, jM1)将被存储在 坐标为(i mod Pr, j mod Pc)的处理器网格节点上。 如图 2 中,设图 2

21、b 中 A(3,5)表示 A 阵中第 4 行、 第 6 列的子块, 则其被存储在图 2a 中坐标为 (1, 2) 的 5 号处理器上。 图 2 对应于处理器网格的矩阵分块存储 Fig.2 Distributed storage mode for the matrix based on the processor grid 对于稀疏矩阵,尽管 1 维划分更常用且更易于 执行,但是采用上述 2 维分块划分存储方式后,系 数矩阵中下三角子块 L(i, j)在分解过程中仅被存储 了行块 i 的那些处理器用到。 同样, 上三角子块 U(i, j)也仅被存储了列块 j 的那些处理器用到。由此可 见,2 维

22、分块存储可以带来更好的负载平衡和更低 的通信量,其也更利于算法的升级。 3.2 基于流水线技术的并行 LU 分解 在矩阵分块存储中,系数矩阵的每个列块、行 块都存储在多个处理器节点上。记 PR(i)、PC(j)分 别为存储了行块 i、 列块 j 的处理器集合。 如图 2 中, PR(2)=3,4,5,PC(1)=0,3。 并行稀疏 LU 分解算法在各个超节点之间进行 迭代分解。其第 K 步迭代主要由 3 步组成: (1)处理节点列 PC(K)参与列块 L(KM, K) (即列块 K 中位于超节点下方的所有子块)的因子 分解。 (2)处理节点行 PR(K)参与分解行块 U(K, K+1K)。 (

23、3)对所有节点用 L(K+1M, K) 和 U(K, K+1M) 进行更新。 上述过程中第 3 步为并行 LU 分解的主要工作, 同时相对于其他两步也具有更大的可并行性。 设 dia 为当前迭代过程所处理的超节点,并行稀疏 LU 分 解算法的基本流程如下: For 块 K=1 to M do (1) if (diaPC(K) then 分解列块 L(KM, K) 发送 L(KM, K)到对角块所处的节点行 中需要它的节点上 else 从节点列 PC(K)中某个节点接收 L(K M, K) endif (2) if (diaPR(K) then 分解行块 U(K, K+1M) 发送 U(K, K

24、+1M)到对角块所处的节点 列中需要它的节点上 else 从节点行 PR(K)中某个节点接收 U(K, K+1M) endif (3) for J=K+1 to M do for I=K+1 to M do if(diaPR(I) and diaPC(J) and L(I,K)0 and U(K,J)0) then 更新子矩阵: A(I,J)(A(I,J)L(I,K)U(K,J) endif End For 并行稀疏 LU 分解单步迭代时的第 3 步工作耗 时最长,可以与下一个单步迭代的第 1、第 2 步工 作并行执行。本文采用流水线技术来实现其并行计 算,即在处理器列 PC(K)完成第 K

25、步迭代列块 K+1 的分解后,处理器列 PC(K+1)可以同时并行执行第 K+1 步迭代的前两步计算,而不必等到处理器列 PC(K)完成第 K 步迭代的所有列块分解后才开始第 K+1 步迭代的计算。其过程如图 3 所示,图中 Tij 表示第 i 步迭代的第 j 步计算工作。由图可见,基 第 25 卷第 6 期 谢开贵等 大规模电力系统潮流计算的分布式 GESP 算法 93 于流水线技术的并行算法相对于串行算法,可以使 相邻的两步迭代在计算时间上得到重叠,从而达到 了减少程序整体计算时间的目的。 图 3 基于流水线技术的并行处理过程 Fig.3 Parallel processing based

26、 on the pipeline technique 在并行计算过程中,本文使用 MPI 标准非阻塞 通信接口 mpi_irecv 和 mpi_isend 完成节点间的数据 接收和发送操作。非阻塞通信可以解决节点间数据 同步时等待时间过长的问题,实现计算与通信的时 间重叠。因为在此通信模式下,计算节点可以在等 待接收所需数据的同时向其他节点发送数据。而在 传统阻塞通信模式下,节点在一个通信时间段内只 能执行发送操作或者接收操作,从而导致节点间耗 费大量的相互等待时间,极端情况下甚至导致进程 间发生死锁,使程序的计算效率大大降低。基于 MPI 非阻塞通信模式的流水线技术大大减少了进程 间的等待、

27、数据同步时间,提高了程序的并行效率。 4 算例测试及分析 本文利用曙光 TC1700 服务器和 Cisco 千兆以 太网交换机搭建了具有若干处理节点的分布式计算 平台。每个节点处理器为 Xeon 2.0GHz/512KB,具 有 1GB 内存存储空间,操作系统为 Linux v9.0,节 点间的并行通信接口为:MPICH-1.2.5。 由于对系数矩阵采用了基于超节点的分块存 储,如果不同的超节点之间规模差异过大将不利于 节点间负载平衡,同时单个超节点的规模过大会使 其失去稀疏性从而增加计算量、降低了单个处理器 节点的计算效率,所以本文选定单个超节点的最高 维数不超过 20。潮流计算中,收敛容差

28、为 104(基 准功率 100MVA) 。 测试系统包括由 IEEE 标准测试系统(30 和 118 节点系统)合成的多个大规模系统。合成系统15 将 IEEE标准系统按 NN网格结构通过联络线互联 起来,从而得到更大规模的测试系统。合成系统的 节点导纳矩阵与同等规模的实际输电网络的节点导 纳矩阵具有接近的条件数。表 1 给出了 8 个算例系 统的网络规模和 Jacobi 矩阵条件数。 表 1 测试系统的规模及 Jacobi 矩阵条件数 Tab.1 The scale of test systems and condition number of Jacobi matrix 系统 支路数 节点

29、数 Jacobi 矩阵条件数 IEEE30 IEEE118 SYN472 SYN1062 SYN1920 SYN3000 SYN7680 SYN12000 41 179 720 1620 2376 4280 18080 17160 30 118 472 1062 1920 3000 7680 12000 1.64e+03 2.97e+03 3.71e+03 1.27e+04 2.14e+04 5.14e+04 9.64e+04 2.84e+05 表 2 为本文分布式 GESP 法与分布式牛顿法、 串行牛顿法潮流计算结果的对比,其中分布式 GESP 法与分布式牛顿法为 4 节点 4 进程的计算结

30、 果,串行牛顿法为单节点的串行求解结果。收敛时 间指 10 次潮流计算的平均时间。从表 2 可以看出: 分布式 GESP 潮流算法与分布式牛顿法的收敛特性 相同,且收敛速度明显快于分布式牛顿法。这表明 GESP 算法已对直接牛顿法做出了重要改进,使其 利于分布式并行计算。 表 2 三种潮流计算方法的速度比较 Tab.2 Comparison of calculation speeds for three power flow calculation methods 计算时间/s 测试系统 串行牛顿法 分布式牛顿法 分布式 GESP 法 IEEE30 IEEE118 SYN472 SYN1062

31、 SYN1920 SYN3000 SYN7680 SYN12000 0.03 0.06 0.21 0.55 4.83 12.71 91.42 220.47 1.55 1.64 1.72 1.94 2.31 2.95 9.93 26.91 0.88 0.97 1.28 1.33 1.48 1.62 8.31 23.26 由表 2 可见,随着系统规模的增大,分布式 GESP 求解潮流的收敛时间呈超线性增长。此时, 增加计算节点成为解决问题的思路之一。表 3 给出 3000 和 12000 节点系统在采用不同数目计算节点时 的加速比与并行效率。由表 3 可看出:随着计算节 点的增加,并行加速比的增大

32、会出现瓶颈并呈逐步 94 电 工 技 术 学 报 2010 年 6 月 下降趋势,并行效率亦将趋于降低。其原因为:一 方面,随着并行度的增大,并行计算部分的计算负 荷将减小而串行计算负荷将增大,串行计算所引起 的开销在整个计算过程中所占的比例越来越高;另 一方面,GESP 算法涉及全局通信操作,其耗用的 时间将随着参与通信操作的并行处理单元的数目以 及通信量的增加而增加。因此,对大规模电力系统 方程进行分布式计算时,随着计算节点的增多,并 行加速比在达到某一值后,便会随着并行度的继续 增大而下降,并行效率亦趋于下降。这符合 Amdahl 并行加速比定律14。 表 3 逐步增加计算节点时的加速比

33、与并行效率 Tab.3 Comparison of parallel speedup and efficiency with different number of processors SYN3000 SYN12000 计算节点数 加速比 并行效率 加速比 并行效率 2 4 6 8 10 3.21 7.16 7.97 7.36 5.69 1.61 1.79 1.33 0.92 0.57 2.23 9.48 15.03 21.82 24.20 1.12 2.37 2.51 2.73 2.43 表4给出了节点数为3000的系统在采用不同并 行算法时加速比和并行效率的变化情况。从表中可 以看出:在

34、相同计算节点的情况下,GESP 算法比 分布式牛顿法具有更高的加速比和并行效率。这说 明本文采用的稀疏矩阵分块存储技术可以有效降低 并行计算过程中进程间的通信量,而基于流水线技 术的 LU 并行分解则进一步减少了进程间的等待和 同步时间,以上两者使得本文方法的加速比和并行 效率相对传统并行算法得到了明显的提升。 表 4 采用不同并行算法计算 SYN3000 网络的 加速比与并行效率 Tab.4 Comparison of parallel speedup and efficiency using different parallel methods for the SYN3000 system

35、 分布式 GESP 法 分布式牛顿法 计算节点数 加速比 并行效率 加速比 并行效率 2 4 6 8 10 3.21 7.16 7.97 7.36 5.69 1.61 1.79 1.33 0.92 0.57 2.81 4.78 4.43 4.22 3.38 1.41 1.19 0.74 0.53 0.34 5 结论 基于新型数学模型的潮流快速并行计算越来越 得到研究人员的重视,为提高潮流并行计算的加速 比和并行效率,本文利用 GESP 算法对牛顿潮流修 正线性方程组的分布式并行求解进行了研究。 根据牛顿潮流方程修正线性方程组系数矩阵的 稀疏性特点,本文对其进行基于超节点划分的分块 存储,并在此

36、基础上将流水线技术应用于并行 LU 分解过程中。在分布式计算平台上,采用 Linux+ MPI 的软件架构,实现了 GESP 牛顿潮流算法的并 行计算。通过对不同规模的测试系统计算表明:本 文方法对较大规模电力网络进行潮流计算时,在满 足相同求解精度的条件下,相对于串行潮流算法、 传统并行算法具有较好的速度优势。通过对同一系 统在不同计算节点下测试表明:本文方法相对传统 潮流分布式算法具有可扩展性,且有较高的加速比 与并行效率。 参考文献 1 卢强,周孝信,薛禹胜,等. 面向 21 世纪电力科学 技术讲座M. 北京:中国电力出版社,2000. 2 刘洋,周家启,谢开贵,等. 基于 Beowul

37、f 集群的 大规模电力系统方程并行 PCG 求解J. 电工技术 学报,2006,21 (3): 105-111. Liu Yang, Zhou Jiaqi, Xie Kaigui, et al. Parallel PCG solution of large scale power system equations based on Beowulf clusterJ. Transactions of China Electro- technical Society, 2006, 21 (3): 105-111. 3 张海波,张伯明,孙宏斌. 基于异步迭代的多区域 互联系统动态潮流分解协调计算J.

38、 电力系统自动 化,2003,27(24) : 1-9. Zhang Haibo, Zhang Boming, Sun Hongbin. A decomposition and coordination dynamic power flow calculation for multi-area interconnected system based on asynchronous iterationJ. Automation of Electric Power Systems,2003,27(24): 1-9. 4 陈颖,沈沉,梅生伟,等. 基于改进 Jacobian-Free Newton-

39、GMRES(m)的电力系统分布式潮流计算J. 电力系统自动化,2006,30(9): 5-9. Chen Ying, Shen Chen, Mei Shengwei, et al. Distributed power flow calculation based on an improved Jacobian-Free Newton-GMRES (m) methodJ. Automation of Electric Power Systems, 2006, 30(9): 5-9. 第 25 卷第 6 期 谢开贵等 大规模电力系统潮流计算的分布式 GESP 算法 95 5 Wu Junqiang

40、, Bose. A parallel solution of large sparse matrix equations and parallel power flowJ. IEEE Transactions on Power System, 1995, 10(3): 1343-1349. 6 徐得超,李亚楼,郭剑,等. 消去树理论及其在潮 流计算中的应用J. 电网技术, 2007, 31(22): 12-16. Xu Dechao, Li Yalou, Guo Jian, et al. Elimination tree theory and its application in power

41、flow calculationJ. Power System Technology, 2007, 31(22): 12-16. 7 Chen Tsung Hao, Charlie Chung Ping Chen. Efficient large-scale power grid analysis based on preconditioned Krylov-subspace iterative methodsC. Proceedings of Design Automation Conference, USA, Las Vegas, Nevada, 2001: 559-562. 8 Alex

42、ander Flueck J, Chiang Hsiao Dong. Solving the nonlinear power flow equations with an inexact Newton method using GMRESJ. IEEE Transactions on Power System, 1998, 13(2): 267-273. 9 刘洋,周家启,谢开贵,等. 预条件处理 CG 法大 规模电力系统潮流计算J. 中国电机工程学报, 2006,26(7): 89-94. Liu Yang, Zhou Jiaqi, Xie Kaigui, et al. The precon

43、ditioned CG method for large scale power flow solutionJ. Proceedings of the CSEE, 2006, 26(7): 89-94. 10 Li X S, Demmel J W. Making sparse Gaussian elimination scalable by static pivotingC. In Proceedings of SC98: High Performance Networking and Computing Conference (Orlando, FL), 1998: 236-240. 11

44、Patrick R Amestoy, Iain S Duff, Xiaoye S Li. Analysis and comparison of two general sparse solvers for distributed memory computersJ. ACM Transactions on Mathematical Software (TOMS), 2001, 27(4): 388-421. 12 诸骏伟. 电力系统分析M. 北京: 中国电力出版 社,1995. 13 都志辉. 高性能并行计算之并行编程技术MPI 并行程序设计M. 北京: 清华大学出版社,2002. 14 Ja

45、mes W Demmel, Stanley C Eisenstat, John R Gilbert, et al. A supernode approach to sparse partial pivotingJ. SIAM Journal on Matrix Analysis and Applications, 1999, 20(3): 1-15. 15 刘洋. 大规模电力系统并行处理技术及可靠性评估 Web 计算系统研究D. 重庆: 重庆大学, 2006. 16 陈国良. 并行计算结构、算法、编程M. 北京: 高等教育出版社,1999. 作者简介 谢开贵 男,1972 年生,博士,教授,博士生导师,主要从事电 力系统规划与可靠性、电力系统优化运行、电力系统并行计算及电 力市场等方向的研究和教学工作。 张怀勋 男,1984 年生,硕士研究生,研究方向为电力系统规划 与可靠性、电力系统并行计算。

展开阅读全文
部分上传会员的收益排行 01、路***(¥15400+),02、曲****(¥15300+),
03、wei****016(¥13200+),04、大***流(¥12600+),
05、Fis****915(¥4200+),06、h****i(¥4100+),
07、Q**(¥3400+),08、自******点(¥2400+),
09、h*****x(¥1400+),10、c****e(¥1100+),
11、be*****ha(¥800+),12、13********8(¥800+)。
相似文档                                   自信AI助手自信AI助手
搜索标签

当前位置:首页 > 行业资料 > 能源/动力工程

移动网页_全站_页脚广告1

关于我们      便捷服务       自信AI       AI导航        获赠5币

©2010-2025 宁波自信网络信息技术有限公司  版权所有

客服电话:4008-655-100  投诉/维权电话:4009-655-100

gongan.png浙公网安备33021202000488号   

icp.png浙ICP备2021020529号-1  |  浙B2-20240490  

关注我们 :gzh.png    weibo.png    LOFTER.png 

客服