华南理工大学学报(自然科学版) ›› 2010, Vol. 38 ›› Issue (10): 139-145.doi: 10.3969/j.issn.1000-565X.2010.10.026

• 动力与电气工程 • 上一篇    下一篇

基于多步回溯Q(λ)学习算法的多目标最优潮流计算

余涛 胡细兵 刘靖   

  1. 华南理工大学 电力学院, 广东 广州 510640
  • 收稿日期:2010-03-24 修回日期:2010-05-16 出版日期:2010-10-25 发布日期:2010-10-25
  • 通信作者: 余涛(1974-),男,博士,副教授,主要从事复杂电力系统的非线性控制理论和最优化方法研究. E-mail:taoyul@scut.edu.cn
  • 作者简介:余涛(1974-),男,博士,副教授,主要从事复杂电力系统的非线性控制理论和最优化方法研究.
  • 基金资助:

    国家自然科学基金资助项目(50807016); 广东省自然科学基金资助项目(9151064101000049); 中央高校基本科研业务费专项资金资助项目(2009ZM0251)

Multi-Objective Optimal Power Flow Calculation Based on Multi-Step Q(λ) Learning Algorithm

Yu Tao  Hu Xi-bing  Liu Jing   

  1. School of Electric Power,South China University of Technology,Guangzhou 510640,Guangdong,China
  • Received:2010-03-24 Revised:2010-05-16 Online:2010-10-25 Published:2010-10-25
  • Contact: 余涛(1974-),男,博士,副教授,主要从事复杂电力系统的非线性控制理论和最优化方法研究. E-mail:taoyul@scut.edu.cn
  • About author:余涛(1974-),男,博士,副教授,主要从事复杂电力系统的非线性控制理论和最优化方法研究.
  • Supported by:

    国家自然科学基金资助项目(50807016); 广东省自然科学基金资助项目(9151064101000049); 中央高校基本科研业务费专项资金资助项目(2009ZM0251)

摘要: 为了克服传统的最优化算法面对复杂、非线性描述的多目标最优潮流时无法满足电力系统实时调度运行的这一缺点,提出了一种基于半马尔可夫决策过程的多步Q(λ)学习算法,该算法不依赖于对象模型,将最优潮流问题中的约束、动作和目标转换成算法中的状态、动作与奖励,通过不断的试错、回溯、迭代来动态寻找最优的动作.将该算法在多个IEEE标准算例中与其他算法进行比较,取得了良好的效果,验证了多步Q(λ)学习算法在处理多目标最优潮流问题时的可行性和有效性.

关键词: 电力系统, 最优潮流, Q(λ)学习算法, 多目标优化, 强化学习

Abstract:

As the conventional optimization algorithms of power flow cannot meet the requirements of real-time scheduling of power system with complex and nonlinear descriptional multi-objective optimal power flow(OPF),this paper presents a multi-step Q(λ) learning algorithm based on the semi-Markov decision process.This algorithm,independent of any accurate model,converts the constraints,actions and targets of the optimal power flow to the status,actions and rewards of the algorithm,and dynamically finds the optimal action by continuous fault testing,retrospecting and iteration.By comparing comparison of the proposed algorithm with other algorithms in several IEEE standard examples,it is found that the Q(λ) learning algorithm is feasible and effective in dealing with multi-objective OPF problems.

Key words: electric power system, optimal power flow, Q(λ) learning algorithm, multi-objective optimization, reinforcement learning