-
公开(公告)号:CN118674109A
公开(公告)日:2024-09-20
申请号:CN202410798959.8
申请日:2024-06-20
申请人: 清华大学 , 南方电网科学研究院有限责任公司
IPC分类号: G06Q10/04 , G06Q10/0631 , G06Q10/067 , G06Q50/06 , G06F17/18 , G06N20/00
摘要: 本发明涉及运行策略优化领域,提供了一种被控系统群的运行策略协同优化方法及装置,方法包括:根据仿真结果确定各动作的Q因子样本方差、各最优动作与非最优动作的Q因子融合值的性能差别以及已消耗样本总量;利用采样数据分配算法对上述量进行分析得到各动作目标样本量;根据各动作目标样本量与各动作已消耗样本量确定各动作补充采样量;根据补充采样量进行补充采样,利用补充仿真结果重新确定各动作的Q因子样本方差、性能差别以及已消耗样本总量;调整已消耗样本总量,判断已消耗样本总量是否小于预设总采样量,若是重新计算目标样本量及之后步骤,若否输出最优动作。本发明协同使用动作一致性的被控系统的运行数据,能够提升优化效率及性能。
-
公开(公告)号:CN118674067A
公开(公告)日:2024-09-20
申请号:CN202410804230.7
申请日:2024-06-20
申请人: 清华大学 , 南方电网科学研究院有限责任公司
IPC分类号: G06N20/00 , G06F17/18 , G06Q10/067 , G06Q10/0631 , G06Q50/06
摘要: 本发明提供了一种面向单约束待控系统的在线约束强化学习方法及装置,包括:按照预设采样量对各动作的仿真结果进行采样,根据采样的仿真结果确定观测的最优动作、可行动作及不可行动作;计算各可行动作及最优动作的Q因子和样本方差、各不可行动作的约束函数QH因子及样本方差;利用采样数据分配算法得到各动作目标样本量;根据各动作目标样本量确定各动作补充采样量;利用补充采样的仿真结果重新确定可行动作及最优动作的Q因子和样本方差、各不可行动作的约束函数QH因子及样本方差;调整已消耗采样总量,判断已消耗样本总量是否满足动作采样量约束条件,若是,输出最优动作至待控系统,本发明能够提升优化策略性能。
-
公开(公告)号:CN118674066A
公开(公告)日:2024-09-20
申请号:CN202410798963.4
申请日:2024-06-20
申请人: 清华大学 , 南方电网科学研究院有限责任公司
IPC分类号: G06N20/00 , G06F17/18 , G06Q10/067 , G06Q10/0631 , G06Q50/06
摘要: 本发明涉及强化学习领域,提供了一种被控系统运行调度的高效率强化学习方法及装置,方法包括:对被控系统的各状态‑动作对进行采样,根据采样结果确定各状态下各动作的动作类型、Q因子样本方差及已消耗样本总量;利用采样数据分配算法确定各状态下各动作目标样本量;根据各动作目标样本量与各动作已消耗样本量,确定各动作补充采样数量;根据各动作补充采样数量进行补充采样,利用补充采样的仿真结果重新确定各动作的动作类型、各状态‑动作对的Q因子样本方差;调整已消耗采样总量,判断已消耗样本总量满足动作采样数量约束条件,若是,则输出各状态下观测到的最优动作,本发明能够区分各状态动作的重要性,提升采样效率及优化策略性能。
-
公开(公告)号:CN111382550B
公开(公告)日:2023-04-18
申请号:CN202010161882.5
申请日:2020-03-10
申请人: 南方电网科学研究院有限责任公司 , 清华大学
IPC分类号: G06F30/3308 , G06F30/331 , G06F30/36
摘要: 本发明公开了一种模块化多电平换流器的动态组合实时仿真方法及使用方法,仿真方法包括:在实时仿真的单个步长内,对MMC依次使用桥臂平均值模型和桥臂等效电路模型;桥臂平均值模型在电气元件计算阶段执行,计算桥臂等效电压源;桥臂等效电路模型计算MMC每个桥臂的子模块的电容电压及其总和,用于下一仿真步长中桥臂平均值模型的计算,该计算与电路矩阵计算并行完成。使用方法包括:在含有多个MMC的系统中,其中部分MMC采用桥臂等效电路模型,其余的MMC采用所述动态组合实时仿真方法,并复用改进的桥臂等效电路模型计算模块。本发明可以在保障MMC所有子模块阀级控制验证功能、计算实时性、准确度的前提下,降低实时仿真器的计算资源需求和硬件成本。
-
公开(公告)号:CN103106328A
公开(公告)日:2013-05-15
申请号:CN201210434039.5
申请日:2012-11-02
申请人: 南方电网科学研究院有限责任公司 , 清华大学
IPC分类号: G06F19/00
摘要: 本发明涉及基于整体矢量拟合法的频率相关网络等值的生成方法,属于电力系统调度自动化与电网仿真技术领域;该方法包括:基于简化模型法求取网络频率特性的采样值,根据频率特性采样值基于矢量拟合法求取FDNE中任意一个元素,采用整体矢量拟合法生成FDNE。该方法具有高效、准确、实用的特点;方便在时域中实现,直接应用于电磁暂态仿真;工程实践效果满意。
-
公开(公告)号:CN112421668B
公开(公告)日:2022-09-16
申请号:CN202011426414.2
申请日:2020-12-09
申请人: 南方电网科学研究院有限责任公司 , 清华大学
摘要: 本发明属于电力系统控制领域,特别涉及一种基于无功支撑能力换相失败预测的电力系统控制方法。本发明方法在换相失败预测控制时考虑各回路的无功补偿能力,将各回路的电压支撑能力体现在换相失败预测控制的参数设定。基于无功补偿来修正换相失败电压降落整定值,可以有效平衡各回路换相失败风险,也能减少增大逆变侧息弧角后直流系统吸收的无功功率,使其更适合线路运行时的状态,当发生故障时,也能更快速、更有效的降低换相失败风险,降低各直流回路无功功率的纹波系数。因此,采用本发明的电力系统控制方法,使线路无功功率变化更加平滑,降低电力系统因换相失败预测控制所带来的无功功率冲击给电压造成的负担,使电力系统的运行更加安全稳定。
-
公开(公告)号:CN111382550A
公开(公告)日:2020-07-07
申请号:CN202010161882.5
申请日:2020-03-10
申请人: 南方电网科学研究院有限责任公司 , 清华大学
IPC分类号: G06F30/3308 , G06F30/331 , G06F30/36
摘要: 本发明公开了一种模块化多电平换流器的动态组合实时仿真方法及使用方法,仿真方法包括:在实时仿真的单个步长内,对MMC依次使用桥臂平均值模型和桥臂等效电路模型;桥臂平均值模型在电气元件计算阶段执行,计算桥臂等效电压源;桥臂等效电路模型计算MMC每个桥臂的子模块的电容电压及其总和,用于下一仿真步长中桥臂平均值模型的计算,该计算与电路矩阵计算并行完成。使用方法包括:在含有多个MMC的系统中,其中部分MMC采用桥臂等效电路模型,其余的MMC采用所述动态组合实时仿真方法,并复用改进的桥臂等效电路模型计算模块。本发明可以在保障MMC所有子模块阀级控制验证功能、计算实时性、准确度的前提下,降低实时仿真器的计算资源需求和硬件成本。
-
公开(公告)号:CN118674068A
公开(公告)日:2024-09-20
申请号:CN202410804234.5
申请日:2024-06-20
申请人: 清华大学 , 南方电网科学研究院有限责任公司
IPC分类号: G06N20/00 , G06F17/18 , G06Q10/067 , G06Q10/0631 , G06Q50/06
摘要: 本发明涉及强化学习领域,提供了一种被控系统运行调度的监督强化学习方法及装置,包括:确定各状态‑动作对的Q因子、Q因子样本方差以及已消耗样本总量;计算各状态下各非观测最优动作的重要性,将重要性排名前△M个非观测最优动作发送至监督者;调整已消耗采样总量,利用采样数据分配算法对各状态‑动作对的Q因子样本方差及已消耗样本总量进行分析得到各状态下各动作目标样本量;确定各动作补充采样数量;根据各动作补充采样数量进行补充采样,利用补充采样结果重新确定之前的步骤;判断已消耗样本总量满足动作采样数量约束条件,若是,则输出各状态下观测到的最优动作,本发明能够将监督者的监督与采样数据融合起来,提升学习效率及性能。
-
公开(公告)号:CN112421668A
公开(公告)日:2021-02-26
申请号:CN202011426414.2
申请日:2020-12-09
申请人: 南方电网科学研究院有限责任公司 , 清华大学
摘要: 本发明属于电力系统控制领域,特别涉及一种基于无功支撑能力换相失败预测的电力系统控制方法。本发明方法在换相失败预测控制时考虑各回路的无功补偿能力,将各回路的电压支撑能力体现在换相失败预测控制的参数设定。基于无功补偿来修正换相失败电压降落整定值,可以有效平衡各回路换相失败风险,也能减少增大逆变侧息弧角后直流系统吸收的无功功率,使其更适合线路运行时的状态,当发生故障时,也能更快速、更有效的降低换相失败风险,降低各直流回路无功功率的纹波系数。因此,采用本发明的电力系统控制方法,使线路无功功率变化更加平滑,降低电力系统因换相失败预测控制所带来的无功功率冲击给电压造成的负担,使电力系统的运行更加安全稳定。
-
公开(公告)号:CN118674065A
公开(公告)日:2024-09-20
申请号:CN202410798671.0
申请日:2024-06-20
申请人: 清华大学 , 南方电网科学研究院有限责任公司
IPC分类号: G06N20/00 , G06F17/18 , G06Q10/067 , G06Q10/0631 , G06Q50/06
摘要: 本发明涉及强化学习领域,提供了一种面向多约束被控系统的在线强化学习方法及装置,方法包括:对动作集合中各动作按预设采样量采样,根据采样结果确定各动作的Q因子的方差、各动作激活约束条件的QH因子的方差及已消耗采样量;根据各动作的已消耗采样量及预设采样增量计算已消耗样本总量;利用采样数据分配算法对上述量进行分析得到各动作的目标样本量;确定各动作补充采样量;根据各动作补充采样量进行补充采样,利用补充采样结果重新确定上述量;调整已消耗采样总量,判断已消耗样本总量是否小于预设总采样量,若否输出该状态的最优动作至被控系统。本发明适用于多约束被控系统,考虑了各约束条件的采样量分配,提高控制策略确定效率。
-
-
-
-
-
-
-
-
-