一种配电网分布式储能模型预测控制方法

    公开(公告)号:CN115085192A

    公开(公告)日:2022-09-20

    申请号:CN202210809820.X

    申请日:2022-07-11

    IPC分类号: H02J3/00 H02J3/32 H02J3/46

    摘要: 本发明提供一种配电网分布式储能模型预测控制方法,包括:构造分布式储能的日前经济优化调度模型并求解,获取分布式储能的日前经济运行计划曲线;基于滚动优化和反馈校正的模型预测控制原理,将模型等效转换为二次规划问题,求解获取分布式储能的日内滚动控制指令序列;下发当前时刻向后一个控制周期的分布式储能控制指令值,采样实时分布式储能SOC及节点电压状态,更新可再生能源和负荷超短期预测功率值进行反馈修正,并重复优化过程进行时域滚动,直至一天内的最后控制时刻达到。本发明兼顾经济性和鲁棒性,在充分量化评估分布式储能不同运行方式下的使用寿命的基础上,更合理的制定分布式储能的运行计划。

    一种基于纳什Q学习的微电网群互动博弈策略学习进化方法

    公开(公告)号:CN116050632B

    公开(公告)日:2024-06-21

    申请号:CN202310083666.7

    申请日:2023-02-08

    摘要: 本发明提供一种基于纳什Q学习的微电网群互动博弈策略学习进化方法,包括:考虑多主体利益诉求与微电网群互动约束,构建微电网群互动博弈模型,使用交替方向乘子分布式优化算法松弛问题为全局优化问题求解近似均衡解;基于步骤1求得的近似均衡解,构建近似均衡解驱动的Q‑Learning强化学习训练机制;构建微电网群策略强化学习的动作空间,状态空间和价值函数;基于纳什均衡近似解的迁移学习方法加速强化学习训练和多微电网群互动博弈均衡解求解过程。本发明充分利用历史求得的近似均纳什衡解集,实现微电网群互动运行策略的学习,显著提高历史数据的利用与强化学习的训练效率,加速微电网群互动博弈策略的学习。

    一种基于纳什Q学习的微电网群互动博弈策略学习进化方法

    公开(公告)号:CN116050632A

    公开(公告)日:2023-05-02

    申请号:CN202310083666.7

    申请日:2023-02-08

    摘要: 本发明提供一种基于纳什Q学习的微电网群互动博弈策略学习进化方法,包括:考虑多主体利益诉求与微电网群互动约束,构建微电网群互动博弈模型,使用交替方向乘子分布式优化算法松弛问题为全局优化问题求解近似均衡解;基于步骤1求得的近似均衡解,构建近似均衡解驱动的Q‑Learning强化学习训练机制;构建微电网群策略强化学习的动作空间,状态空间和价值函数;基于纳什均衡近似解的迁移学习方法加速强化学习训练和多微电网群互动博弈均衡解求解过程。本发明充分利用历史求得的近似均纳什衡解集,实现微电网群互动运行策略的学习,显著提高历史数据的利用与强化学习的训练效率,加速微电网群互动博弈策略的学习。

    一种分布式能源产消者点对点能源交易方法

    公开(公告)号:CN115601176A

    公开(公告)日:2023-01-13

    申请号:CN202211356171.9

    申请日:2022-11-01

    摘要: 本发明提出一种分布式能源产消者点对点能源交易方法,其考虑信誉值长期变化趋势,并充分计及产消者、电网公司等多方主体利益的分布式能源产消者P2P交易方法,通过更加合理的信誉值机制的设计,解决现有分布式能源P2P交易机制设计中存在的监管方利益得不到保障、以及分布式能源产消者P2P交易参与度过低的问题,更合理的激励分布式能源产消者提高P2P参与度来降低成本,规范互动交易行为,积极参与P2P互动交易,同时有效改善电网运行效益,推动分布式能源产消者P2P交易机制的完善。本发明为分布式能源的高效消纳和互动交易提供技术保障。

    多微网系统能量管理方法、装置、系统及介质

    公开(公告)号:CN117081042A

    公开(公告)日:2023-11-17

    申请号:CN202310855465.4

    申请日:2023-07-13

    摘要: 本发明涉及智能电网技术领域,具体提供一种多微网系统能量管理方法、装置、系统及介质,旨在解决如何提高多微网系统的收益的问题。为此目的,本发明的一种多微网系统能量管理方法,包括:基于本地状态和动作获取多微网系统的总奖励值,得到样本数据;基于样本数据和DuelingDQN算法训练本地网络,得到当前网络损失函数值;将所述当前网络损失函数值作为评分上传至能量管理平台,以使能量管理平台获取最优评分的微网的本地模型权重,更新全局模型并下发至所有微网;响应于接收到的全局模型,利用正余弦算法更新本地模型并继续进行本地训练,直到最大迭代次数,得到多微网系统能量管理的最优决策。

    电网调度方法、装置、设备和存储介质

    公开(公告)号:CN117039851A

    公开(公告)日:2023-11-10

    申请号:CN202310855106.9

    申请日:2023-07-12

    IPC分类号: H02J3/00 G06Q50/06 G06N20/00

    摘要: 本发明提供了一种电网调度方法、装置、设备和存储介质,包括确定当前电网环境中的通用环境特征的特征权重;根据特征权重,对先验智能体中初始的动作价值函数进行更新,得到当前环境特征下的动作价值函数;在利用当前电网环境的数据,对先验智能体进行训练过程中,基于当前环境特征下的动作价值函数,计算每个采样时刻的动作价值;根据每个采样时刻的动作价值,确定动作价值网络参数累计梯度和策略网络参数累计梯度;分别对动作价值网络参数以及策略网络参数进行更新,直到达到训练停止条件,得到后验验智能体,实现了利用通用环境特征,快速确定先验智能体在当前环境特征下的动作价值函数,避免了在新环境下的决策遗忘现象,提高了智能体的学习效率。

    一种基于改进深度强化学习的综合能源系统能量管理方法

    公开(公告)号:CN115409645A

    公开(公告)日:2022-11-29

    申请号:CN202210965022.6

    申请日:2022-08-12

    摘要: 本发明提供一种基于改进深度强化学习的综合能源系统能量管理方法,包括:1)基于综合能源系统的历史运行数据,采用长短时记忆神经网络搭建各综合能源系统等值封装模型;2)构建各综合能源系统能量管理策略学习训练所需的强化学习环境;3)采用k优先采样策略代替ε贪心策略改进深度强化学习算法,并基于改进深度强化学习算法对各综合能源系统能量管理策略在线学习。本发明通过长短时记忆神经网络的等值建模简化了多综合能源系统互动时的复杂迭代过程,降低了能量管理方案求解难度,同时改进的深度强化学习算法能够在大规模动作空间的探索中减少对低奖励值动作的访问频次,具有更好的收敛性与稳定性。