一种基于纳什Q学习的微电网群互动博弈策略学习进化方法

    公开(公告)号:CN116050632B

    公开(公告)日:2024-06-21

    申请号:CN202310083666.7

    申请日:2023-02-08

    摘要: 本发明提供一种基于纳什Q学习的微电网群互动博弈策略学习进化方法,包括:考虑多主体利益诉求与微电网群互动约束,构建微电网群互动博弈模型,使用交替方向乘子分布式优化算法松弛问题为全局优化问题求解近似均衡解;基于步骤1求得的近似均衡解,构建近似均衡解驱动的Q‑Learning强化学习训练机制;构建微电网群策略强化学习的动作空间,状态空间和价值函数;基于纳什均衡近似解的迁移学习方法加速强化学习训练和多微电网群互动博弈均衡解求解过程。本发明充分利用历史求得的近似均纳什衡解集,实现微电网群互动运行策略的学习,显著提高历史数据的利用与强化学习的训练效率,加速微电网群互动博弈策略的学习。

    一种基于纳什Q学习的微电网群互动博弈策略学习进化方法

    公开(公告)号:CN116050632A

    公开(公告)日:2023-05-02

    申请号:CN202310083666.7

    申请日:2023-02-08

    摘要: 本发明提供一种基于纳什Q学习的微电网群互动博弈策略学习进化方法,包括:考虑多主体利益诉求与微电网群互动约束,构建微电网群互动博弈模型,使用交替方向乘子分布式优化算法松弛问题为全局优化问题求解近似均衡解;基于步骤1求得的近似均衡解,构建近似均衡解驱动的Q‑Learning强化学习训练机制;构建微电网群策略强化学习的动作空间,状态空间和价值函数;基于纳什均衡近似解的迁移学习方法加速强化学习训练和多微电网群互动博弈均衡解求解过程。本发明充分利用历史求得的近似均纳什衡解集,实现微电网群互动运行策略的学习,显著提高历史数据的利用与强化学习的训练效率,加速微电网群互动博弈策略的学习。

    一种电池SOH影响因素分析方法
    3.
    发明公开

    公开(公告)号:CN115963420A

    公开(公告)日:2023-04-14

    申请号:CN202310074970.5

    申请日:2023-01-14

    摘要: 本发明提供一种电池SOH影响因素分析方法,通过重复充放电循环加速电池老化,获取的电池容量以及对应的循环时间、电压、电流和温度数据;在循环时间、电压、电流和温度数据的基础上衍生出14个特征因素作为输入参数,采用KL散度、皮尔逊相关系数和灰色关联度作为评价指标量化特征因素与容量之间的相关性;基于时间卷积网络将输入参数单独进行容量预测以验证每个特征因素对容量预测精度的影响,求取多次预测结果的平均值作为预测误差,从而得到影响电池SOH的特征因素的影响大小,最终根据实际应用需求选取相应的特征因素作为主导参量。

    一种基于TCN的电池剩余循环寿命预测方法

    公开(公告)号:CN116224118A

    公开(公告)日:2023-06-06

    申请号:CN202310075013.4

    申请日:2023-01-14

    摘要: 本发明提供一种基于TCN的电池剩余循环寿命预测方法,应用和健康状态强相关的五个特征因素:循环时间、电压平均值、电压样本熵、温度样本熵、电流值作为输入特征因素,利用核主成分分析法对输入特征因素进行降维,基于时间卷积神经网络选取贡献率较大的主成分进行电池SOH预测;由于电池存在容量再生现象,在五个特征因素的基础上结合容量,进行剩余使用寿命的预测,从而提高预测结果的精度和可信度。

    一种基于改进深度强化学习的综合能源系统能量管理方法

    公开(公告)号:CN115409645A

    公开(公告)日:2022-11-29

    申请号:CN202210965022.6

    申请日:2022-08-12

    摘要: 本发明提供一种基于改进深度强化学习的综合能源系统能量管理方法,包括:1)基于综合能源系统的历史运行数据,采用长短时记忆神经网络搭建各综合能源系统等值封装模型;2)构建各综合能源系统能量管理策略学习训练所需的强化学习环境;3)采用k优先采样策略代替ε贪心策略改进深度强化学习算法,并基于改进深度强化学习算法对各综合能源系统能量管理策略在线学习。本发明通过长短时记忆神经网络的等值建模简化了多综合能源系统互动时的复杂迭代过程,降低了能量管理方案求解难度,同时改进的深度强化学习算法能够在大规模动作空间的探索中减少对低奖励值动作的访问频次,具有更好的收敛性与稳定性。