-
公开(公告)号:CN117872766A
公开(公告)日:2024-04-12
申请号:CN202410054739.4
申请日:2024-01-15
Applicant: 杭州电子科技大学
IPC: G05B13/04
Abstract: 本发明公开了一种面向混合扰动的异质网联车队的智能鲁棒控制方法,该方法首先综合输入时延、不确定参数和外部扰动,建立车辆i的三阶纵向动力学模型。其次基于建立的三阶纵向动力学模型,选择控制目标,设计基于深度强化学习算法的上层协调控制策略。最后基于上层协调控制策略的输出,设计滑模跟随控制器和多目标扰动观测器,完成车队控制。本发明增加辅助控制输入补偿复杂扰动,避免了训练困难的问题的同时又没有牺牲车队的整体性能,并显著提高对复杂环境的适应性和响应速度。
-
公开(公告)号:CN116811897A
公开(公告)日:2023-09-29
申请号:CN202310448424.3
申请日:2023-04-24
Applicant: 杭州电子科技大学
IPC: B60W50/00 , G06N3/0455 , G06N3/0442 , G06N3/0464 , G06F16/901
Abstract: 本发明公开了一种智能体未来轨迹预测系统及方法,包括特征编码器、建议解码器、有向无环图编码器和分解联合解码器,特征编码器对场景上下文信息和历史轨迹进行编码,得到智能体编码,建议解码器对特征编码器的输出的智能体编码进行解码输出智能体的边际未来轨迹,有向无环图编码器根据建议解码器输出智能体的边际未来轨迹建立多智能体之间交互的交互图结构,分解联合解码器根据交互图结构和智能体编码生成多智能体未来联合的轨迹预测。对于有向无环交互图上的源节点,本发明方法能够并行处理,并且在无交互关系的两个智能体也能并行处理,从而提高了轨迹预测的计算效率。
-
公开(公告)号:CN118605526A
公开(公告)日:2024-09-06
申请号:CN202410763981.9
申请日:2024-06-14
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于鲁棒强化学习的电动汽车编队协同控制方法,该方法首先建立车辆i的三阶纵向动力学模型,并选择控制目标。其次根据控制目标,构建鲁棒强化学习算法框架中的奖励函数、状态变量和控制变量。然后基于状态变量、控制变量以及奖励函数,构建对抗性样本,使用强化学习算法PPO作为智能体车辆的控制器,完成车辆编队协同控制。最后通过采用渐进式课程学习方法,在训练阶段逐步增大跟随车辆数量,逐步提升多车环境下车队编队的纵向协同控制能力。本发明提高算法对复杂环境下的鲁棒性能,提升在多车协同控制中的控制效果。
-
-